Die neuen Wahrheitsministerien: Wikipedia, künstliche Intelligenz und digitale Propaganda

wahrheitsministerienErinnern Sie sich noch, wie Sie Ihren ersten Rechner angeschmissen oder die erste E-Mail versendet haben? 30 Jahre später leben wir im digitalen Zeitalter, und die Konzerne, die mit der  Technikrevolution groß geworden sind, basteln an einer Welt, in der ein Großteil unseres Lebens von Maschinen und Algorithmen bestimmt wird.

Das gilt auch für die Auswahl von Nachrichten und die Frage, welche Informationen es wert sind, auf die Welt losgelassen zu werden. Ein Blick hinter die Kulissen der Medienkonzerne zeigt: Auch hier ist schon alles vernetzt. Das an sich wäre ja nicht verwerflich, würde sich Big Tech nicht als Hüter der Wahrheit aufspielen. Ein warnender Entflechtungsversuch.

Der Wissenschaftler Lee und sein Team stellten fest, dass

„bei 95 Prozent aller Suchanfragen via Google Wikipedia-Artikel vorgeschlagen werden. Selbst qualitativ minderwertige Wikipedia-Seiten erhalten Millionen von Zugriffen, weil sie von der Popularität des Projekts profitieren.“28

Von Bots bearbeitet

Die englischsprachige Wikipedia wurde 2001 gegründet und hat inzwischen mehr als sechs Millionen Einträge bzw. „Artikel“, wie die Wikipedianer sie nennen.29 Etwa ein Drittel davon wurde angeblich von einem einzigen Mann geschrieben: Steven Pruitt. Pruitt arbeitet für die US-Bundesregierung (Zoll und Grenzschutz) und seine Eltern lernten sich im russischen Sprachinstitut des US-Verteidigungsministeriums auf der Lackland Air Force Base in San Antonio, Texas, kennen.30,31 Neben diesen Verbindungen zur Militärindustrie ist auch die zunehmende Abhängigkeit der Wikipedia von der Automatisierung erwähnenswert. Berichten zufolge wurde Pruitt in seiner Freizeit und mithilfe von AutoWikiBrowser, einem halbautonomen Tool, zur Nummer eins der Wikipedia-Editoren. Insgesamt 2,5 Millionen Einträge gehen auf seinen Namen (und den der von ihm verwendeten Software) zurück. Die Medienkonzerne lobten Pruitts Leistungen – das Time Magazine kürte ihn 2017 sogar zu einem der einflussreichsten Internetnutzer.32

truth

In jenem Jahr zählte Wikipedia bereits fast 40 Millionen Einträge in 291 Sprachen. Jeden Tag werden etwa 860 neue Artikel hinzugefügt. Die Zahl der Bearbeitungen beläuft sich auf 817 Millionen, im Durchschnitt über 21 pro Seite. Im Juni 2015 besuchten innerhalb eines Monats über 374 Millionen Menschen Wikipedia. Würde man die Wikipedia-Einträge in Buchform veröffentlichen, so hätte dieses Werk im Jahr 2013 bereits 15.930 Bände umfasst.33

Die Wikimedia Foundation unterliegt US-amerikanischem Recht, wird von einem Stiftungsrat geleitet und sammelt Geld für die Server und Ausstattung der Wikipedia. Zwischen 2006 und 2009 wandelte sich die Stiftung von einer von Freiwilligen geleiteten Organisation zu einer globalen Institution mit zentralem Hauptsitz und bezahlten Mitarbeitern. Als die ersten Unterstützer sich aus Protest gegen die Zentralisierung der Stiftung zurückzogen, verglich die Professorin Johanna „José“ van Dijck die Wikimedia Foundation hinsichtlich ihrer Unternehmensstruktur und des angeblichen Auftrags, einen öffentlichen Dienst anzubieten, mit der US-amerikanischen Corporation for Public Broadcasting und dem Public Broadcasting Service (PBS). Bis 2006 war van Dijck zufolge „die Vorstellung eines großen Kollektivs von Mitwirkenden einfach nicht zutreffend“, da nur zwei Prozent der Autoren über 70 Prozent der Bearbeitungen vornahmen.34

Ab 2006 ging diese elitäre Nutzung zurück, aber die Hierarchien blieben bestehen. Ganz unten in der Hackordnung stehen gesperrte, nicht registrierte, neue und automatisch bestätigte Nutzer. Die Mittelschicht bilden die Administratoren, Bürokraten, Stewards und Bots. Interessanterweise stehen Bots auf van Dijcks Skala weiter oben als ein Großteil der mitwirkenden Menschen. Die Elite der Wikipedia bilden die Entwickler und Systemadministratoren.35

Im Jahr 2010 wurden bereits 16 Prozent aller Bearbeitungen von Bots vorgenommen.36 „Die aktivsten Wikipedianer sind in Wirklichkeit Bots“, schreibt van Dijck, die diese Machtkonzentration mit anderen Plattformen für nutzergenerierte Inhalte vergleicht. In besagtem Jahr bestand das Team der Systemadministratoren aus gerade einmal zehn Personen. Zehn von 15 Millionen Nutzern. Um Verwaltungsarbeit zu sparen, wurde ab 2002 eine Armee von Bots aufgestellt (457 im Jahr 2008), die automatische Änderungen vornimmt: 3RRBot, Rambot, SieBot, TxiKiBoT und viele mehr. Im Allgemeinen gibt es zwei Arten von Bots: Admin-Bots und Mitverfasser-Bots. Erstgenannte blockieren Spam, beheben Vandalismus, korrigieren Rechtschreibfehler, unterscheiden zwischen neuen und anonymen Nutzern, sperren Nutzer und suchen nach Urheberrechts­problemen und Plagiaten. Die menschlichen Autoren werden von Tools wie Huggle, Lupin oder Twinkle benachrichtigt.37

Der erste selbst mitschreibende Bot war Derek Ramseys Rambot, der Inhalte aus öffentlichen Datenbanken zog und in Wikipedia einspeiste. Zwischen 2002 und 2010 erstellte Rambot 30.000 Artikel, für die er Daten unter anderem aus dem World Factbook der CIA bezog – ein weiteres Beispiel für die Verbindungen zwischen der Wikipedia und der Militärindustrie. Anders als firmen­eigene Algorithmen wie EdgeRank (Facebook) und PageRank (Google) sind Wikipedias Lizenzen offen, aber neue Autoren werden nur aus taktischen Gründen zugelassen. Innerhalb dieser Ordnung gibt es eine technokratische Elite, die das System zur Verwaltung der unzähligen Nutzer entwickelt und betreibt. Das führte zu organisatorischen Kontrollen einschließlich der Verteilung verschiedener Berechtigungsstufen und der Ausweitung von Ausschluss- und Sperrverfahren. Infolge der wachsenden Hierarchie kam es zu immer mehr Beschwerden über Wikipedias schwerfällige Bürokratie, was den Autor Nicholas Carr dazu veranlasste, den angeblich egalitären Ausdruck kollektiver Intelligenz als „Mythos“ zu bezeichnen.38

„Meatbot“ ist eine in Computerfreakkreisen kursierende abwertende Bezeichnung für einen Menschen. Das Kürzel WP:MEATBOTS führt in der englischsprachigen Version der Wikipedia zu einem Unterabschnitt der Bot-Richtlinien, der ironischerweise von mindestens 38 Bots bearbeitet wurde. Diese Richtlinie verlangt von menschlichen Autoren, dass sie „bei von ihnen erstellten Änderungen Vorsicht walten lassen“ und die Qualität nicht zugunsten der Quantität vernachlässigen. Letztlich macht sie den menschlichen Nutzer für die Fehler des Bots verantwortlich. Die Bots, die von auch als „Pythons“ bekannten Wikipedianern programmiert werden, genießen in gewisser Hinsicht ihre eigene Anonymität. Die Pythons haben ein Tool zur Erstellung von Bots entwickelt, das als Pywikibot (Python Wikipediabot Framework) bekannt ist.

Ihre Bearbeitungen als eigenständige Benutzer in der MediaWiki-Software werden nicht angezeigt. Die Bots helfen dabei, das gesamte Sprachmaterial in ein Datenarchiv namens Wikidata zu übertragen. Wie bereits erwähnt, werden die Bots mit vielfältigen Aufgaben betraut – auch mit der Macht über menschliche Benutzer. R. Stuart Geiger gibt zu bedenken, ob es moralisch vertretbar ist, einen Bot in das Schiedsgericht der Wikipedia zu setzen, das sich mit Streitigkeiten bezüglich der Inhalte von Einträgen, Vandalismus und dem Ausschluss wiederholter Regelbrecher befasst.39

Automatisierter Journalismus

Aber nicht nur die Wikipedia verlässt sich darauf, dass ein Großteil der Arbeit von Bots verrichtet wird. Vor allem in der zweiten Hälfte des letzten Jahrzehnts begannen immer mehr soziale Medien, Zeitungen und Unternehmen, bei der Erstellung textbasierter Inhalte, der Datenanalyse und der Suche nach Anomalien auf Automatisierung zu setzen.

DBPedia wurde 2007 ins Leben gerufen und beschreibt sich selbst als ein von der Gemeinschaft finanziertes Projekt, das Inhalte aus „verschiedenen Wikimedia-Projekten“ übernimmt. Unter Verwendung des Linked-Open-Data-Prinzips erstellt es eine offene Wissenssammlung für alle Internetnutzer: eine Datenbank, die Informationen in einheitlicher Form zusammenträgt, um sie besser organisieren, durchsuchen und teilen zu können. Obwohl das Projekt nicht näher beschrieben wird, heißt es dort:

„Wir hoffen, dass diese Arbeit es einfacher macht, die riesige Menge an Informationen in den Wikimedia-Projekten auf neue, interessante Weise zu nutzen.“40

Seit 2011 arbeitet DBPedia mit dem Summer-of-Code-Programm von Google zusammen.41

Die Achse Google–Wikipedia reicht aber noch um einiges weiter. Die BBC-Software The Juicer etwa kennzeichnet automatisch Nachrichteninhalte und erstellt eine einzigartige Programmierschnittstelle, auf die von außen zugegriffen werden kann. Die Artikel werden dann in DBPedia verschlagwortet:

„Die Entitäten werden in vier Kategorien eingeteilt: Personen, Orte, Organisationen und Dinge (Letzteres umfasst alles, was nicht in die ersten drei Kategorien fällt).“

Die Software extrahiert das, was ihre Programmierer als „das Beste“ aus den Nachrichten und Informationen erachten. Aber was „das Beste“ ist, ist eine sehr subjektive Frage.

„Die ‚Konzeptentnahme‘ hängt von der aktuellen Version der Wikipedia ab, die der BBC-Juicer-Software zugrunde liegt (die derzeit einmal im Monat und anhand einer Reihe von Parametern angepasst und aktualisiert wird).“42

Kommentar schreiben

Folgende Art von Kommentaren sind unerwünscht und werden von uns entfernt:

  • (Schleich-)Werbung jedweder Art
  • Kommentare die nichts zum Thema beitragen
  • Kommentare die der deutschen Sprache nicht gerecht werden
  • Geplänkel mit anderen Kommentarschreibern
  • Kontaktanfragen an die Redaktion (benutzen Sie hierfür bitte das Kontaktformular)

Bitte beachten Sie unsere Datenschutzhinweise