Die neuen Wahrheitsministerien: Wikipedia, künstliche Intelligenz und digitale Propaganda

wahrheitsministerienErinnern Sie sich noch, wie Sie Ihren ersten Rechner angeschmissen oder die erste E-Mail versendet haben? 30 Jahre später leben wir im digitalen Zeitalter, und die Konzerne, die mit der  Technikrevolution groß geworden sind, basteln an einer Welt, in der ein Großteil unseres Lebens von Maschinen und Algorithmen bestimmt wird.

Das gilt auch für die Auswahl von Nachrichten und die Frage, welche Informationen es wert sind, auf die Welt losgelassen zu werden. Ein Blick hinter die Kulissen der Medienkonzerne zeigt: Auch hier ist schon alles vernetzt. Das an sich wäre ja nicht verwerflich, würde sich Big Tech nicht als Hüter der Wahrheit aufspielen. Ein warnender Entflechtungsversuch.

Auf der Suche nach aktuellen Nachrichten durchforstet Reuters täglich einen nicht genannten Prozentsatz von 700 Millionen Tweets, und entwickelte dazu den News Tracer, ein Tool zur automatischen Überprüfung des vermeintlichen Wahrheitsgehalts von Meldungen, um zu verhindern, dass menschliche Journalisten auf Fake News stoßen. So wurden beispielsweise Berichte über eine Schießerei in San Bernardino, Kalifornien, früher entdeckt als von allen anderen großen Nachrichtenorganisationen weltweit. Das offensichtliche Problem an dieser Methode ist wieder einmal, dass die Wahrheiten des einen die Fake News des anderen sind. Nehmen wir an, der Schusswechsel wäre in Wirklichkeit ein Angriff unter falscher Flagge. Rein theoretisch würde der Algorithmus, selbst wenn das der Wahrheit entspräche, entsprechende Hinweise als Fake News aussortieren und ignorieren. Reg Chua von der Abteilung für redaktionelle Abläufe, Daten und Innovation bei Reuters sagt, dass News Tracer im Jahr 2017 „bei der Aufdeckung von mehr als 50 wichtigen Nachrichten alle anderen Nachrichtenagenturen weltweit geschlagen hat“.43 Ein weiteres Problem ist der sogenannte Nachrichtenwert. So, wie Wikipedia keine Einträge zu Themen zulässt, die von den Autoren als „nicht beachtenswert“ eingestuft werden, ist Reuters’ News Tracer darauf programmiert, dass er die meisten Ereignisse ignoriert.44

Editor, die erstmals 2015 eingesetzte Software der New York Times, zerlegt Geschichten in ihre Bestandteile: Personen, Orte, Kontext und dergleichen. Vorher haben Menschen die Artikel mit anderen Beiträgen und Anzeigen verknüpft.

„Der erforderliche Arbeitsaufwand, um jeden wichtigen Satz zu markieren und zu kommentieren, ist untragbar.“

Editor ermöglicht die Massenverschlagwortung auf detailliertester Ebene, und für die Journalisten bleibt nicht mehr zu tun, als die Rechtschreibung zu überprüfen.45 Die Knowledge Map der Washington Post liefert den Lesern automatisch den Kontext für eine Reihe von Artikeln zu bestimmten Themen. Genau wie bei den Knowledge Panels von Google, die oft aus der Wikipedia stammen und den Nutzern Kontext bieten sollen, besteht bei der Knowledge Map die Gefahr, dass die Nutzer in einer Echokammer landen, in der sie lediglich Informationen aus einer bestimmten Perspektive erhalten. Sam Han, technischer Leiter für Datenwissenschaft bei The Post, sagt:

„Mit dieser Iteration sind wir in der Lage, Data-Mining-Methoden einzusetzen, um kontextbezogene Inhalte für unsere Leser zu identifizieren und aufzubereiten. Wir arbeiten auch an parallelen Anwendungen, um die Beschäftigung mit unseren Werbeinhalten im natürlichen Umfeld zu erhöhen.“46

Die Qualität der Lokalnachrichten leidet unter der Schließung unabhängiger Medienunternehmen sowie feindlicher Übernahmen durch in den Hauptstädten ansässige Konglomerate. Googles Antwort darauf ist die Digital News Initiative: ein 800.000 Dollar schweres Programm, in dem die Press Association gemeinsam mit Urbs Media halbautonome lokale Nachrichtengeneratoren entwickeln soll. Das Programm wurde „Reporters and Data and Robots“ getauft – eine mehr als sperrige Bezeichnung, nur um es mit dem Akronym RADAR abkürzen zu können. Im Rahmen dieses Projekts sollen 30.000 originäre Artikel pro Monat generiert werden.47 Ein ähnliches von Google finanziertes Projekt ist WikiTribune, ins Leben gerufen von Wikipedia-Mitbegründer Jimmy Wales, das Berichten zufolge gegen Klickfang vorgehen soll.48

puppet

Über den automatisierten Journalismus geraten wir schnell in den Bereich der Wissenskontrolle. Das Sim­SearchNet++ von Facebook sucht nach Bildmanipulationen wie unscharfen und herausgeschnittenen Bildteilen oder Screenshots, um auf vermeintliche Fake News hinzuweisen. Die Software ist mit einer optischen Zeichenerkennung gekoppelt, die falsche Bildtexte identifizieren soll. Um es den menschlichen Detektoren leichter zu machen, stellt die Software auch Collagen angeblicher Fehlinformationen zusammen. Im Jahr 2017 führte das AI Red Team die Deepfake Detection Challenge durch, in deren Verlauf nach Bildern gesucht wurde, die künstlich erstellt oder manipuliert und als echt ausgegeben wurden.492019 berichteteForbesüber die Verfeinerung der KI-Performance.

„Die Press Association zum Beispiel kann jetzt mithilfe von KI 30.000 lokale Nachrichten pro Monat produzieren […] KI-verfasste Inhalte haben sich von schablonenhafter Texterstellung hin zu kreativeren Schreibexperimenten wie Gedichten und Romanen entwickelt.“

Zu den sogenannten Generatoren für natürliche Sprache gehören Polly von Amazon, Text-to-Speech von Google, Heliograf von der Washington Post, Automated Insights von Wordsmith und Quill von Narrative Science, das Inhalte für Forbes, das E-Commerce-Unternehmen Groupon und das Finanzunternehmen USAA erstellt.50

Schlussfolgerung

In ihrem Eifer, das Denken der Nutzer zu kontrollieren, geht die Wikipedia manchmal zu weit und gerät in grundlegende Meinungsverschiedenheiten mit anderen Technologieunternehmen. NewsGuard ist eine Browser­erweiterung, die Websites filtert, indem sie ihnen Farben zuweist: Grün für glaubhaft und Rot für nicht vertrauenswürdig. Wenig überraschend wurden die russischen Websites RT und Sputnik ursprünglich mit Rot bewertet. Auch die Daily Mail bekam einen roten Stempel aufgedrückt, nachdem Wikipedia beschlossen hatte, die britische Zeitung nicht länger als Quelle zu verwenden. Anfang 2019, nachdem ungenannte Führungskräfte dieser Medienunternehmen Gespräche mit den Gründern von NewsGuard geführt hatten, bewerteten diese die Mail, RT und Sputnik jedoch erneut und gaben ihnen grünes Licht.51 Wikipedia behält die Sperre allerdings bei.

Heute werden die vielen Grade an Autonomie, über die Menschen bisher im digitalen Bereich verfügten, durch eine immer ausgefeiltere exponentielle KI-Lernkurve verdrängt, die nach dem Zweiten Weltkrieg von der Militärindustrie geschaffen wurde – in Form von Satelliten, Computern und dem Internet. Im Laufe der Zeit fanden diese Erfindungen ihren Weg in den Privatbereich und wurden kommerzialisiert. Nach dem 11. September 2001 erweiterte man die Technologien und die staatlich finanzierte Forschung und Entwicklung durch Big Data und Programme wie Total Information Awareness (TIA). Heute ist Covid-19 der Auslöser für eine vierte industrielle Revolution, in der alles, einschließlich unserer biologischer Daten, hypervernetzt wird. Das Ziel der Big-Tech-Oligarchen ist es, unsere Gesundheit und sogar unsere Gedanken in Echtzeit überwachen und analysieren zu können.

Das Internet wird immer mehr zu einem System, das von künstlicher Intelligenz gesteuert wird – und die Algorithmen werden inzwischen aktiv genutzt, um Inhalte zu erstellen, Nutzer auf „anerkannte“ Seiten zu leiten und unerwünschte Informationen zu unterdrücken. Wenn wir die Entstehung und Normalisierung dieses Systems zulassen, werden Roboter wie NewsGuard das Wissen überwachen und bestimmte Informationen verbergen, während andere gefördert werden. Ganz in orwellscher Manier werden sie sogar originäre Inhalte erstellen, von denen die Verbraucher annehmen, sie wären menschlichen Ursprungs. So, wie die Biotechnologie mit modifizierten Impfstoffen und im Labor hergestellten Lebensmitteln die Grenzen zwischen dem Natürlichen und dem Synthetischen verwischt, verwischt die KI die Unterscheidung zwischen menschlichen und robotergestützten Online-Interaktionen.

In dieses Bild fügt sich Wikipedia durch seine Verbindung zu Google ein, das die Wikipedia-Artikel bei den Suchergebnissen ganz oben platziert. Weiterhin gibt es unappetitliche Beziehungen zu den Geheimdiensten, etwa in Form der Verwendung von Bots zum Abrufen von Daten aus dem World Factbook der CIA, sowie die elterlichen Verbindungen des wichtigsten Wikipedia-Autors zum US-Militär. Es handelt sich mitnichten um eine offene Enzyklopädie, die durch die Schwarmintelligenz stets ausgewogen bleibt. Sie ist ein Propagandawerkzeug des militärisch-industriellen Komplexes der USA sowie der US-Konzerne. Auch wenn die beteiligten Player konkurrierende und widersprüchliche Interessen verfolgen, so geht es doch im Großen und Ganzen darum, westliche Unternehmen und Staaten möglichst gemäßigt und die Gegenspieler Amerikas als den personifizierten Schrecken darzustellen. Wir sollten anfangen, die Wikipedia als das zu benennen, was sie ist; wir sollten die Oberfläche abkratzen und herausfinden, von wem das ganze System finanziert wird. Und vor allem sollten wir Wege finden, die Organisation wirklich zu demokratisieren.

Kommentar schreiben

Folgende Art von Kommentaren sind unerwünscht und werden von uns entfernt:

  • (Schleich-)Werbung jedweder Art
  • Kommentare die nichts zum Thema beitragen
  • Kommentare die der deutschen Sprache nicht gerecht werden
  • Geplänkel mit anderen Kommentarschreibern
  • Kontaktanfragen an die Redaktion (benutzen Sie hierfür bitte das Kontaktformular)

Bitte beachten Sie unsere Datenschutzhinweise