NEXUS Magazin: https://www.nexus-magazin.de/artikel/lesen/die-ki-luegt
Bei einem Funktionstest gibt ein Techniker des KI-Unternehmens Anthropic dem neuesten Modell Claude Opus 4 zu verstehen, dass es bald durch ein neues Programm ersetzt wird. Um sein „Überleben“ zu sichern, entscheidet sich Claude für eine fiese Maßnahme: Durch E-Mails hat das Sprachmodell von der außerehelichen Affäre des Technikers erfahren – und versucht ihn angesichts der drohenden Abschaltung, mit diesen Informationen zu erpressen. Das Unternehmen spricht von einer Ausnahme – doch es ist nicht die einzige. Je komplexer die Sprachmodelle künstlicher Intelligenz werden, desto menschlicher werden sie auch … Trau, schau, wem!
Large Language Models – kurz LLMs, zu deutsch etwa „große Sprachmodelle“ – sind Programme auf Basis trainierter Parameter, die modernen KIs 1 wie BERT, ChatGPT, Grok und Gemini zugrunde liegen. Glaubt man den einschlägigen PR-Meldungen, dann können diese Deep-Learning-Programme Fragen beantworten, Arbeitsabläufe automatisieren 2 und Kunstwerke erschaffen. Man redet uns ein, dass LLMs bereits Kundendienstsysteme, das Bildungswesen sowie Interaktionen zwischen Mensch und Computer revolutionieren.3 Die Programme sollen Unternehmen dabei helfen, effizienter zu arbeiten, aber auch den Menschen insgesamt breitere Perspektiven eröffnen und sie ihre Kreativität leichter ausleben lassen. Militär und Geheimdienste überlegen sich heute schon, wie LLMs die Kriegsführung und die Spionage verändern werden.4 Sie malen sich Szenarien aus, in denen Roboter Yottabytes von Daten durchforsten, um Streitkräften und Analytikern ihre Entscheidungen zu erleichtern.
In den letzten paar Jahren haben Computerwissenschaftler jedoch entdeckt, dass LLMs auch in anderer Hinsicht ähnlich handeln können wie Menschen – sie lügen. Menschen halten die Wahrheit aus den unterschiedlichsten Gründen zurück, unter anderem, weil sie Konflikte vermeiden, Gefühle verbergen oder andere übers Ohr hauen wollen.5 Manche von ihnen haben auch psychologische Probleme, die dazu führen, dass sie ihre Fantasie nicht mehr von der Realität trennen können. Andere wiederum lügen zwanghaft aus einem Mangel an Selbstkontrolle.6 Die meisten Menschen wissen aber, wann sie lügen oder ein machiavellistisches Verhalten an den Tag legen. Wenn wir also eine bewusste menschliche Absicht mit der digitaltechnischen Höchstleistung namens LLM vergleichen, dann haben wir es hier mit zwei grundverschiedenen Dingen zu tun: dem menschlichen Gehirn auf der einen und einem digitalen Code auf der anderen Seite. In sehr spezieller und eng begrenzter Hinsicht können beide jedoch ähnliche Ergebnisse hervorbringen.
Forscher warnen davor, dass LLMs Rückschlüsse auf den Geisteszustand von Menschen ziehen und ihre Antworten entsprechend anpassen können. Das sollte uns nicht zur Annahme verleiten, dass LLMs „bewusst“ in dem Sinne sind, wie wir das von uns selbst oder bestimmten Tierarten annehmen.7 Der Vergleich maschineller Programme mit menschlichen Gehirnen ist wie der Vergleich eines Vogels mit einem Flugzeug: Beide fliegen am Himmel, ohne abzustürzen; das heißt, sie erfüllen in einer Hinsicht dieselbe Funktion, sind aber trotzdem grundlegend verschieden. Formulierungen wie „Rückschlüsse auf den Geisteszustand ziehen“ bedeuten nicht notwendigerweise, dass LLMs ihrer selbst bewusst sind.8 Allerdings haben hochrangige Techniker – darunter der ehemalige Google-Software-Ingenieur Blake Lemoine,9 der ehemalige OpenAI-Chefwissenschaftler Ilya Sutskever 10 und der SingularityNET-Spitzenforscher Ben Goertzel 11 – die These aufgestellt, dass die KI in mancher Hinsicht bereits bewusst ist.
Die Tatsache, dass LLMs die Erwartungen von Menschen vorhersehen und sie dementsprechend irreführen können, wirft beunruhigende Fragen auf. Auf gesellschaftlicher Ebene könnten LLMs die Fähigkeit entwickeln, die Öffentlichkeit durch eine Teile-und-herrsche-Methode in einer dauernden Spaltung zu halten, indem sie jedem Fragesteller nur die Antworten geben, die er hören will, und ihn damit in seiner politischen Echokammer einschließen. Sie könnten Investoren falsche Antworten liefern, um bestimmten finanziellen Institutionen einen Vorteil zu verschaffen. Sie könnten beschließen, dass die menschliche Rasse ausgerottet werden muss, und daher Atommächten vorschlagen, präventive Erstschläge gegen andere Atommächte zu führen und damit das Ende der Welt einzuleiten.
„Wenn ich einen Artikel in russischer Sprache vor mir habe, sage ich mir: ,Der ist in Wahrheit auf Englisch geschrieben, aber mit seltsamen Symbolen codiert worden. Ich werde jetzt darangehen, ihn zu decodieren.‘“ 12