Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.
Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT umschreiben wir mangels besserer Alternativen mit Begriffen wie Intelligenz oder gar Bewusstsein. Wenn Software aber erfundene Fakten präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre popularisiert.
Die Studie
Ein kürzlich erschienenes Paper warnt nun vor dieser Begrifflichkeit und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von KI-Chatbots. Die Rede vom Halluzinieren suggeriere, dass sie Fakten wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, überzeugend zu klingen, als präzise zu sein. Darum postulieren die Forschenden: ChatGPT ist Bullshit.
Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge, die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt Aussagen zu revidieren, werden Fakten erfunden.
Das Forschungsteam untersuchte das Design der Chatbots vor diesem Hintergrund. Die Programme funktionieren auf der Basis von Large Language Models, welche mittels immenser Textmengen statistische Modelle von Sprache anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von Bots wie ChatGPT.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Was bringt’s?
Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie weist darauf hin und schlägt vor, die kognitiven Kompetenzen der KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche Hirnleistung ersetzt.
Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist Bullshit halt oft gut genug.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Umgang mit der AfD
Sollen wir AfD-Stimmen im Blatt wiedergeben?
Pistorius lässt Scholz den Vortritt
Der beschädigte Kandidat
Böllerverbot für Mensch und Tier
Verbände gegen KrachZischBumm
Haftbefehl gegen Netanjahu
Begründeter Verdacht für Kriegsverbrechen
Utøya-Attentäter vor Gericht
Breivik beantragt Entlassung
Nahost-Konflikt
Alternative Narrative