piwik no script img

Künstliche Intelligenz erzählt QuatschKeine Halluzination, sondern Bullshit

Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.

KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erzählen, sagt man, dass sie halluzinieren Das ist Quatsch Foto: Rainer Waldkirch/imago

Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT umschreiben wir mangels besserer Alternativen mit Begriffen wie Intelligenz oder gar Bewusstsein. Wenn Software aber erfundene Fakten präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre popularisiert.

Die Studie

Ein kürzlich erschienenes Paper warnt nun vor dieser Begrifflichkeit und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von KI-Chatbots. Die Rede vom Halluzinieren suggeriere, dass sie Fakten wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, überzeugend zu klingen, als präzise zu sein. Darum postulieren die Forschenden: ChatGPT ist Bullshit.

Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge, die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt Aussagen zu revidieren, werden Fakten erfunden.

Das Forschungsteam untersuchte das Design der Chatbots vor diesem Hintergrund. Die Programme funktionieren auf der Basis von Large Language Models, welche mittels immenser Textmengen statistische Modelle von Sprache anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von Bots wie ChatGPT.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Was bringt’s?

Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie weist darauf hin und schlägt vor, die kognitiven Kompetenzen der KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche Hirnleistung ersetzt.

Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist Bullshit halt oft gut genug.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

9 Kommentare

 / 
  • @CHRIS DEMIAN

    Auf meinen Buchdealer lass' ich nix kommen. Bestellung ist schon raus.

    Dank den von mir verlinkten Wikipedia-Artikel (ja, meistens lese ich -- mindestens überfliege ich die Referenzen, die ich hier reinstelle) wusste ich ja ungefähr, worauf ich mich einlasse.

    Neugierig.

  • Die KI wird das beenden, was das Internet begonnen hat.

  • Sehr schöner Text. ChatGPT und andere werden als KI vermarktet, dabei haben sie überhaupt keine Intelligenz. Es sind schlicht Rechenmaschinen, die ihre Berechnungsergebnisse über eine Sprachschnittstelle mitteilen und damit Intelligenz simulieren.



    Nur mit dem letzten Satz bin ich nicht einverstanden, sind doch die Ergebnisse dieser Rechenmodelle in den allermeisten Fällen korrekt und oft genug auch brauchbar.

  • Dieses ganze KI-Gefasel, ist bestenfalls maschinelles Lernen (ML). Nicht mehr und nicht weniger. Dieser Hype darum ist einfach nur völlig sinnfrei. Die "Produktionseffizienten" die hier immer von den großen Unternehmen geteilt werden sind einfach nur "bullshit".

    Solange diese "ML-Applikationen" kein proof-reading haben. Sprich sich selbst prüfen können, ob ihr Text wahr und belegbar ist. Sollten wir ganz schnell von den Wörtern KI und AI, wegkommen.

  • Danke.

  • Danke für den Artikel, sehr wichtiges Thema!

    Den o.a. Artikel kann ich wirklich wärmstens empfehlen. Harry G Frankfurts Buch [1] ist meine nächste Bestellung bei meinem Buchdealer.

    Für mein Geschmack geht im obigen Artikel etwas ein wenig unter: Wahrheit ist kein Statisches Ding "da draussen", sondern wir versuchen, unsere Wahrnehmungen und Erfahrungen miteinander anzugleichen. Ehrliches Bemühen, die Bereitschaft, sich die Haare gemeinsam auszuraufen sind da ganz wichtige Ressourcen.

    Wahrheit ist ein Prozess, kein Produkt.

    Bullshit missbraucht diese Ressource für fremde Zwecke -- und verbraucht sie auch. Unsere ganze post-truth misere zeugt davon [2].

    So gesehen sind Chatbots lediglich eine weitere Facette des Enteignungszyklus des Überwachungskapitalismus, im Sinne von Zuboff.

    [1] en.wikipedia.org/wiki/On_Bullshit



    [2] en.wikipedia.org/wiki/Alternative_facts

    • @tomás zerolo:

      "...meine nächste Bestellung bei meinem Buchdealer."

      Ist nicht wirklich ein Buch... Keine 50 Seiten, ursprünglich ein 16-seitger Essay, der zwanzig Jahre nach Erscheinen als großgedrucktes Büchlein nochmal verlegt wurde (und auch im Netz frei zu haben – ich hoffe, ich bringe den Buchdealer nicht um die 5 Euro Umsatz).

  • Chat CPT könnte gut Politiker ersetzen. Den Bundespräsidenten allemal. Wäre eine echte Kostenersparnis. Alle 5 Jahre können die zuständigen Gremien das Design der Sprechpuppe neu festlegen, damit es dem Volk nicht zu langweilig wird.

    • @Matt Gekachelt:

      Die Aufgabe des Bundespräsidenten ist es gar nicht, Reden zu halten.