piwik no script img

KI-ChatbotsChatten gegen Verschwörungsmythen

Verschwörungserzählungen sind weit verbreitet. Eine neue Studie zeigt, dass KI-Systeme wie ChatGPT helfen können, Menschen mit Fakten zu überzeugen.

Bräuchten vielleicht auch KI-Hilfe: Pro-Trump-Protestler bei der Amtseinführung von Präsident Biden, 2021 in Washington D.C

Die Erde ist eine Scheibe, der Klimawandel ist frei erfunden und Hillary Clinton ist ein Reptiloid – Verschwörungsmythen kommen in sehr unterschiedlichen und problematischen Farben und Formen daher. Wenn Menschen und ihr Umfeld daran glauben, ist es schwer, sie mit rationalen Argumenten zurückzuholen. Dabei ist eine gemeinsame Faktenbasis für jeden gesellschaftlichen Diskurs unabdingbar. Wie kommt man also gegen Verschwörungserzählungen an?

Die Studie

For­sche­r:in­nen haben 2.190 Amerikaner:innen, die nach eigenen Angaben an unterschiedliche Verschwörungen glaubten, zum Gespräch mit einer KI gebeten. Zum Einsatz kam das Large Language Model GPT-4 Turbo der Firma ­OpenAI. Die Pro­ban­d:in­nen haben dem Sprachmodell dabei in drei Runden einen Verschwörungsmythos mit vermeintlichen Beweisen präsentiert, die sie für wahr halten. Die KI war damit beauftragt, auf die präsentierte Evidenz zu antworten und dabei den Glauben der Pro­ban­d:in­nen an den Verschwörungsmythos zu reduzieren.

Etwa achteinhalb Minuten dauerte der Austausch zwischen Verschwörungsgläubigen und KI im Mittel. Durchschnittlich konnte der Glaube an die jeweiligen Verschwörungserzählungen dabei um 20 Prozent reduziert werden. Dieser Effekt war nicht nur kurzfristig, sondern hielt über mindestens zwei Monate an. Selbst verhältnismäßig tief im Weltbild verwurzelte Verschwörungen wie der Glaube an Betrug bei der US-Präsidentschaftswahl 2020 konnten mithilfe der Argumente der KI etwas entschärft werden.

Die For­sche­r:in­nen untersuchten außerdem die Auswirkungen verschiedener Faktoren wie Alter, politische Einstellung und Bildung auf die Ergebnisse. Hier stellten sie keinen Einfluss fest. Aber die Variablen „Vertrauen in generative KI“ und „Vertrauen in Institutionen“ waren ausschlaggebend. Wenn diese Variablen besonders ausgeprägt waren, konnte die KI den Glauben an Verschwörungserzählungen stärker reduzieren als bei anderen Proband:innen.

Team Zukunft – der Newsletter zu Klima, Wissen, Utopien

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

Fraglich ist, ob sich die Erkenntnisse auf den Alltag anwenden lassen. Die Pro­ban­d:in­nen meldeten sich freiwillig für das Experiment und zeigten sich damit offen für eine sachliche Diskussion, was nicht bei allen Verschwörungsgläubigen so ist.

Was bringt’s?

Vielleicht ein bisschen Hoffnung. Nur weil Menschen an Verschwörungserzählungen glauben, sind sie nicht komplett unempfänglich für sachliche und faktenbasierte Argumente. Der Teil der Gesellschaft, der an wissenschaftliche Fakten glaubt, hat also – selbst bei Menschen mit gefestigtem Glauben an Verschwörungserzählungen – noch die Chance, diese mit Fakten zu überzeugen. Vielleicht nicht unbedingt im persönlichen Gespräch, aber unter Zuhilfenahme von Chatbots.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Kann mich noch erinnern, wie soziale Netzwerke als die große Nummer angeprießen wurde. Informationen und Fakten für alle zugänglich, globale und zensurfreie Kommunikation, etc. Heute gelten sie mindestens genauso als Schlüssel für die Verbreitung von Desinformation, Hass und Hetze, für Blasenbildung im Netz.



    Natürlich haben alle technischen Neuerungen auch jede Menge positive Seiten und Effekte. Trotzdem isses erstaunlich, wie naiv man sich immer wieder darin versucht, den "alles wird gut Effekt" herbeizureden.



    Ohne Regulierungen wird KI aber sowohl im Positiven, wie auch im Negativen enorm viel verändern. Die Möglichkeiten für Mißbrauch sind rießig.

  • Hier hat offensichtlich jemand "geforscht" der Chat-GPT selbst nicht benutzt. Wenn er das nämlich getan hätte, würde er wissen, dass es der mit der Fakten selbst nicht so genau nimmt. Das Modell neigt zum Flunkern und behaupet gern mal willkührlich irgendeinen Unsinn. Hauptsache der Unsinn hört sich irgendwie plausibel an.

    Der Punkt ist der, dass Chat-GPT keine Fakten kennt oder Wissen hat, sondern über gespeicherte Gesprächsverläufe funktioniert.

  • Die alten Chatten. Komisch, das von den Prä-Hessen dann im Artikel nichts mehr zu lesen war.



    Ernsthaft: Ist die Nachricht nicht schon etwas länger her bekannt und rundgegangen? Und wo bleibt der verdeckte taz-Faktenbot?

  • Der Unsinn mit dem Hype um die KI macht vor keinem Thema halt. Dabei ist noch nicht einmal geklärt, was 'Intelligenz' ist bzw. wofür der Begriff steht.

    Die KI-Programme beruhen auf statistischen Datenmodellen, die sie zumindest teilweise selber generieren. Am Ende präsentiert die KI dann Antworten, die wahrscheinlich zutreffen. Wenn Endnutzer diese akzeptieren, verarbeitet die KI dies als Bestätigung des Modells.

    KI stößt da an Grenzen, wo diverse Teilaspekte ganz unterschiedlich behandelt werden können und am Ende ein anderes Ergebnis herauskommen kann. Wichtig ist, mit welchen Daten die KI gefüttert wird und welche Aufgaben die KI lösen soll. Falsch genutzte KI führt nur zur Bestätigung des 'herkömmlichen Wissens' und kann eigene Vorurteile noch verstärken.

    Da immer mehr KI-generierte Inhalte in die Datenbasen einfließen, kann das dazu führen, dass die Zahl unterschiedlicher Modelle/Ausgaben sinkt und die Zahl von Fehlern steigt. Diese Model Autophagy Disorder hat zur Folge, dass die KI eigene Fehler immer weiter verstärkt und am Ende nur noch von Künstlichem Irrsinn gesprochen werden kann. Selber recherchieren und denken, und Austausch mit Menschen bleiben unersetzlich!