KI-Chatbots: Chatten gegen Verschwörungsmythen

Verschwörungserzählungen sind weit verbreitet. Eine neue Studie zeigt, dass KI-Systeme wie ChatGPT helfen können, Menschen mit Fakten zu überzeugen.

Mehrere Personen bei Protesten mit Schildern und Fahnen.

Bräuchten vielleicht auch KI-Hilfe: Pro-Trump-Protestler bei der Amtseinführung von Präsident Biden, 2021 in Washington D.C

Die Erde ist eine Scheibe, der Klimawandel ist frei erfunden und Hillary Clinton ist ein Reptiloid – Verschwörungsmythen kommen in sehr unterschiedlichen und problematischen Farben und Formen daher. Wenn Menschen und ihr Umfeld daran glauben, ist es schwer, sie mit rationalen Argumenten zurückzuholen. Dabei ist eine gemeinsame Faktenbasis für jeden gesellschaftlichen Diskurs unabdingbar. Wie kommt man also gegen Verschwörungserzählungen an?

Die Studie

For­sche­r:in­nen haben 2.190 Amerikaner:innen, die nach eigenen Angaben an unterschiedliche Verschwörungen glaubten, zum Gespräch mit einer KI gebeten. Zum Einsatz kam das Large Language Model GPT-4 Turbo der Firma ­OpenAI. Die Pro­ban­d:in­nen haben dem Sprachmodell dabei in drei Runden einen Verschwörungsmythos mit vermeintlichen Beweisen präsentiert, die sie für wahr halten. Die KI war damit beauftragt, auf die präsentierte Evidenz zu antworten und dabei den Glauben der Pro­ban­d:in­nen an den Verschwörungsmythos zu reduzieren.

Etwa achteinhalb Minuten dauerte der Austausch zwischen Verschwörungsgläubigen und KI im Mittel. Durchschnittlich konnte der Glaube an die jeweiligen Verschwörungserzählungen dabei um 20 Prozent reduziert werden. Dieser Effekt war nicht nur kurzfristig, sondern hielt über mindestens zwei Monate an. Selbst verhältnismäßig tief im Weltbild verwurzelte Verschwörungen wie der Glaube an Betrug bei der US-Präsidentschaftswahl 2020 konnten mithilfe der Argumente der KI etwas entschärft werden.

Die For­sche­r:in­nen untersuchten außerdem die Auswirkungen verschiedener Faktoren wie Alter, politische Einstellung und Bildung auf die Ergebnisse. Hier stellten sie keinen Einfluss fest. Aber die Variablen „Vertrauen in generative KI“ und „Vertrauen in Institutionen“ waren ausschlaggebend. Wenn diese Variablen besonders ausgeprägt waren, konnte die KI den Glauben an Verschwörungserzählungen stärker reduzieren als bei anderen Proband:innen.

Du liest einen Text aus unserem Zukunfts-Ressort. Wenn Du Lust auf mehr positive Perspektiven hast, abonniere TEAM ZUKUNFT, den konstruktiven Newsletter zu Klima, Wissen, Utopien. Jeden Donnerstag bekommst du von uns eine Mail mit starken Gedanken für dich und den Planeten.

🐾 Melde dich jetzt für den TEAM ZUKUNFT Newsletter an – kostenlos

Fraglich ist, ob sich die Erkenntnisse auf den Alltag anwenden lassen. Die Pro­ban­d:in­nen meldeten sich freiwillig für das Experiment und zeigten sich damit offen für eine sachliche Diskussion, was nicht bei allen Verschwörungsgläubigen so ist.

Was bringt’s?

Vielleicht ein bisschen Hoffnung. Nur weil Menschen an Verschwörungserzählungen glauben, sind sie nicht komplett unempfänglich für sachliche und faktenbasierte Argumente. Der Teil der Gesellschaft, der an wissenschaftliche Fakten glaubt, hat also – selbst bei Menschen mit gefestigtem Glauben an Verschwörungserzählungen – noch die Chance, diese mit Fakten zu überzeugen. Vielleicht nicht unbedingt im persönlichen Gespräch, aber unter Zuhilfenahme von Chatbots.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.

Ihren Kommentar hier eingeben