piwik no script img

doppelblindWann KI-Chatbots überzeugender sind als Menschen

Worum geht’s?

Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und mit Kochbananen sein – was gibt es da? Chatbots mit künstlicher Intelligenz (KI) wie ChatGPT, Gemini oder DeepSeek erfüllen mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber, Diskussionspartner und für manche Menschen sogar eine Art Seelsorger. Nicht umsonst gibt es längst Apps, in denen Chatbots gute Freun­d:in­nen­schaf­ten simulieren. Mit ihren passgenauen Antworten sind Bots mittlerweile so gut, dass sie auch verwendet werden, um Propaganda zu erzeugen.

Die Studie

Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu untersuchen, haben For­sche­r:in­nen aus Lausanne 900 Menschen zu politischen Fragen chatten lassen. Etwa dazu, ob Schü­le­r:in­nen Uniformen tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von einem Chatbot oder Menschen stammten. Vor und nach der Debatte maßen die For­sche­r:in­nen die Zustimmung oder Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“, ­schreiben die For­sche­r:in­nen in ihrer Studie im Fachmagazin Nature Human Behaviour.

Besser war der Bot dann, wenn er persön­liche Informationen über seinen menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht, politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine Auswahl individueller Informationen einen solchen Effekt hatte, überraschte die For­sche­r:in­nen: „Er könnte wahrscheinlich noch stärker sein, wenn […] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.“

Was bringt’s?

In zahlreichen Situation wissen Nut­ze­r:in­nen gar nicht, ob sie es mit einem Menschen oder einem Bot zu tun haben. Gerade in Online­netzwerken, also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen, Annahmen und Fehler in ihnen stecken.

Neue wissenschaftliche Studien stellen wir jede Woche an dieser Stelle vor – und erklären, welchen Fortschritt sie bringen. Sie wollen die Studie finden? Jede hat einen Code, hier lautet er: doi.org/10.1038/s41562-025-02194-6

„Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die Studienautor:innen. Besonders, weil KI-Modelle persönliche Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen ziehen können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente generieren und Nut­ze­r:in­nen über die Gefahren aufklären. Svenja Bergt

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen