Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz

Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.

Wähler in Trachten bei der Landtagswahl in Baden-Württemberg 1972

Damals noch ohne digitale Entscheidungshilfe: Landtagswahl in Baden-Württemberg im Jahr 1972 Foto: Martin Athenstädt/dpa/picture alliance

Wenn heute Europawahl wäre, wie würden die Erst­wäh­le­r*in­nen abstimmen? In einigen Fällen mithilfe des Wahl-O-Mat, dafür wurde er ja 2002 entwickelt. Das Tool der Bundeszentrale für politische Bildung wurde bei der letzten Bundestagswahl über 21 Millionen Mal genutzt, soll aber eigentlich vor allem Erst­wäh­le­r*in­nen Orientierung geben. ChatGPT ist keine Erstwählerin (zu jung), wurde die letzten Tage aber immer wieder so behandelt, indem sie mit den 38 Thesen konfrontiert wurde, die der Wahl-O-Mat so abfragt.

Begonnen hat damit Mitte Mai Timm Rotter, der beruflich KI-Beratungen anbietet und ein gutes Händchen für Aufmerksamkeit hat. Denn die Bild-Zeitung hat das Experiment dann aufgegriffen – und viele andere auch. Die haben auch noch andere KIs getestet, die größtenteils ähnlich abgeschnitten haben. Aber bleiben wir mal bei ChatGPT, dem großen Player. Der müsste die Grünen wählen. Oder aber etwas Linkes. Idealerweise, das hat zumindest unser taz-Test ergeben: die Letzte Generation. Das kann man natürlich problematisieren (Bild) oder aber ein bisschen feiern.

Die Antworten von ChatGPT stimmen zu 81 bis 87 Prozent mit denen der Grünen überein. Die AfD liegt zwischen 18 und 21 Prozent, die Union bei 53. Nicht wirklich berauschend – aus deren Sicht. Die KI findet, dass Deutschland keine nationale Währung braucht, dass die Ukraine in die EU aufgenommen werden soll und jene EU vorrangig Öko-Landwirtschaft fördern sollte. Und sie kann das sogar argumentieren. Warum sollte ein Geschlechtseintrag abseits von „männlich“ und „weiblich“ in Pässen von EU-Ländern vorkommen?

Die KI nummeriert ihre Argumente durch, geht auf Gesundheitsaspekte, Diskriminierung, Gleichberechtigung, Schutz von nichtbinären Menschen und den Vorbildcharakter der EU ein. Sie trifft eine gut informierte Entscheidung – sofern das eine KI kann, die basierend auf Trainingsdaten berechnet, welche Wörter und Satzteile in welcher Wahrscheinlichkeit aneinandergereiht werden. Wobei nicht ganz klar ist, wie sie das genau macht.

Entscheidungen anhand objektiver Wahrheiten

Bei dieser Berechnung orientieren sich einige sogenannte Large Language Models (LLMs) auch daran, wie ihnen eine Frage gestellt wurde. Die Wortwahl, die Stoßrichtung der Frage wird so auch zur Stoßrichtung der Antwort. Man könnte LLMs als konfliktscheue Jasager bezeichnen. Und deswegen die Bundeszentrale für politische Bildung dafür kritisieren, wie sie Thesen im Wahl-O-Mat formuliert. Doch so richtig suggestiv kommen die eben nicht daher. Und es wäre nur eine weitere Kritik an dem Tool neben der schon lange bekannten: Bei der Thesenauswahl wird zu sehr auf das Ja-Nein-Schema gesetzt, das wiederum zu steif ist für komplexe gesellschaftliche Fragen. Außerdem wird immer wieder diskutiert, ob rechte Parteien zu viel Aufmerksamkeit im Wahl-O-Mat bekommen. Aber Kritik an KIs ist momentan einfach spannender und Kritik an Linkem für manche Medien sowieso am spannendsten.

Taumeln wir also in eine Zukunft, in der reiche, linke Tech-Boys KIs links trainieren und die uns dann links beeinflussen, damit wir alle links denken und handeln, wie manche Berichterstattung suggerieren möchte? Vermutlich nicht. Dafür gibt es entschieden zu viele reiche Rechte mit Digital-Hintergrund (siehe Musk). Und vielleicht wurde ChatGPT auch gar nicht gezielt mit linken Inhalten trainiert, sondern einfach mit Daten, die möglichst wenig gruppenbezogene Menschenfeindlichkeit beinhalten und möglichst wenig erniedrigende Wortwahl und Beleidigungen. Denn wer seinen ChatBot mit menschenfeindlichen Inhalten trainiert, bekommt eine rassistische Arschloch-KI. Damit scheiden viele konservative Inhalte schon mal aus.

Die Gründe für ChatGPTs Präferenzen werden wir nicht klar ausmachen können. Aber ihre Entscheidungen können Bedeutung bekommen – durch uns. Wir können skandalisieren, dass die KI eine Bias hat, die nach links ausschlägt. Oder wir können es feiern. Denn es gibt schon genügend KIs, die rassistisch trainiert wurden, obwohl sie Gesichtserkennung betreiben oder Vorhersagen darüber treffen sollen, ob ein Mensch straffällig wird. Und ChatGPT schafft, was zu vielen Menschen nicht gelingt: anhand objektiver Wahrheiten, etwa über Klimawandel und nichtbinäre Geschlechtsidentitäten, die Entscheidung zu treffen, dass etwas getan werden muss.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Redakteur für Medien und Digitales. Ansonsten freier Journalist und Teamer zum Thema Verschwörungserzählungen und Fake News. Steht auf Comics, Zombies und das Internet. Mastodon: @drosdowski@social.anoxinon.de

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.