Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz
Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.
W enn heute Europawahl wäre, wie würden die Erstwähler*innen abstimmen? In einigen Fällen mithilfe des Wahl-O-Mat, dafür wurde er ja 2002 entwickelt. Das Tool der Bundeszentrale für politische Bildung wurde bei der letzten Bundestagswahl über 21 Millionen Mal genutzt, soll aber eigentlich vor allem Erstwähler*innen Orientierung geben. ChatGPT ist keine Erstwählerin (zu jung), wurde die letzten Tage aber immer wieder so behandelt, indem sie mit den 38 Thesen konfrontiert wurde, die der Wahl-O-Mat so abfragt.
Begonnen hat damit Mitte Mai Timm Rotter, der beruflich KI-Beratungen anbietet und ein gutes Händchen für Aufmerksamkeit hat. Denn die Bild-Zeitung hat das Experiment dann aufgegriffen – und viele andere auch. Die haben auch noch andere KIs getestet, die größtenteils ähnlich abgeschnitten haben. Aber bleiben wir mal bei ChatGPT, dem großen Player. Der müsste die Grünen wählen. Oder aber etwas Linkes. Idealerweise, das hat zumindest unser taz-Test ergeben: die Letzte Generation. Das kann man natürlich problematisieren (Bild) oder aber ein bisschen feiern.
Die Antworten von ChatGPT stimmen zu 81 bis 87 Prozent mit denen der Grünen überein. Die AfD liegt zwischen 18 und 21 Prozent, die Union bei 53. Nicht wirklich berauschend – aus deren Sicht. Die KI findet, dass Deutschland keine nationale Währung braucht, dass die Ukraine in die EU aufgenommen werden soll und jene EU vorrangig Öko-Landwirtschaft fördern sollte. Und sie kann das sogar argumentieren. Warum sollte ein Geschlechtseintrag abseits von „männlich“ und „weiblich“ in Pässen von EU-Ländern vorkommen?
Die KI nummeriert ihre Argumente durch, geht auf Gesundheitsaspekte, Diskriminierung, Gleichberechtigung, Schutz von nichtbinären Menschen und den Vorbildcharakter der EU ein. Sie trifft eine gut informierte Entscheidung – sofern das eine KI kann, die basierend auf Trainingsdaten berechnet, welche Wörter und Satzteile in welcher Wahrscheinlichkeit aneinandergereiht werden. Wobei nicht ganz klar ist, wie sie das genau macht.
Entscheidungen anhand objektiver Wahrheiten
Bei dieser Berechnung orientieren sich einige sogenannte Large Language Models (LLMs) auch daran, wie ihnen eine Frage gestellt wurde. Die Wortwahl, die Stoßrichtung der Frage wird so auch zur Stoßrichtung der Antwort. Man könnte LLMs als konfliktscheue Jasager bezeichnen. Und deswegen die Bundeszentrale für politische Bildung dafür kritisieren, wie sie Thesen im Wahl-O-Mat formuliert. Doch so richtig suggestiv kommen die eben nicht daher. Und es wäre nur eine weitere Kritik an dem Tool neben der schon lange bekannten: Bei der Thesenauswahl wird zu sehr auf das Ja-Nein-Schema gesetzt, das wiederum zu steif ist für komplexe gesellschaftliche Fragen. Außerdem wird immer wieder diskutiert, ob rechte Parteien zu viel Aufmerksamkeit im Wahl-O-Mat bekommen. Aber Kritik an KIs ist momentan einfach spannender und Kritik an Linkem für manche Medien sowieso am spannendsten.
Taumeln wir also in eine Zukunft, in der reiche, linke Tech-Boys KIs links trainieren und die uns dann links beeinflussen, damit wir alle links denken und handeln, wie manche Berichterstattung suggerieren möchte? Vermutlich nicht. Dafür gibt es entschieden zu viele reiche Rechte mit Digital-Hintergrund (siehe Musk). Und vielleicht wurde ChatGPT auch gar nicht gezielt mit linken Inhalten trainiert, sondern einfach mit Daten, die möglichst wenig gruppenbezogene Menschenfeindlichkeit beinhalten und möglichst wenig erniedrigende Wortwahl und Beleidigungen. Denn wer seinen ChatBot mit menschenfeindlichen Inhalten trainiert, bekommt eine rassistische Arschloch-KI. Damit scheiden viele konservative Inhalte schon mal aus.
Die Gründe für ChatGPTs Präferenzen werden wir nicht klar ausmachen können. Aber ihre Entscheidungen können Bedeutung bekommen – durch uns. Wir können skandalisieren, dass die KI eine Bias hat, die nach links ausschlägt. Oder wir können es feiern. Denn es gibt schon genügend KIs, die rassistisch trainiert wurden, obwohl sie Gesichtserkennung betreiben oder Vorhersagen darüber treffen sollen, ob ein Mensch straffällig wird. Und ChatGPT schafft, was zu vielen Menschen nicht gelingt: anhand objektiver Wahrheiten, etwa über Klimawandel und nichtbinäre Geschlechtsidentitäten, die Entscheidung zu treffen, dass etwas getan werden muss.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Putins Atomdrohungen
Angst auf allen Seiten
BGH-Urteil gegen Querdenken-Richter
Richter hat sein Amt für Maskenverbot missbraucht
Umweltfolgen des Kriegs in Gaza
Eine Toilettenspülung Wasser pro Tag und Person
+++ Nachrichten im Ukraine-Krieg +++
Biden genehmigt Lieferung von Antipersonenminen
BSW stimmt in Sachsen für AfD-Antrag
Es wächst zusammen, was zusammengehört
Absagen vor Kunstsymposium
Logiken der Vermeidung