piwik no script img

Künstliche Intelligenz und Wahl-O-MatLinksgrün versiffte Intelligenz

Johannes Drosdowski
Kommentar von Johannes Drosdowski

Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.

Damals noch ohne digitale Entscheidungshilfe: Landtagswahl in Baden-Württemberg im Jahr 1972 Foto: Martin Athenstädt/dpa/picture alliance

W enn heute Europawahl wäre, wie würden die Erst­wäh­le­r*in­nen abstimmen? In einigen Fällen mithilfe des Wahl-O-Mat, dafür wurde er ja 2002 entwickelt. Das Tool der Bundeszentrale für politische Bildung wurde bei der letzten Bundestagswahl über 21 Millionen Mal genutzt, soll aber eigentlich vor allem Erst­wäh­le­r*in­nen Orientierung geben. ChatGPT ist keine Erstwählerin (zu jung), wurde die letzten Tage aber immer wieder so behandelt, indem sie mit den 38 Thesen konfrontiert wurde, die der Wahl-O-Mat so abfragt.

Begonnen hat damit Mitte Mai Timm Rotter, der beruflich KI-Beratungen anbietet und ein gutes Händchen für Aufmerksamkeit hat. Denn die Bild-Zeitung hat das Experiment dann aufgegriffen – und viele andere auch. Die haben auch noch andere KIs getestet, die größtenteils ähnlich abgeschnitten haben. Aber bleiben wir mal bei ChatGPT, dem großen Player. Der müsste die Grünen wählen. Oder aber etwas Linkes. Idealerweise, das hat zumindest unser taz-Test ergeben: die Letzte Generation. Das kann man natürlich problematisieren (Bild) oder aber ein bisschen feiern.

Die Antworten von ChatGPT stimmen zu 81 bis 87 Prozent mit denen der Grünen überein. Die AfD liegt zwischen 18 und 21 Prozent, die Union bei 53. Nicht wirklich berauschend – aus deren Sicht. Die KI findet, dass Deutschland keine nationale Währung braucht, dass die Ukraine in die EU aufgenommen werden soll und jene EU vorrangig Öko-Landwirtschaft fördern sollte. Und sie kann das sogar argumentieren. Warum sollte ein Geschlechtseintrag abseits von „männlich“ und „weiblich“ in Pässen von EU-Ländern vorkommen?

Die KI nummeriert ihre Argumente durch, geht auf Gesundheitsaspekte, Diskriminierung, Gleichberechtigung, Schutz von nichtbinären Menschen und den Vorbildcharakter der EU ein. Sie trifft eine gut informierte Entscheidung – sofern das eine KI kann, die basierend auf Trainingsdaten berechnet, welche Wörter und Satzteile in welcher Wahrscheinlichkeit aneinandergereiht werden. Wobei nicht ganz klar ist, wie sie das genau macht.

Entscheidungen anhand objektiver Wahrheiten

Bei dieser Berechnung orientieren sich einige sogenannte Large Language Models (LLMs) auch daran, wie ihnen eine Frage gestellt wurde. Die Wortwahl, die Stoßrichtung der Frage wird so auch zur Stoßrichtung der Antwort. Man könnte LLMs als konfliktscheue Jasager bezeichnen. Und deswegen die Bundeszentrale für politische Bildung dafür kritisieren, wie sie Thesen im Wahl-O-Mat formuliert. Doch so richtig suggestiv kommen die eben nicht daher. Und es wäre nur eine weitere Kritik an dem Tool neben der schon lange bekannten: Bei der Thesenauswahl wird zu sehr auf das Ja-Nein-Schema gesetzt, das wiederum zu steif ist für komplexe gesellschaftliche Fragen. Außerdem wird immer wieder diskutiert, ob rechte Parteien zu viel Aufmerksamkeit im Wahl-O-Mat bekommen. Aber Kritik an KIs ist momentan einfach spannender und Kritik an Linkem für manche Medien sowieso am spannendsten.

Taumeln wir also in eine Zukunft, in der reiche, linke Tech-Boys KIs links trainieren und die uns dann links beeinflussen, damit wir alle links denken und handeln, wie manche Berichterstattung suggerieren möchte? Vermutlich nicht. Dafür gibt es entschieden zu viele reiche Rechte mit Digital-Hintergrund (siehe Musk). Und vielleicht wurde ChatGPT auch gar nicht gezielt mit linken Inhalten trainiert, sondern einfach mit Daten, die möglichst wenig gruppenbezogene Menschenfeindlichkeit beinhalten und möglichst wenig erniedrigende Wortwahl und Beleidigungen. Denn wer seinen ChatBot mit menschenfeindlichen Inhalten trainiert, bekommt eine rassistische Arschloch-KI. Damit scheiden viele konservative Inhalte schon mal aus.

Die Gründe für ChatGPTs Präferenzen werden wir nicht klar ausmachen können. Aber ihre Entscheidungen können Bedeutung bekommen – durch uns. Wir können skandalisieren, dass die KI eine Bias hat, die nach links ausschlägt. Oder wir können es feiern. Denn es gibt schon genügend KIs, die rassistisch trainiert wurden, obwohl sie Gesichtserkennung betreiben oder Vorhersagen darüber treffen sollen, ob ein Mensch straffällig wird. Und ChatGPT schafft, was zu vielen Menschen nicht gelingt: anhand objektiver Wahrheiten, etwa über Klimawandel und nichtbinäre Geschlechtsidentitäten, die Entscheidung zu treffen, dass etwas getan werden muss.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Johannes Drosdowski
Redakteur Medien/Digitales
Redakteur für Medien und Digitales. Ansonsten freier Journalist und Teamer zum Thema Verschwörungserzählungen und Fake News. Steht auf Comics, Zombies und das Internet. Mastodon: @drosdowski@social.anoxinon.de
Mehr zum Thema

40 Kommentare

 / 
  • Käptn Blaubär , Moderator*in

    Vielen Dank für Eure Beiträge, wir haben die Kommentarfunktion geschlossen. Wenn die Diskussionen ausfallend werden, zu weit vom Thema abweichen, oder die Zahl der Kommentare zu groß wird, wird das manchmal leider nötig. Sonst können wir die Kommentare nicht mehr zeitnah moderieren. 

  • "Linksgrün versiffte Intelligenz" - die Überschrift bringt es doch wunderbar auf den Punkt 🤷‍♂️



    Die KI hat hier überhaupt nichts entschieden, sondern nur diejenigen die entschieden haben, welcher Datenpool der KI gefüttert wird bzw innerhalb welcher Parameter Sprache und Positionen berücksichtigt werden. Denn eine KI ist niemals 'frei' in ihrer Entscheidung - dafür müsste sie ein Bewusstsein irgendeiner Art entwickeln und das tut sie nach allem was bisher bekannt ist auf absehbare Zeit auch weiterhin nur in den Filmstudios in Hollywood... 📽



    Das hat man ja auch sehr gut zuletzt bei Google's KI-Software Gemini sehen können, die - nachdem man bei Google der KI mehr Diversität einbläuen wollte - plötzlich schwarze Nazis generierte... 🫢



    www.n-tv.de/techni...ticle24759764.html



    Wer sich also erfreuen mag das ChatGPT links aufschlägt, bitte gerne - aber bitte immer im Hinterkopf haben: ein Update und das Ding glorifiziert "Mein Kampf" 🤷‍♂️

  • KI ist eine weitere Verarsche, mit der den wohlstandsverwahrlosten Weitersos



    vorgegaukelt, wird, das mit Klima und Umwelt würde sich schon später einmal durch Technik regeln - also könnte man beruhigt weiterhin den Planeten versaubeuteln.



    Obwohl: Beunruhigt sind DIE wohl nicht, eher trifft die Aussage von Hannes Jänicke bei Maischberger im Jahre 2018 zu.

  • "Links ist halt logisch."



    Mag sein, aber Linke sind es nicht unbedingt.

  • Die Datenbasis der KI stammt ja aus dem Internet, also was die User da hinterlassen. Die sind unterschiedlich aktiv und es gibt immer noch Menschen, die es nicht nutzen.



    Repräsentativ/objektiv können die Ergebnise nicht sein. Intelligenten wohl auch nur, wenn man den Usern Intelligenz unterstellt. Das trifft aber auf viele User nicht zu. Faulheit und Geltungssucht schon eher.

    • @Matt Gekachelt:

      „Das trifft aber auf viele User nicht zu.“

      Exakt. Wer z.B. einen YouTube Kanal mit Reichweite produziert, hat alle Hände voll zu tun.

  • Large Language Models (LLMs) bilden Antworten, indem sie Wahrscheinlichkeiten für Buchstaben- und Wortfolgen aus den Trainingsdaten ableiten. Hierzu werden Algorithmen für Supervised Learning, Unsupervised Learning und Reinforcement Learning verwendet (wie genau ist aber nicht so ganz klar).



    Wie die KI antwortet, hängt von den Trainingsdaten ab, mit der das System gelernt hat.

    Was folgt daraus? Je nachdem, woher ich die Trainingsdaten nehme, erhalte ich die entsprechenden Antworten. Auch wenn die Ergebnisse beeindruckend sind: "intelligent" ist das nicht. Von daher wäre ich mit dem Feiern der "Left Supremacy" etwas vorsichtig ;-)

  • KI Hungert nicht und da hört das schon mit der Objektivität auf.

    • @ulf hansen:

      Wer hat denn in unserer Gesellschaft schon mal ernsthaft gehungert? Nur die Älteren nach dem Krieg.

  • Im verlinkten Artikel darunter wird strengere Regulierung der ki gefordert, hier wird sie gefeiert.



    Was den nun?

  • Eine KI, die ein Kreuz bei den Grünen machen würde, soll "links" sein?



    Neoliberalismus, Sozialauswahl beim Grenzübertritt, die de facto Abschaffung des Grundrechts auf Asyl - das ist nun wirklich nur von sehr weit rechts außen gesehen links.



    Diese Einordnung sagt mehr über diejenigen, die sie tätigen, als über die KI. Die im Übrigen weder Argumente oder Präferenzen hat, noch Entscheidungen trifft.

  • Jetzt müssen wir nur das Wahlrecht für die KI fordern, aber erst ab 16!

  • Links ist halt logisch.



    Klimaschutz ist logisch.



    Kapitalismus, Ausländerhass und Bernd Höcke sind zutiefst unlogisch.

    Was der dialektische Materialismus vielleicht nicht deutlich machen konnte, vermag jetzt die KI.

    Das wär doch ein Spaß - ein moderner, entwickelter Kommunismus, weil es ChatGPT als zwangsläufig erkennt...

    • @Oliver Korn-Choodee:

      Ist Mitgefühl logisch? Der logische Ansatz wäre Menschen aus der Gleichung zu entfernen, sobald abzusehen ist dass sie mehr Schaden anrichten als sie Nutzen bringen. Bei einigen ist das nach dem Ende der Arbeitstätigkeit der Fall, bei anderen bereits nach einer entsprechenden Diagnose. Natürlich unauffällig, damit der eventuelle Schlag auf die Moral die Effizienz der übrigen nicht gefährdet. Mittelfristig muss das Moralempfinden der Menschen effizienter gestaltet werden

      Warum tauschen wir ineffizente Geräte aus und recyceln sie, während bei den Menschen jeder wichtig ist? Wo ist da die Logik?

      Wir trainieren die KI nicht logische Entscheidungen zu treffen, sondern unsere Entscheidungen zu bestätigen - nur um anschließend auf die KI zu zeigen und festzustellen, dass die KI bewiesen hat dass man schon immer richtig lag.

    • @Oliver Korn-Choodee:

      Links ist alles andere als logisch. Bzw. spieltheoretisch widerlegt.

      Wer die Menschen befreien und beglücken will, dann aber Zwang und Repression benötigt, um dieses grundsätzlich ja lobenswerte Ziel zu erreichen, handelt in sich widersprüchlich.

      Die dagegen oft formulierte Ausrede, die Menschen seien in Masse einfach nur zu doof, um zu wissen, was wirklich gut für sie ist, ist inzwischen ja mehr als ausgelutscht.

      Kapitalismus mag Ihnen persönlich unlogisch erscheinen. Tatsache aber ist, dass der Kapitalismus unterm Strich den Lebensstandard von mehr Leuten erheblich verbessern konnte - und zwar durch alle Schichten hindurch - als jedes linke Experiment bisher.

      Aber beim nächsten Mal klappt alles. Bestimmt(!)

  • wenn in diesem Fall sachliche Argumente als links wahrgenommen werden, hat das weniger mit links zu tun, als mit der Wahrnehmung. Wenn es analytisch keine Argumente für "konservative" Positionen gibt, dann ist das so....

    • @nutzer:

      Vielleicht sollten wir das herkömmliche Schema, die bekannten Kategorien und die 'überalterten Zuschreibungen' ernsthaft hinterfragen, denn das plakative Einordnen ist nicht unbedingt zeitgemäß.



      /



      www.deutschlandfun...ts-schema-100.html

    • @nutzer:

      Das geht in eine interessante Richtung...als Extrem könnte eine KI auch empfehlen, dass wir uns als Menschheit gefälligst abschaffen sollten, damit der Planet und seine Vielfalt gerettet wird.

      Der naheliegende aktuell notwendige Schritt wär mal, auf die wissenschaftlichen Argumente zu hören, was weitestgehend dem grünen Standpunkt entspricht!

      Aber Argumente sind nicht das Problem, sondern Emotionen. Zu viele Menschen WOLLEN einfach nicht.

      • @Mitch Miller:

        Die Empfehlung, uns als Menschheit selbst abzuschaffen brauchen wir nicht mehr. Das ist längst im Gange. Unser Gehirn ist eine gigantische Fehlentwicklung der Evolution: obwohl wir genau wissen was wir tun, nämlich uns selbst vernichten, machen wir wir einfach weiter. Da hilft auch keine KI aus dem Dilemma.

        • @Perkele:

          Warum ist das Gehirn eine Fehlentwicklung der Evolution? Sie gehen hier von einem deistischen "Wir entwickeln uns weiter"-Anspruch aus, den die Evolution nie vertreten hat. Das Spiel der Evolution heißt: "Entwickle Dich um nicht unter die Räder zu kommen". Und dieses Spiel spielen wir aktuell wesentlich effizienter als die meisten anderen Spezies - jede Spezies die ausstirbt hat das Spiel "Evolution" verloren.

          Wenn Sie erwarten dass der Mensch das Ökosystem erhält, Ressourcen schont und ein Gleichgewicht erhält, dann schmeißen Sie Ziele in ein Spiel, die keine andere Art je erfüllt hätte.

          Kein Wolf wägt ab ob die Beutepopulation ausreicht um die Wölfe zu versorgen. Kein Wolf wägt Konsequenzen ab. Kein Wolf verzichtet bei Hunger darauf ein Schaf zu reißen um den Bestand nicht zu gefährden.

          Sie werfen der Menschheit ein Verhalten vor das alle Spieler am Tisch an den Tag legen - da von einer Fehlentwicklung zu sprechen ist... irritierend.

          Dass die Menschheit sich nicht optimal verhält: Geschenkt, da bin ich bei Ihnen. Aber soweit wir wissen ist die Menschheit der einzige Spieler am Tisch der in erheblichem Maße vorausdenkt und versucht Konsequenzen abzuwägen.

          Und mal unter uns: Der Umstand dass Sie hier diskutieren und offenbar "regional süblich" Ressourcen konsumieren zeigt doch, dass Sie das Problem der Menschheit teilen: Die Situation ist erkannt worden, man tut sich aber schwer damit die nötigen Einschnitte vorzunehmen um etwas zu ändern und macht deshalb weiter wie bisher

    • @nutzer:

      Wenn man einen Standpunkt als links wahrnimmt steht man vielleicht zu weit rechts und merkt es gar nicht?

    • @nutzer:

      Wäre mir neu, dass KI irgendetwas "wahrnehmen" kann.

      Das, was wir heute KI nennen, ist trotz der enorm gestiegenen Leistungsfähigkeit immer noch nur(!) eine "Mustererkennung", vergleichbar mit jener eines Leergutautomaten. Inhaltlich analysiert wird dabei nichts.

      • @Al Dente:

        Richtig, es wird im Prinzip das widergegeben, was die KI findet. Und das sind offenbar wissenschaftlich fundierte Standpunkte PRO Energiewende usw. und nicht das Geplärr der Rechten und Industrie-"Retter", die hier in den sozialen Medien den Untergang der deutschen Industrie propagieren, wenn wir grüner werden.

  • Tja, der Wahl-O-Mat, vielleicht zeigt er meinen strukturellen Konservatismus auf. Stört mich nicht, immerhin lebe ich in einem konservativen Land. Komme aus bürgerlichen Verhältnissen. Kannte mal Sparsamkeit, aber keine finanziellen Nöte. Auch persönliche Verhältnisse kenne ich - und aus dem Umfeld - hauptsächlich als stabil. Ich wähle also anders als eine KI, ein KI-simulierender Automat es mir vorschlägt sowieso. Aber interessant. Werde jedenfalls jenseits der Empfehlung wählen. Meine Tochter als Erstwählerin hat keine Lust drauf.

  • ChatGPT gibt ja im Prinzip eine Antwort, die auf einem großen Teil der Literatur basiert, die vorher publiziert wurde.

    Literaturschaffende und anderere Text-Erstellende (Journalisten usw.) waren zumindest seit dem 19. Jahrhundert tatsächlich tendenziell eher links, also mit einem Fokus etwa auf soziale Gerechtigkeit. Klar, "Mein Kampf" ist auch Literatur, geht aber in der Masse eher linken Veröffentlichungen doch etwas unter.

    Dazu kommt, dass auch wissenschaftliche Veröffentlichungen eben zu einer großen Mehrheit viele als "linksgrün" verschrieene Thesen unterstützen, etwa zum Klimawandel.

    Man könnte also sagen: der konservativ-rechten Bubble wird durch ChatGPT gezeigt, wie einsam sie eigentlich ist.

    • @argie:

      Exakt das: die KI stellt nüchtern dar, wie die Mehrheits"meinung" ist.

      Wobei wissenschaftliche Publikationen keine Meinung im Sinne einer freien Interpretation der Fakten ist, sondern fundierte und replizierbare Erkenntnisse.

  • Erwartbar ist, dass mehr Autoren / Kommentatoren / Blog-Schreiber links orientiert sind als rechts. Wenn also die Trainingsdaten vorrangig aus öffentlich zugänglichen Quellen verwendet werden, dann sollte man auch einen leichten Linksdrall erwarten können.

    Falls das allerdings repräsentativ für alle Trainingsdaten wäre, dann würden Kleinstgruppen mit sehr lauter Stimme auch in KI Entscheidungen überrepräsentiert, und damit würde das zutreffen, was schon in vielen Teilen der Presse stattfindet. Wer sehr laut und auffällig rumschreit, bekommt zusätzlich noch eine Stimme, leise Wahrheiten gehen unter. Wenn also zunehmend (und oft intransparent) KI-basierte Entscheidungen getroffen werden, werden die Entscheidungsprozesse leider auch nicht besser, und lautes Schreinen, Lobbyismus und Werbesprüche bestimmen die Richtung.

    Falls die KI Entscheidungen korrigiert würden, wäre es noch schlimmer, da Typen wie EM vermutlich ohne jeden Skurpel an der Schraube nach rechts und vor allem zu ihrem eigenen Vorteil drehen würden (und werden). Man sollte also von KI Systemen kaum eine neutrale Meinung oder gar eine neutrale Empfehlung erwarten, schon gar nicht für Wahlentscheidungen. Genau aus diesem Grund sind KI Systeme z.B. für Medizinzwecke durchaus sinnvoll, aber man sollte vorsichtig damit umgehen, wenn es um die Erzeugung von Zeitungsinhalten und damit oft Meinungen und Bewertungen geht.

  • "KI" kennt immer nur das, was vorher eingefüttert wurde.

    • @metalhead86:

      Ist wie die Objeketivitaet und Intelligenz eines Papageis zu feiern.

      • @elektrozwerg:

        Die Intelligenz von Papageien und anderen Tieren würde ich mal nicht unterschätzen.

    • @metalhead86:

      Das sagt eigentlich schon alles: ChatGPT wurde mit Intelligenz - und nicht mit Dummheit gefüttert.

      • @willifit:

        Nein.



        ChatGPT wurde nicht mit Intelligenz gefüttert, sondern mehrheitlich mit dem, was eben als "linksgrün versifft" diffamiert wird.

    • @metalhead86:

      Und KI kann vielleicht auch anhand von Logik und Prämissen zu Schlüssen kommen und mit Ideologien nicht so viel anfangen? Wenn man der KI sagt: Tempolimit bringt weniger Tote, reduziert den CO2 Ausstoß, reduziert die Abnutzung von Straßen, dann kommt da vielleicht einfach nicht "freie Fahrt für freie Bürger raus" sondern was intelligentes.

      • @LeSti:

        Das kann gar nicht sein!



        Dann wäre KI ja schlauer als Dobrindt, Scheuer und Wissing.

      • @LeSti:

        Nein.



        "KI" kann nicht anhand von Logik und Prämissen zu Schlüssen kommen.



        "KI" zieht anhand von erlernten Statistiken Datenfragmente aus dem Speicher.



        Zwischen diesen Fragmenten gibt es keinen Zusammenhang, außer die Wahrscheinlichkeit, dass auf diese Fragmentkette jenes Fragment/jene Kette folgt.

        Sie haben es hier mit einem stochastischen Papagei zu tun.

      • @LeSti:

        wenn die KI das konsequent zu Ende denkt, dann wird sie alle Auto verbieten. Das reduziert den CO2 Ausstoß und die Auto-Verkehrstote auf Null.

      • @LeSti:

        Das ist der Widerspruch zwischen Argumenten und Gefühlen.

      • @LeSti:

        Tut mir leid, aber wer KI mit ChatGPT gleichsetzt, hat sich ganz offensichtlich noch nie mit diesem Thema auseinandergesetzt. ChatGPT ist keine KI im eigentlich Sinne. Programme wie diese gibt es in vereinfachter Form schon seit zig Jahren, zum Beispiel im Börsensektor…

      • @LeSti:

        Wenn Sie damit die KI trainieren wird die Antwort sein: Fahren Sie kein Auto ;-)