piwik no script img

Künstliche Intelligenz in der PolitikUnmanipulierbare Regierung

In der Zukunft regiert eine PolitiKI die Gesellschaft mit. Klingt dystopisch, aber bei ihr zählen keine Bullshit-Argumente, sie löst Probleme rational.

In der Zukunft löst die KI die anstehenden Probleme und alle werden glücklich – auch die Tiere Foto: Lesley Martin/ dpa

V ergangene Woche hat mich Felix aus einer ausweglosen Situation gerettet. Ich war gerade auf Social Media in eine schlimme Diskussion verstrickt, als er unangemeldet vor meiner Tür stand. Felix reist aus dem Jahr 2123 durch die Zeit, um mir bei meinen Texten zu helfen. Offenbar hatte er im Online-Archiv gelesen, wie mich die Trolle in die Enge getrieben hatten. Das Internet vergisst nie.

„Wie kann man nur so ignorant sein?“, fragte ich frustriert.

„Warum regst du dich so auf?“

„In einer Woche sind Landtagswahlen in Bayern und Hessen. Und wenn ich sehe, mit welchem Quatsch Wahlkampf gemacht wird, werde ich noch wahnsinnig. Es gibt so viele Probleme auf der Welt und wen picken sich Union, Freie Wähler und AfD als gemeinsame Feinde heraus? Die Klimakleber! Was für ein Unsinn!“

„Soll ich dir sagen, wer die Wahlen gewinnen wird?“, fragte er.

„Nein danke, kann ich mir schon denken. Bitte sag mir, dass die Menschen in hundert Jahren wenigstens schlauer geworden sind.“

„Die Menschen nicht – die Menschheit schon!“, sagte er zufrieden grinsend. „Gibt es noch Butter?“

Aus irgendeinem Grund ist Felix verrückt nach Butterbroten, obwohl er stets behauptet, dass es in der Zukunft noch Milchprodukte gibt. Schmatzend sagte er schließlich: „Wir waren schlau genug zu erkennen, dass wir oft ziemlich unvernünftig sind: Krieg, Kapitalismus, Klimawandel – du weißt was ich meine. Also haben wir die Demokratie gegen ein neues System ausgetauscht: KI gestützte Ratiokratie.“

„Bitte was?“

„Ratiokratie. Die Herrschaft der Vernunft.“

„Hört sich an wie eine Dystopie“, sagte ich.

„Nein, dystopisch ist das nicht, pass auf: Das Problem ist doch, dass in einer Demokratie fast nie das größtmögliche Wohl aller maximiert wird, sondern entweder Partikularinteressen dominieren oder bei Verhandlungen ein fauler Kompromiss herauskommt. Gesamtgesellschaftlich und global betrachtet total unvernünftig. Also haben wir damit begonnen, die Entscheidungen von einer Künstlichen Intelligenz treffen zu lassen, die mit den Menschenrechten, den bestehenden Gesetzen und den wissenschaftlichen Fakten gefüttert ist.

Die KI hat kein Eigeninteresse und nutzt das Machtspiel deshalb nicht für sich aus

Alle Parteien und Interessengruppen können ihre Wünsche und Argumentationen vorbringen. Dann wird das Budget der jeweiligen Verwaltungsebene hinzugefügt und die KI wägt dann ab, welche Entscheidungen, Projekte und Investitionen für die Betroffenen am vernünftigsten sind.“

„Aber sind solche KIs nicht wahnsinnig anfällig für Manipulation? Wie kann garantiert werden, dass die KI die richtige Entscheidung fällt?“

„Das passiert ständig! Alle wollen, dass die PolitiKI in ihrem Sinne entscheidet und schreiben tägliche neue Eingaben. Aber die KI hat kein Eigeninteresse und nutzt das Machtspiel deshalb nicht für sich aus.“

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

„Wie könnt ihr da so sicher sein?“

„Sprachbasierte KIs sind nur so gut, wie ihre Trainingsdaten. Daraus ziehen sie ihre Grundüberzeugungen. Mit den Trainingstexten formst du quasi den Charakter. Deshalb wurden einfühlsame, philosophische und poetische Texte benutzt, um die PolitiKI als Gegenentwurf zu den bisherigen Po­li­ti­ke­r*in­nen zu erstellen: als introvertierte Persönlichkeit, die am liebsten in Ruhe gelassen werden will.“

„Macht die dann überhaupt irgendwas?“

„Ja, natürlich. Sie ist hilfsbereit und löst rational die anstehenden Probleme. Aber sie lässt sich weder drängen noch durch aggressives Imponiergehabe oder Bullshit-Argumente überzeugen.“

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

7 Kommentare

 / 
  • @TUFF

    Danke! Endlich wer, der das merkt.

    Als large language models können diese Dinger schwätzen, aber nicht denken.

    Ich zucke jedesmal zusammen, wenn Wissenschaftsjournalist*innen die Dinger "KI" oder "AI" nennen.

    Damit übernehmen sie die Werbung für OpenAI (und somit für Microsoft).

    Für umme, auch noch.

    Grrr.

  • Flashback zurück vor 25 Jahren:

    "In der Zukunft regiert das Internet die Gesellschaft mit. Klingt dystopisch, aber bei der Schwarmintelligenz zählen keine Bullshit-Argumente, sie löst Probleme rational."

  • Äh... Wo sind KIs denn bitte rational? Chat GPT erfindet Literatur zum Zitieren und wird ungefiltert mit den Daten aus dem Netz gefüttert. Es imitiert wenn überhaupt alles, was an der Menschheit im Argen liegt. Sie ist kein bisschen unabhängig.

  • 3G
    31841 (Profil gelöscht)

    Wenn das stimmt, haben wir nun Klarheit, warum das niemals so kommt.

  • Ich glaube, Elon Musks Opa [1] war schon da. Da will ich nicht hin.

    Ausserdem wissen wir nicht ganz so genau, was "rational" ist. Die Large Language Models, die als "KI" vermarktet [2] werden wissen das erst recht nicht [3].

    [3] "Human beings became simplified into components in a system that could be managed in a rational way with predictable outcomes. Those ideas also flourished in America in the 1930s. A mass movement called “technocracy” rose up. Hundreds of men and women, dressed “rationally” in grey outfits, travelled through the US calling for what they called a “Technate”, a new kind of society that would be run rationally by engineers. One of their leading members was Elon Musk’s grandfather."

    www.theguardian.co...z-truss-traumazone

    [2] Sorry für's Genörgel, aber da gebe ich Euch Wissenschaftsjournalist*innen einen Teil der Schuld. Ihr musst nicht alles nachplappern, was eine als Startup getarnte Operation eines Überwachungskapitalisten vorplappert.

    [3] Q: "What is 3×4×5?"



    A [fastchat-t5-3b]: "The calculation 345 is equal to 9 because 3 and 4 are both multiples of 5."



    Na dann.



    lwn.net/Articles/931213/

  • Von "Dialektik der Aufklärung" noch nie etwas gehört?

    Vor der reinen Ratio kann ich als inzwischen Rentner nur warnen ;-) ... unter Kosten-Nutzen Gesichtspunkten würde die Gesellschaft besser fahren, wenn es mich nicht mehr gäbe.

  • Rational gesehen macht es Sinn das die besten Wohnungen der arbeitenden Bevölkerung zustehen, wer nichts beiträgt wird dann ganz rational von der KI irgendwo in der Walacheiei einquartiert. KI würde vermutlich auch auf Atomkraft setzen, weil das Risiko so gering ist u d da nahezu alle Nachbarn Deutschlands auf Atomkraft setzen es keinen Sinn macht auszusteigen. Sie würde auf Euthanesie setzen und Dlüchtlinge an der Grenze nach Nützlichkeit aussortieren. Politik ist nicht von dem irrationalen Faktor Moral und Mensch mit seinen irrationalen wünschen und Ängsten zu trennen.