piwik no script img

KI unter FaschismusverdachtDie Papageien, die wir riefen

Übles wird nachgeplappert: KI hat nicht nur ein Kreativitäts-, sondern auch ein potenzielles Faschismusproblem, analysiert Rainer Mühlhoff in einem Buch der Reclam-Reihe „Was bedeutet das alles?“.

Flüche, Sexismen, Rassismus: Der stochastische Papagei wiederholt, was er am häufigsten gehört hat Foto: Appfind/getty images

Ein britischer Tierpark hat ein Problem: Die Papageien fluchen. Sie beleidigen. Sie verwenden verletzende Sprache. Kurzum: Sie geben von sich, was sie oft gehört haben, und das ist viel Übles. Der Lincolnshire Wildlife Park ist eine nationale Auffangstation. Die Menschen geben dort Vögel ab, weil sie die Rufe nicht mehr ertragen können, die ihre gefiederten Mitbewohner von ihnen gelernt haben.

„Stochastische Papageien“ – diesen Ausdruck prägte die Computerlinguistin Emily Bender gemeinsam mit drei Kolleginnen, um große Sprachmodelle zu beschreiben. Wiederholung nach Wahrscheinlichkeit ist das Geheimnis „künstlicher Intelligenz“. Und auch ihr Problem: Large Language Models erzeugen Gleichklang. Sie bilden nicht den klügsten Satz, sondern reproduzieren die Muster, die oft genug wiederholt wurden.

Der so entstehende Mangel an sprachlicher Kreativität ist nicht das Schlimmste. Sprachmodelle werden zu groß, lautet die These von Bender und ihren Kolleginnen. Nicht nur die ökologischen Kosten sind enorm. Das Training der KI etwa verbraucht Unmengen an Strom. „Too big“ und damit unkontrollierbar sind auch die Daten, von denen die stochastischen Papageien sich ernähren. Ihr „Futter“ enthält außerdem hohe Anteile von Rassismus, Sexismus und Antisemitismus.

Bei diesen Gefahren von KI setzt das neue Buch von Rainer Mühlhoff an, das bei Reclam in der Reihe „Was bedeutet das alles?“ erschienen ist. Die KI als solche ist nicht faschistisch, schreibt Mühlhoff. Aber sie habe strukturelle Eigenschaften, die „den Rechtsstaat und die freiheitliche demokratische Ordnung“ schwächten. Denn für die Verbreitung von Desinformation und Propaganda ist sie perfekt geeignet.

Das Futter der KI enthält hohe Anteile von Rassismus, Sexismus und Antisemitismus

Was es heißt, wenn KI-Systeme zum Einsatz kommen, um gesellschaftliche Prozesse zu strukturieren und zu verbessern, demonstriert Mühlhoff in einem Gedankenexperiment, der Fiktion einer erfahrungsbasierten Arbeitsweise nach dem Muster einer KI: An die Stelle der üblichen Einzelfallprüfungen nach definierten Verfahren träte im Behördenalltag dann das Bauchgefühl der Bearbeiterinnen und Bearbeiter – ein im Job erarbeitetes Gespür für richtige Angaben, aber auch für Tricks oder Schummeleien. Auch die Bauchgefühle würden in diesem Szenario evaluiert. Doch das geschähe weder durch umfängliche Prüfungen noch durch ausgewählte Stichproben. Maßstab wäre vielmehr das Ausbleiben von Kritik: Wer sich nicht beschwert, hat auch keine Einwände gegen eine behördliche Entscheidung – so die Hypothese. Das Problem: Wer geringe Ressourcen hat, wird sich seltener wehren. So wird die „beste Wette auf einzelne Fälle“, als die sich das Bauchgefühl verstehen lässt, schnell zum Albtraum.

Mühlhoff ist Philosoph und Mathematiker. Neben seiner Auseinandersetzung mit den gesellschaftlichen Auswirkungen des Einsatzes von KI analysiert er die Vorstellungen, die sich die Gesellschaft über KI macht. Damit steht er in der Tradition philosophischer Ideologiekritik. Ihn interessieren die populären Bilder, die Elemente einer sich lange abzeichnenden „Tech-Ideologie“. Laut Mühlhoff befinden wir uns schon seit 20 Jahren in einer dritten Phase der KI-Euphorie – mit Vorgeschichten in den 1960er und 1980er Jahren.

In solchen „KI-Sommern“ ist die Stimmung überhitzt. Technologiekonzerne hoffen auf die „Artificial General Intelligence“, kurz: AGI. In spätestens 20 Jahren, so die Prophezeiung, sei es so weit. Mühlhoff ist da skeptischer. Denn auch solche Prognosen sind nicht neu. Eine Studie des Machine Intelligence Research Institute legt nahe: Wer innerhalb der letzten 60 Jahre an die Machbarkeit einer AGI glaubte, nahm jeweils an, dass sie in 15 bis 25 Jahren Realität werde.

Ein Gefühl der Hilflosigkeit

Wenn Mühlhoffs Essay trotzdem warnende Töne anschlägt, dann aus politischen Gründen. Daten, so schreibt er, seien heute „die knappste und strategisch wichtigste Ressource der KI-Industrie“. Sie sollen in großen Mengen zur Verfügung stehen und die KI-Konzerne möglichst wenig kosten. Den Preis bezahlen andere: etwa die Künstlerinnen und Künstler, deren Arbeiten entwertet werden, wenn sie an eine KI verfüttert werden, die mit massenhafter Produktion die Märkte zuschütten kann.

In den Tech-Ideologien, die im Buch profiliert werden, spielen solche Erwägungen kaum eine Rolle. Nicht weil „Moral“ insgesamt nicht hoch im Kurs stünde. Im Gegenteil: Nur sind die „moralischen“ Überlegungen der Technophilen anders ausgerichtet. Wenn die künstliche Superintelligenz demnächst komme, so lautet ein Argument, dann müssen wir unser Handeln jetzt schon darauf einstellen: Statt auf die Bedürfnisse der Menschen, die Gefahren des Klimawandels oder der sozialen Ungleichheit zu reagieren, gelte es vielmehr, die bestmöglichen Startbedingungen für die erhoffte neue Intelligenzform bereitzustellen.

Der ideologische Mix hinter den Staats- und Gesellschaftsvorstellungen der Tech-Eliten reicht vom Cyberlibertarismus über rassistische und sexistische Troll-Subkulturen bis zur intellektuellen Strömung der „Dunklen Aufklärung“. Faschismus setzt Mühlhoff als Kategorie ein, um das Zusammenwirken dieser Bewegungen zu erläutern: Diese verbinde eine antidemokratische Stoßrichtung und Gewaltbereitschaft.

Was tun? Das Gefühl der Hilflosigkeit ist Teil des Problems. Wir alle liefern der KI unsere Daten, betont Mühlhoff. Es ist wie im Lincolnshire Wildlife Park: Wer von den Papageien weniger Flüche hören will, muss selbst weniger fluchen. Aber damit ist es nicht getan. Mühlhoff fordert, die KI zu thematisieren, anstatt sich von ihr thematisieren zu lassen. „Anders über KI-Technologie sprechen“ ist eine von zwei Handlungsempfehlungen, mit denen das Buch schließt. Antidemokratische Kräfte zu isolieren, ist die andere.

Das Buch

Rainer Mühlhoff: „Künstliche Intelligenz und der neue Faschismus“. Reclam, Ditzingen 2025, 160 S., 8 Euro

Was auf den 160 Seiten hingegen nur angedeutet wird, sind die ökonomischen Strukturen, die solche Kräfte erst ermöglichen und die hart gegen Kritikerinnen vorgehen. Timnit Gebru und Margaret Mitchell, zwei Autorinnen, die mit Emily Bender an dem Aufsatz über „stochastische Papageien“ gearbeitet haben, wurden von Google entlassen. Unerkannt zu bleiben, ist ihnen nicht gelungen. Margaret Mitchell weist darauf hin, indem sie nun unter subversivem Pseudonym schreibt: Shmar­garet Shmitchell.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!