piwik no script img

Macht der künstlichen IntelligenzWer profitiert

Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den technologischen, sondern auch um den ökonomischen Aspekt.

Mächtiger Player: Niederlassung von Google in New York Foto: Richard B. Levine/imago

W ir leben in einer propagandistischen Periode. Das heißt, dass das Verhältnis von Wahrheit und Lüge durch die Interessen der Macht gekennzeichnet ist, vor allem derjenigen von Politik und Kapital, und sich stark zur Lüge hin verschiebt. Der Unterschied zum vorangegangenen Regime der Wahrheit besteht darin, dass sich die Wahrheit damals im politisch-medialen Raum in einem elastischeren Verhältnis zur Lüge verhielt. Man nannte das Spin, also den entscheidenden Dreh, der aus der Wahrheit etwas anderes machte als die Wahrheit selbst.

„Die Rente ist sicher“ ist so ein Spin-Satz oder „Merkel rettet Griechenland“ oder auch „Wir schaffen das“: Wahrheit plus Intention plus Interessen gab der Aussage einen Drall, aber die Verbindung zur Wahrheit war, im Unterschied zur Lüge, nicht vollständig gekappt. Ein Beispiel für Propaganda aus den letzten Tagen ist zum Beispiel der Satz von Innenministerin Nancy Faeser von der SPD, wonach die harsche neue EU-Richtlinie zur Migrationspolitik ein „historischer Erfolg“ sei „für den Schutz der Menschenrechte“.

Von ähnlich propagandistischer Qualität ist so gut wie alles, was in den vergangenen Wochen und Monaten von Google, Microsoft oder Sam Altman von OpenAI zum Thema künstliche Intelligenz gesagt wurde – hier warnten Menschen vor den Folgen der Technologie, die sie gerade selbst entwickeln, als hätten sie es nicht selbst in der Hand, diese Technologie so zu gestalten, dass sie nicht gefährlich ist.

Mehr noch, es sind mächtige Privatunternehmen wie Google, die seit Jahren genau die Stimmen stigmatisieren oder aus dem eigenen Unternehmen drängen, die bei der Entwicklung etwa von KI vor Rassismus oder Sexismus warnen – und daraufhin entlassen wurden, Kate Crawford etwa oder Timnit Gebru.

Ungleichheit durch unregulierten Einsatz von KI

Die Straßen sind nicht privat kontrolliert, warum sollte es die Infrastruktur im Digitalen also sein?

Seltsamerweise verbreiten fast alle Medien diese Propaganda ziemlich unhinterfragt und eins zu eins: wenn sehr viele weiße Männer einen mahnenden Brief unterschreiben und davon raunen, dass die Technologie, noch mal, die sie selbst entwickeln, zur „Auslöschung“ der Menschheit führen könne – und diese Aussage eben nicht nur sci-fi-haft vage und unpräzise ist, sondern vor allem gegenwärtigen Machtmissbrauch genau dieser Firmen verschleiert –, etwa in Bezug auf Kooperationen mit dem Militär oder der Überwachungspraxis auch in demokratischen Staaten oder auch mit Blick auf die „Auslöschung“ von Arbeitsplätzen oder die plausible Perspektive exponentiell wachsenden Reichtums, verbunden mit massiv zunehmender Ungleichheit durch den unregulierten Einsatz von KI.

Wenn nun etwa Sam Altman einen PR-Blitz mit dem US-amerikanischen Kongress und Ursula von der Leyen und allen möglichen Staatschefs vollführt und davon spricht, dass seine Industrie dringend reguliert werden sollte, dann muss man eigentlich kein Gedankenkünstler oder Hardcore-Marxist sein, um zu vermuten, dass er sicher nicht meint, dass er etwas von der Macht oder dem Einfluss oder dem Gewinnpotenzial der Firma ­OpenAI abgeben will, die er mitbegründet hat.

Aber weil der Diskurs über Digitalisierung im Allgemeinen und künstliche Intelligenz im Speziellen so einseitig und kurzatmig geführt wird, bleiben die Fragen der politischen Ökonomie weitgehend ausgeblendet: Wer profitiert also von „Regulierung“, die ja am Ende doch weitgehend selbst gestaltet sein sollte, so die Logik, und vor allem den technologischen und nicht den ökonomischen Aspekt betrifft.

Technologie nicht von Ökonomie zu trennen

Tatsache ist aber, dass die Technologie nicht von der Ökonomie zu trennen ist. Gefährlich wird die künstliche Intelligenz auf absehbare Zeit vor allem dadurch, dass sie eben kapitalistischen Profitinteressen unterworfen ist: Erst dadurch entsteht die eklatante Intransparenz bei der Entwicklung, das Zukunftsversprechen als „Blackbox“.

Erst dadurch ergeben sich das manipulative Potenzial und die private Kontrolle über einen gewaltigen technologischen Entwicklungssprung, der wie alle technologischen Entwicklungen letztlich eine Form von Infrastruktur annimmt. Die (allermeisten) Straßen sind auch nicht privat kontrolliert, warum sollte es die Infrastruktur im Digitalen also sein?

Die beiden Wirtschaftswissenschaftler Daron Acemoglu und Simon Johnson haben auf diese notwendigen marktwirtschaftlichen Fragen der Regulierung von KI gerade in einem Essay für die New York Times hingewiesen. Letztlich kommen sie zu dem Schluss, dass nicht in erster Linie die Macht von KI, sondern die Macht- und vor allem die Kapitalkonzentration der Firmen wie Microsoft oder Google das drängendste Problem sind.

Höhere Steuern für Google

Ihre Antwort, wie so oft in entscheidenden Phasen der Wirtschaftsentwicklung: Zerschlagung von monopolistischen Machtstrukturen – in ihrem Szenario aber nicht durch direkten staatlichen Einfluss, sondern indirekt durch die Erhöhung der Steuersätze für die betroffenen Firmen, die sich dann schon aus ökonomischen und steuerlichen Erwägungen aufsplitten würden.

„Unsere Zukunft sollte nicht in den Händen von zwei mächtigen Firmen liegen, die immer größere globale Imperien aufbauen, indem sie unser aller Daten verwenden“, schreiben Acemoglu und Johnson in der New York Times, „ohne Skrupel und ohne dass sie etwas von ihren Gewinnen abgeben.“ Gerade ist auch ihr Buch „Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity“ erschienen, in dem sie dieses gegenwärtigen Ringen um eine gerechtere digitale Ökonomie in den größeren historischen Kontext einordnen. Es sind diese tiefer gehenden Analysen, die das beste Mittel gegen Propaganda sind.

Es ist wahr, dass Technologien genutzt werden, um Propaganda zu verbreiten. Gerade deshalb muss der Diskurs darüber anders geführt werden und die eigentlichen Machtfragen stellen, und die sind eben meistens materieller Art, auch und gerade im Technologischen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • "Erst dadurch entsteht die eklatante Intransparenz bei der Entwicklung, das Zukunftsversprechen als „Blackbox“."



    Bei der aktuellen KI ist die Intransparenz eben keine reine Folge von Geschäftsmodell und Lizenzierung, sondern systemimmanent. Auch eine Open Source-KI bleibt wird insofern eine Black Box bleiben, als dass man sie eben nicht wie einen konventionellen Algorithmus debuggen und analysieren kann.



    Die Machtkonzentration bei Big Tech kann und sollte man natürlich kritisch sehen, aber die besteht bislang auch unabhängig von KI.

  • Am Ende ist KI nur ein weiteres Werkzeug. Bei der Frage, wie es verwendet wird, kommt man nicht drumherum zu schauen, wer es verwenden will, anstatt das Werkzeug zu verteufeln.

    • @Tetra Mint:

      Nur wie wollen sie solche Kontrollen durchführen? LLaMA etwa ist unter GPL 3 Lizenz verfügbar, kann also von jedem heruntergeladen und zu allen möglichen Zwecken genutzt werden. Und mit fortschreitender Entwicklung muss man wohl auch davon ausgehen, dass die derzeit noch bestehende Kostenhürde des initialen Pre-Trainings zunehmend absinkt oder auch durch den Einsatz von Bot-Netzen umgangen wird.

  • "...als hätten sie es nicht selbst in der Hand, diese Technologie so zu gestalten, dass sie nicht gefährlich ist."



    So fangen sie an und erklären dann genauso, warum sie es eben nicht in der Hand haben. Weil Konzerne agieren, mit oder ohne Zustimmung Einzelner. Diese wiederum sind dem Markt unterworfen. Zerschlagung klingt ja schön. Aber wie setzt man das dann auch bei den internationalen (autokratischen) Konkurrenten durch? China mag ja (noch) nicht führend sein, ist aber sehr nah dran. Wir sind nun leider darauf angewiesen, dass die westlichen Konzerne mit Militär und Sicherheitsagenturen zusammen arbeiten, Gegenteiliges können wir uns noch weniger leisten. Regulation und Kontrolle sind überfällig um diese Werkzeuge/Waffen in zumindest halbwegs demokratisch legitimierte Bahnen zu lenken. Ebenso ist sie notwendig um diese Werte zu schützen. Privatwirtschaft ist, so inhuman die Auswüchse auch seien mögen, eben auch der leistungsfähigste Motor für Technologie. Daher sind diese Konzerne eben auch führend und nicht China oder irgendein Forschungsinstitut mit Fördergeldern in Höhe von ein paar Erdnüssen.



    Die Geschwindigkeit der Entwicklung versetzt uns nun in die Lage, in der wir keine Wahl mehr haben, erst gesellschaftlich umzubauen, den Kapitalismus abzuschaffen oder ähnliches.



    Die Situation birgt durchaus Ähnlichkeit mit einem nuklearen Wettrüsten. Der Unterschied ist, dass KI Systeme sich gegenseitig neutralisieren können und daher keine für den Gegner kritische Menge zur Abschreckung aufgebaut werden kann. In diesem Fall ist es ein viel eher ein "Winner takes it all".



    Schöne Aussichten

    • @Höhlen!=:

      "Der Unterschied ist, dass KI Systeme sich gegenseitig neutralisieren können und daher keine für den Gegner kritische Menge zur Abschreckung aufgebaut werden kann."



      Will man es wirklich drauf ankommen lassen ob es, wenn etwa irgendwelche Fanatiker KI-unterstützt eine biologische Waffe züchten und auf die Menschheit loslassen, tatsächlich gelingt schnell genug von einer anderen KI ein passendes Gegenmittel entwickeln zu lassen?

      • @Ingo Bernable:

        Zum einen Brauch es daher eine Regulierung, die es Fanatikern erschwert Zugang zu entsprechenden Modellen und Daten zu bekommen. Das schließt autokratische Länder leider auch nicht aus und ist vermutlich auch nur eine Frage der Zeit bis auch einfache Systeme solche Aufgaben erledigen könnten.



        Wenn es also dazu kommen sollte, dann ist der vermutlich einzige Weg, der schnell genug ein Gegenmittel entwickeln kann eine KI. Daher ein klares Ja.



        Diese Ebene hatte ich noch gar nicht betrachtet. Sie ist aber durchaus auch eine erschreckende Gefahr. Vielen Dank für noch 2emiger Optimismus 😉



        Meine Überlegungen hatten sich bislang auf digitale Infrastruktur bezogen. Diese ist inzwischen so integral und nicht mehr wegzudenken, dass viele Hacks von kritischen Systemen zu einem Blackout o.ä. führen würden. Krankenkassen Systeme wurden z.b. erfolgreich mehrfach gehackt in letzter Zeit. Gleiches gilt für die IT Infrastruktur von Dax Konzernen, Logistik Systeme, von denen unser aller Versorgung abhängig geworden ist. Seien es Supermarkt Ketten oder Apotheken usw.usf.



        Hacken ist für heutige KI Systeme schon ein Anwendungszweck geworden und die Entwicklung ist derzeit exponentiell. In Folge ist die notwendige Geschwindigkeit Gegenmaßnahmen zu entwickeln schon in naher Zukunft für rein menschliche Beteiligung unerreichbar.



        Der Geist ist in der Welt, wir könnten ihn nur global und sehr restriktiv wieder los werden. Und das wird meiner Meinung nach nicht passieren. Mit allen Konsequenzen, die das nach sich zieht, wie oben angedeutet.