Ethik des Silicon Valley: Sie wären gern Götter
Viele Milliardäre des Silicon Valley hängen fragwürdigen ethischen Konzepten an. Dass sie die Entwicklung einer Super-KI vorantreiben, sollte zu denken geben.
E s gibt zwei laute Gruppen in der KI-Debatte: Diejenigen, die von einer Utopie schwärmen, in der eine Superintelligenz, eine sogenannte Allgemeine Künstliche Intelligenz (Artificial General Intelligence, AGI), der Menschheit ein Leben auf mehreren Planeten ohne Krankheiten oder Klimakrise ermöglicht. Und diejenigen, die davor warnen, dass genau diese AGI außer Kontrolle geraten und die Menschheit auslöschen könnte.
Utopie oder Apokalypse: Die Szenarien könnten nicht weiter voneinander entfernt sein. Doch die Vertreter*innen beider Ideen gleichen sich – sowohl in ihrer Prämisse als auch im Effekt ihrer schrillen Heilsversprechen und Warnungen. Die Prämisse: Die Superintelligenz kommt und sie wird revolutionäre Folgen haben. Der Effekt: Die Allgemeine Künstliche Intelligenz muss von ihnen entwickelt werden. Denn wer an die Utopie glaubt, will sie sowieso erreichen. Und wer vor der Apokalypse warnt, will AGI entwickeln, bevor es andere tun, die sich weniger um deren Sicherheit sorgen.
Aber ist die Superintelligenz wirklich die unausweichliche Konsequenz, auf die wir zusteuern? Das kann niemand seriös vorhersagen. Der führende KI-Forscher von Meta Yann LeCun hält AGI mit den aktuellen Mitteln für kaum erreichbar. Der einst bei OpenAI für Prognosen zuständige Forscher Danil Kokotajlo meint hingegen, die Allgemeine Künstliche Intelligenz könnte schon 2027 durch Skalierung der aktuellen Technik der Sprachmodelle erreicht werden.
Sowohl das Versprechen der KI-Utopie als auch die Warnungen vor der KI-Apokalypse führen dazu, dass alltägliche Probleme, die KI bereits jetzt aufwirft, nichtig erscheinen: Datensätze, die Vorurteile weitertragen, oder der Einsatz von KI an Gerichten, der zu Diskriminierung und falschen Urteilen führt. Die Probleme verblassen vor den schrillen Zukunftsvisionen. Das ist kein Zufall. Denn egal ob sie die KI-Entwicklung beschleunigen wollen oder vor der Monster-KI warnen – viele führende Köpfe im Silicon Valley teilen ein Bündel an Ideen.
Die Zukunft im Blick, mit Scheuklappen für die Gegenwart
Die Wissenschaftler*innen Timnit Gebru, ehemals Co-Chefin der KI-Ethik-Abteilung bei Google, und der Philosoph und Historiker Émile P. Torres nennen sie TESCREALists. Hinter dem Akronym verbirgt sich ein Bündel an Ideologien. Die drei bekanntesten sind der Transhumanismus, der Longtermismus und der Effektive Altruismus.
Grob zusammengefasst: Beim Transhumanismus geht es darum, die menschliche Spezies durch technische Optimierung über sich selbst und die Natur hinauswachsen zu lassen.
Effektive Altruist*innen wollen das maximale Glück für möglichst viele Menschen schaffen. So landen auch sie bei der technisch optimierten Menschheit. Es gilt als ethischer, möglichst viel Geld zu verdienen und es zu investieren, weil man damit mehr erreichen könne, als heute etwa bei einer NGO zu arbeiten.
Der Longtermismus erweitert den Effektiven Altruismus um die zeitliche Dimension und die Idee, dass durch technische Optimierung in Zukunft viel mehr Menschen auf mehr Planeten oder gar in digitalen Welten leben können. Das potenziell erreichbare Glück in der Zukunft wäre also größer als das heutige. Es wäre dementsprechend ethischer, heute einen kleinen Teil zur Besiedelung des Mars oder zur Entwicklung einer Super-KI beizutragen, als etwa den Hunger auf der Welt zu beenden. So führen diese Ideologien dazu, dass ihre Anhänger*innen möglichst viel Geld anhäufen und es in Science-Fiction investieren, anstatt reale Probleme anzugehen.
Die Ideologie wird nicht verheimlicht
Kritiker*innen bezeichnen Torres und Gebrus Kritik als linke Verschwörungstheorie. Dabei geben viele Tech-Bosse ihre Ideologie offen preis. Elon Musk postete auf X etwa zu einem Buch eines Vordenkers des Effektiven Altruismus: „Das stimmt eng mit meiner Philosophie überein“, gleichzeitig treibt Musk eine Marsmission voran, um seine Besiedlungsfantasien zu verwirklichen. Der Investor Marc Andreessen bezeichnete sich 2023 in seiner Twitter-Bio selbst als TESCREAList. Sam Altman, der sich zwar von Longtermismus und Effektivem Altruismus distanzierte, trug sich gleichzeitig auf eine Warteliste ein, um sein Gehirn digitalisieren zu lassen.
Das alles mag absurd klingen. Und wahrscheinlich sind die genannten Ideologien eher lose verbunden und treiben nur wenige Tech-Bosse täglich in ihrem Handeln an. Doch es lohnt sich, im Kopf zu behalten, dass reiche und mächtige Männer wie Musk oder Altman offensichtlich lieber darüber nachdenken, wie sie in Zukunft Galaxien besiedeln und die menschliche Spezies umgestalten können, als sich mit real existierenden Ungerechtigkeiten zu beschäftigen. Dazu muss man keine Verschwörungstheorie entwickeln, denn das sagen sie selbst und zeigen es mit ihren Investitionen.
Ob ihre Ideen Quatsch sind oder nicht – mit ihrem Einfluss und ihrem Geld gestalten sie die Welt. Diskriminierung, Datenschutz oder fehlerhafte Antworten von Chatbots drohen hinter den schrillen Zukunftsvisionen unterzugehen. Es liegt an Zivilgesellschaft und Politik, auf diese Probleme hinzuweisen und sich nicht von Doomer*innen oder Utopist*innen vereinnahmen zu lassen.
Die Zukunftsvisionen komplett zu ignorieren, kann jedoch auch nicht die Lösung sein. Denn selbst wenn man glaubt, die Wahrscheinlichkeit für eine durch KI ausgelöste Katastrophe sei gering, lohnt es sich doch, sicherzustellen, dass sie gegen null geht. Nur dürfen wir darüber eben nicht das Heute vergessen.
Statt einer kaum definierbaren Allgemeinen Künstlichen Intelligenz nachzueifern, fordern Torres und Gebru, kleinteilige KI-Systeme für spezifische Anwendungen zu entwickeln. Solche Systeme wären leichter zu überprüfen und würden weniger Gefahren bergen. Dieser Weg scheint jedoch kaum gangbar, solange die mächtigsten Männer der KI-Welt lieber ihren gottgleichen Visionen von Superintelligenz, digitalen Gehirnen und intergalaktischen Zivilisationen frönen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Putins Atomdrohungen
Angst auf allen Seiten
BGH-Urteil gegen Querdenken-Richter
Richter hat sein Amt für Maskenverbot missbraucht
Umweltfolgen des Kriegs in Gaza
Eine Toilettenspülung Wasser pro Tag und Person
+++ Nachrichten im Ukraine-Krieg +++
Biden genehmigt Lieferung von Antipersonenminen
BSW stimmt in Sachsen für AfD-Antrag
Es wächst zusammen, was zusammengehört
Absagen vor Kunstsymposium
Logiken der Vermeidung