Ethik des Silicon Valley: Sie wären gern Götter

Viele Milliardäre des Silicon Valley hängen fragwürdigen ethischen Konzepten an. Dass sie die Entwicklung einer Super-KI vorantreiben, sollte zu denken geben.

Terminator-Figur auf der weltgrößten Computerspielmesse Gamescom

Mit dem Terminator Richtung Transhumanismus? Foto: Christoph Hardt/imago

Es gibt zwei laute Gruppen in der KI-Debatte: Diejenigen, die von einer Utopie schwärmen, in der eine Superintelligenz, eine sogenannte Allgemeine Künstliche Intelligenz (Artificial General Intelligence, AGI), der Menschheit ein Leben auf mehreren Planeten ohne Krankheiten oder Klimakrise ermöglicht. Und diejenigen, die davor warnen, dass genau diese AGI außer Kontrolle geraten und die Menschheit auslöschen könnte.

Utopie oder Apokalypse: Die Szenarien könnten nicht weiter voneinander entfernt sein. Doch die Ver­tre­te­r*in­nen beider Ideen gleichen sich – sowohl in ihrer Prämisse als auch im Effekt ihrer schrillen Heilsversprechen und Warnungen. Die Prämisse: Die Superintelligenz kommt und sie wird revolutionäre Folgen haben. Der Effekt: Die Allgemeine Künstliche Intelligenz muss von ihnen entwickelt werden. Denn wer an die Utopie glaubt, will sie sowieso erreichen. Und wer vor der Apokalypse warnt, will AGI entwickeln, bevor es andere tun, die sich weniger um deren Sicherheit sorgen.

Aber ist die Superintelligenz wirklich die unausweichliche Konsequenz, auf die wir zusteuern? Das kann niemand seriös vorhersagen. Der führende KI-Forscher von Meta Yann LeCun hält AGI mit den aktuellen Mitteln für kaum erreichbar. Der einst bei OpenAI für Prognosen zuständige Forscher Danil Kokotajlo meint hingegen, die Allgemeine Künstliche Intelligenz könnte schon 2027 durch Skalierung der aktuellen Technik der Sprachmodelle erreicht werden.

Sowohl das Versprechen der KI-Utopie als auch die Warnungen vor der KI-Apokalypse führen dazu, dass alltägliche Probleme, die KI bereits jetzt aufwirft, nichtig erscheinen: Datensätze, die Vorurteile weitertragen, oder der Einsatz von KI an Gerichten, der zu Diskriminierung und falschen Urteilen führt. Die Probleme verblassen vor den schrillen Zukunftsvisionen. Das ist kein Zufall. Denn egal ob sie die KI-Entwicklung beschleunigen wollen oder vor der Monster-KI warnen – viele führende Köpfe im Silicon Valley teilen ein Bündel an Ideen.

Die Zukunft im Blick, mit Scheuklappen für die Gegenwart

Die Wis­sen­schaft­le­r*in­nen Timnit Gebru, ehemals Co-Chefin der KI-Ethik-Abteilung bei Google, und der Philosoph und Historiker Émile P. Torres nennen sie TESCREALists. Hinter dem Akronym verbirgt sich ein Bündel an Ideologien. Die drei bekanntesten sind der Transhumanismus, der Longtermismus und der Effektive Altruismus.

Grob zusammengefasst: Beim Transhumanismus geht es darum, die menschliche Spezies durch technische Optimierung über sich selbst und die Natur hinauswachsen zu lassen.

Effektive Al­tru­is­t*in­nen wollen das maximale Glück für möglichst viele Menschen schaffen. So landen auch sie bei der technisch optimierten Menschheit. Es gilt als ethischer, möglichst viel Geld zu verdienen und es zu investieren, weil man damit mehr erreichen könne, als heute etwa bei einer NGO zu arbeiten.

Im Longtermismus scheint es ethischer, zur Besiedelung des Mars oder zur Entwicklung einer Super-KI beizutragen als etwa den Hunger auf der Welt zu beenden.

Der Longtermismus erweitert den Effektiven Altruismus um die zeitliche Dimension und die Idee, dass durch technische Optimierung in Zukunft viel mehr Menschen auf mehr Planeten oder gar in digitalen Welten leben können. Das potenziell erreichbare Glück in der Zukunft wäre also größer als das heutige. Es wäre dementsprechend ethischer, heute einen kleinen Teil zur Besiedelung des Mars oder zur Entwicklung einer Super-KI beizutragen, als etwa den Hunger auf der Welt zu beenden. So führen diese Ideologien dazu, dass ihre An­hän­ge­r*in­nen möglichst viel Geld anhäufen und es in Science-Fiction investieren, anstatt reale Probleme anzugehen.

Die Ideologie wird nicht verheimlicht

Kri­ti­ke­r*in­nen bezeichnen Torres und Gebrus Kritik als linke Verschwörungstheorie. Dabei geben viele Tech-Bosse ihre Ideologie offen preis. Elon Musk postete auf X etwa zu einem Buch eines Vordenkers des Effektiven Altruismus: „Das stimmt eng mit meiner Philosophie überein“, gleichzeitig treibt Musk eine Marsmission voran, um seine Besiedlungsfantasien zu verwirklichen. Der Investor Marc Andreessen bezeichnete sich 2023 in seiner Twitter-Bio selbst als TESCREAList. Sam Altman, der sich zwar von Longtermismus und Effektivem Altruismus distanzierte, trug sich gleichzeitig auf eine Warteliste ein, um sein Gehirn digitalisieren zu lassen.

Das alles mag absurd klingen. Und wahrscheinlich sind die genannten Ideologien eher lose verbunden und treiben nur wenige Tech-Bosse täglich in ihrem Handeln an. Doch es lohnt sich, im Kopf zu behalten, dass reiche und mächtige Männer wie Musk oder Altman offensichtlich lieber darüber nachdenken, wie sie in Zukunft Galaxien besiedeln und die menschliche Spezies umgestalten können, als sich mit real existierenden Ungerechtigkeiten zu beschäftigen. Dazu muss man keine Verschwörungstheorie entwickeln, denn das sagen sie selbst und zeigen es mit ihren Investitionen.

Ob ihre Ideen Quatsch sind oder nicht – mit ihrem Einfluss und ihrem Geld gestalten sie die Welt. Diskriminierung, Datenschutz oder fehlerhafte Antworten von Chatbots drohen hinter den schrillen Zukunftsvisionen unterzugehen. Es liegt an Zivilgesellschaft und Politik, auf diese Probleme hinzuweisen und sich nicht von Doo­me­r*in­nen oder Uto­pis­t*in­nen vereinnahmen zu lassen.

Die Zukunftsvisionen komplett zu ignorieren, kann jedoch auch nicht die Lösung sein. Denn selbst wenn man glaubt, die Wahrscheinlichkeit für eine durch KI ausgelöste Katastrophe sei gering, lohnt es sich doch, sicherzustellen, dass sie gegen null geht. Nur dürfen wir darüber eben nicht das Heute vergessen.

Statt einer kaum definierbaren Allgemeinen Künstlichen Intelligenz nachzueifern, fordern Torres und Gebru, kleinteilige KI-Systeme für spezifische Anwendungen zu entwickeln. Solche Systeme wären leichter zu überprüfen und würden weniger Gefahren bergen. Dieser Weg scheint jedoch kaum gangbar, solange die mächtigsten Männer der KI-Welt lieber ihren gottgleichen Visionen von Superintelligenz, digitalen Gehirnen und intergalaktischen Zivilisationen frönen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.