Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen

Hunderte Ex­per­t*in­nen sehen in Künstlicher Intelligenz das „Risiko der Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.

Ein Mensch geht zwischen grünen Datenströmen durch eine Straßenschlucht, Szene aus dem Film Matrix

Bleibt wohl Spielfilm-Fantasie: ein Leben wie in grünen Zeichenkaskaden des „Matrix“-Codes Foto: Landmark Media Press/action press

Angst ist ein mächtiges Tier. Es lähmt manche von uns. Andere flüchten rennend hinter den nächstgelegenen Busch oder stellen sich der Angst schreiend und hauend im Verteidigungsmodus entgegen. Angst lässt uns Logik und Ratio vergessen. Und selbst wenn wir eigentlich unterschiedliche Dinge fürchten: Weil Angst nicht bloße Emotion ist, sondern auch Fantasie über das, was uns da bedrohen könnte, kann sie uns einen.

Zum Beispiel unter dem Statement, das am Dienstag auf der Seite des Center for AI Safety online gestellt wurde. Aus einem einzigen Satz besteht dieses Statement: „Das Risiko der Ausrottung durch Künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg.“

Hunderte Menschen haben das unterschrieben: Ex­per­t*in­nen aus der Wissenschaft, Digi­tal­mi­nister*innen, Fachleute aus der Wirtschaft, die selbst an KIs arbeiten. Künstliche Intelligenz stellen sie damit auf eine Stufe mit Vernichtungs­waf­fen und millionenfach tötenden Krankheiten, gegen die wir uns – die Pest und Corona haben es bewiesen – nur schwer wehren können. Was sonst sollen jene bekommen, die den Aufruf und die Un­ter­zeich­ne­r*in­nen sehen, wenn nicht: Angst.

Welche Anwendungsfelder der Künstlichen Intelligenz in dem Statement gemeint sind? Das bleibt offen. Es könnte um Chat-KIs gehen, die manchmal die Wahrheit sagen, manchmal lügen, abhängig davon, was ihre Berechnungen als wahrscheinlichste Abfolge von Wörtern herausschmeißen.

Prophezeiung des Untergangs

Es könnte um die Medizin gehen, in der mithilfe von KI große Fortschritte gemacht werden, etwa in der Erkennung von Krebszellen. Es könnte um KI gehen, die Logistik verbessern oder bei der Ortung von militärischen Zielen helfen könnte. Hinter diesem einen Satz könnte sich so vieles verbergen, selbst Fantasien im Stil der „Matrix“-Reihe oder des „Terminator“.

KIs, die sich verselbstständigen, die ein Bewusstsein entwickeln, die sich ihre eigenen Ziele suchen, bei denen die Menschen ihnen sklavisch dienen müssen, wenn sie ihnen nicht so lange im Weg stehen wollen, bis Agent Smith sie ins Grab ballert. Stellen Sie sich vor, was Sie wollen. Aber haben Sie vor allem eins: Angst.

Das Ziel des Statements sei es, eine Diskussion zu ermöglichen, „Bedenken auszusprechen über manche der größten Risiken fortgeschrittener KIs“. Doch klare Bedenken werden gar nicht ausgesprochen, nur eine undefinierte Prophezeiung des Untergangs wird formuliert. Das Konkrete fehlt und damit wird den Le­se­r*in­nen des Statements vermutlich auch die Option zur Diskussion genommen.

Mehr als reine Emotionen

Wenn hundert Menschen in einem Saal stehen und man ihnen sagt: „Ihr müsst etwas Schreckliches verhindern“, weiß niemand, um was es geht. Wenn hundert Menschen in einen Saal gehen, in dessen Ecken Tische stehen, an denen sie sich jeweils mit einer Gefahr beschäftigen können, werden sie sich wohl die aussuchen, die für sie am relevantesten scheint, von der sie am meisten wissen, die vielleicht die größte Neugier weckt. So kann man über seine Bedenken sprechen. So findet man Lösungen.

Wenn die Un­ter­zeich­ne­r*in­nen des Statements wirklich eine Art gesamtgesellschaftlichen Workshop starten möchte, an dessen Ende Gefahren bedacht und möglichst minimiert werden sollen, dann sollten sie diesem Workshop auch Themen geben und nicht nur reine Emotion.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.