talkshow
: Die Ängste, die wir riefen

Hunderte Ex­per­t*in­nen sehen in Künstlicher Intelligenz das „Risiko der Auslöschung“ für die Menschheit. Ihr Statement liefert keine Erklärungen oder Lösungsansätze, sondern setzt stattdessen auf Emotionen. Unser Autor erklärt, warum das gefährlich ist

Foto: Bleibt wohl Spielfilm-Fantasie: ein Leben wie in grünen Zeichenkaskaden des „Matrix“-Codes Foto: Landmark Media Press/action press

Von Johannes Drosdowski

Angst ist ein mächtiges Tier. Es lähmt manche von uns. Andere flüchten rennend hinter den nächstgelegenen Busch oder stellen sich der Angst schreiend und hauend im Verteidigungsmodus entgegen. Angst lässt uns Logik und Ratio vergessen. Und selbst wenn wir eigentlich unterschiedliche Dinge fürchten: Weil Angst nicht bloße Emotion ist, sondern auch Fantasie über das, was uns da bedrohen könnte, kann sie uns einen. Zum Beispiel unter dem Statement, das am Dienstag auf der Seite des Center for AI Safety online gestellt wurde. Aus einem einzigen Satz besteht dieses Statement: „Das Risiko der Ausrottung durch künstliche Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für die gesamte Gesellschaft wie Pandemien und Atomkrieg.“ Hunderte Menschen haben das unterschrieben: Ex­per­t*in­nen aus der Wissenschaft, Digi­tal­mi­nister*innen, Fachleute aus der Wirtschaft, die selbst an KIs arbeiten. Künstliche Intelligenz stellen sie damit auf eine Stufe mit Vernichtungs­waf­fen und millionenfach tötenden Krankheiten, gegen die wir uns – die Pest und Corona haben es bewiesen – nur schwer wehren können. Was sonst sollen jene bekommen, die den Aufruf und die Un­ter­zeich­ne­r*in­nen sehen, wenn nicht: Angst.

Welche Anwendungsfelder der künstlichen Intelligenz in dem Statement gemeint sind? Das bleibt offen. Es könnte um Chat-KIs gehen, die manchmal die Wahrheit sagen, manchmal lügen, abhängig davon, was ihre Berechnungen als wahrscheinlichste Abfolge von Wörtern herausschmeißen. Es könnte um die Medizin gehen, in der mithilfe von KI große Fortschritte gemacht werden, etwa in der Erkennung von Krebszellen. Es könnte um KI gehen, die Logistik verbessern oder bei der Ortung von militärischen Zielen helfen könnte. Hinter diesem einen Satz könnte sich so vieles verbergen, selbst Fantasien im Stil der „Matrix“-Reihe oder des „Terminator“. KIs, die sich verselbstständigen, die ein Bewusstsein entwickeln, die sich ihre eigenen Ziele suchen, bei denen die Menschen ihnen sklavisch dienen müssen, wenn sie ihnen nicht so lange im Weg stehen wollen, bis Agent Smith sie ins Grab ballert. Stellen Sie sich vor, was Sie wollen. Aber haben Sie vor allem eins: Angst.

Klare Bedenken werden nicht ausgesprochen, nur eine undefinierte Pro­phe­zeiung des Untergangs wird formuliert

Das Ziel des Statements sei es, eine Diskussion zu ermöglichen, „Bedenken auszusprechen über manche der größten Risiken fortgeschrittener KIs“. Doch klare Bedenken werden gar nicht ausgesprochen, nur eine undefinierte Prophezeiung des Untergangs wird formuliert. Das Konkrete fehlt und damit wird den Le­se­r*in­nen des Statements vermutlich auch die Option zur Diskussion genommen.

Wenn hundert Menschen in einem Saal stehen und man ihnen sagt: „Ihr müsst etwas Schreckliches verhindern“, weiß niemand, um was es geht. Wenn hundert Menschen in einen Saal gehen, in dessen Ecken Tische stehen, an denen sie sich jeweils mit einer Gefahr beschäftigen können, werden sie sich wohl die aussuchen, die für sie am relevantesten scheint, von der sie am meisten wissen, die vielleicht die größte Neugier weckt. So kann man über seine Bedenken sprechen. So findet man Lösungen. Wenn die Un­ter­zeich­ne­r*in­nen des Statements wirklich eine Art gesamtgesellschaftlichen Workshop starten möchte, an dessen Ende Gefahren bedacht und möglichst minimiert werden sollen, dann sollten sie diesem Workshop auch Themen geben und nicht nur reine Emotion.