Kritik an Forderung nach Pause für KI-Entwicklung

Hilft ein sechsmonatiger Entwicklungsstopp, Künstliche Intelligenz in Bahnen zu lenken? Ex­per­t:in­nen kritisieren: Die Forderung gehe an den echten Gefahren vorbei

Mensch und Maschine – keine einfache Sache, schon gar nicht, wenn KI noch dazukommt Foto: Marc John/imago

Von Svenja Bergt

Nach dem offenen Brief, in dem zahlreiche Tech-Expert:innen ein Moratorium für die Entwicklung künstlicher Intelligenz (KI) fordern, melden sich zunehmend kritische Stimmen zu Wort: Der Brief skizziere „eine Fantasiewelt, in der bisherige KI bis auf ein paar technische Updates problemfrei ist, und sechs Monate Entwicklungsstopp genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin, KI-Forscherin und Vorsitzende der Eidgenössische Medienkommission.

Ex­per­t:in­nen rund um die Tech-Branche hatten in der vergangenen Woche in einem offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Schreiben.

Eine sechsmonatige Pause sollte genutzt werden, um einen regulatorischen Umgang mit der neuen Technologie zu finden und beispielsweise Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand Montagmittag haben mehr als 3.000 Personen den Brief unterzeichnet. Zu den Erstunterzeichnenden gehört unter anderem Multimilliardär Elon Musk.

Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der Otto-Friedrich-Universität Bamberg ist eine der Unterzeichnerinnen. Sie sagte, dass sie zwar nicht glaube, dass eine sechsmonatige Pause hilfreich sei. „Aber ich stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen aktiv beteiligen.“

Sandra Wachter, Professorin für Technologie und Regulierung an der britischen Oxford Universität, weist darauf hin, dass einige in dem Brief angeführte Gründe für die Notwendigkeit eines Moratoriums eher „fiktional“ seien – zum Beispiel bei der Frage nach einem Bewusstsein von Robotern. „Das ist nach aktuellem technischen Kenntnisstand so unrealistisch, dass wir uns da meiner Meinung nach keine Gedanken zu machen müssen.“

Der Fokus auf diese Frage lenke von anderen Themen ab, denen wir uns als Gesellschaft jetzt schon stellen müssten: etwa der Tatsache, dass bestimmte, bereits privilegierte Stimmen in den Trainingsdatensätzen der KIs präsenter sind. Dadurch entstehen Verzerrungen, in der Wissenschaft Bias genannt. Auch Desinformation und die Arbeitsbedingungen von Menschen, die die Trainingsdaten kuratieren, sollten laut Wachter genauer betrachtet werden. Ebenso sei der ökologische Fußabdruck von KI-Modellen wichtig: „KI-Systeme werden zum Teil unter großen Energiekosten trainiert und betrieben, und da sollte man genau schauen, wann was sinnvoll ist.“

„Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo Hagendorff, Forschungsgruppenleiter im Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart. Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.

„Fiktional“

Sandra Wachter, Technologie-Professorin, über die Debatte um ein Bewusstsein von KI

Der Rechtswissenschaftler Matthias Kettemann vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus, bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen: „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu schützen, KI-basierte Diskriminierung zu beenden und globale Entwicklungsziele zu erreichen.“

So warnte etwa die Unesco davor, KI-Systeme könnten Diskriminierung verstärken. Weitere Gefahren seien Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten durch eine unregulierte Entwicklung. Die UN-Organisation forderte daher, dass alle Staaten weltweit die Unesco-Empfehlung zum ethischen Umgang mit KI zügig in nationales Recht umsetzen sollten.