Moratorium über Umgang mit KI: Pause mit Problemen
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten. Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang zügig in nationales Recht übersetzen.
Die Expert:innen aus der Tech-Branche hatten diese Woche in ihrem offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Schreiben.
Vorstoß für Moratorium ist umstritten
Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen Umgang mit der neuen Technologie zu finden und beispielsweise Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet.
Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin, KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission.
Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen aktiv beteiligen.“
Am Problem vorbei
KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens genauso wichtig ist wie die Entstehung.“ Zwar würden die Unterzeichner:innen des Briefs auch sinnvolle Maßnahmen wie Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter anderem Milliardär Elon Musk.
Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus, bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen. „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu schützen, KI-basierte Diskriminierung zu beenden und globale Entwicklungsziele zu erreichen.“
„Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart.
Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“