Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.
D ie Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren zahlreich und sie waren laut: Künstliche Intelligenz könne zu einer Gefahr für die Menschheit werden, sie sei in eine Reihe zu stellen mit den Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist: Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des Problems, sondern auch Teil der Lösung sein.
Das sollte man im Hinterkopf behalten, wenn das EU-Parlament diese Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI) beschließt. Denn Ideen für Lösungsansätze werden in den alarmistischen Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste: Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in Gang zu bringen. Vielmehr dienen sie einerseits der eigenen Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die Probleme klein, die es bei KI schon jetzt gibt und die durch Regeln gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen.
Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild- und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem, also die Schwierigkeit, dass häufig nicht einmal die Entwickler:innen selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen Technologie noch weiter ausbauen, als es derzeit schon der Fall ist.
Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen Schäden größer wären als der reale oder möglicherweise zu erwartende Nutzen?
Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme, die jetzt gelöst werden müssen – und zwar ohne sich von Weltuntergangsszenarien lähmen zu lassen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Stockender Absatz von E-Autos
Woran liegt es?
Erfolg gegen Eigenbedarfskündigungen
Gericht ebnet neue Wege für Mieter, sich zu wehren
Tod des Fahrradaktivisten Natenom
Öffentliche Verhandlung vor Gericht entfällt
Grünes Wahlprogramm 2025
Wirtschaft vor Klima
Energiewende in Deutschland
Erneuerbare erreichen Rekord-Anteil
Lateinamerika und Syrien
Assads Freunde