Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet
Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten gilt.
Die Regulierung von KI-Anwendungen ist in den Fokus gerückt, nachdem das US-Unternehmen OpenAI vor einem halben Jahr seinen Textgenerator ChatGPT für die Öffentlichkeit zugänglich gemacht hat. Damit wurde für die breite Masse erstmals das Potenzial der neuen Technologie erfahrbar – und ihre Gefahr. Schnell zeigte sich, dass der Textgenerator auch Inhalte erzeugt, die nicht den Tatsachen entsprechen und sich beispielsweise in großem Stil Propaganda generieren lässt.
Seitdem bekommt das Thema auch international viel Aufmerksamkeit: So forderte Anfang der Woche die Führungsriege von OpenAI eine klare Regulierung „superintelligenter“ KI-Systeme. „Superintelligenz wird mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte“, heißt es in dem Beitrag. Es brauche eine internationale Regulierungsbehörde ähnlich wie die für Atomkraft. Diese müsse etwa Systeme inspizieren, Audits verlangen und die Einhaltung von Sicherheitsnormen überprüfen können.
Zumindest regulativ ist die EU bei diesem Thema ausnahmsweise vorne dran: Mit dem AI Act, einem Gesetz zur Regulierung künstlicher Intelligenz, könnte noch in diesem Jahr das weltweit bislang umfangreichste Regelwerk verabschiedet werden.
Fachleute fordern Verbesserungen
Bei der Anhörung in Berlin zeigte sich jedoch: Viele Expert:innen sind nicht davon überzeugt, dass die Regeln in der aktuell vorliegenden Form sinnvoll sind. So kritisierte Wissenschaftler Hacker, dass der aktuelle Entwurf eher dazu geeignet sei, Technologien auszubremsen oder zu verhindern. Googles Textgenerator Bard sei in 180 Ländern verfügbar – aber in der EU nicht. Hacker formulierte folgendes Beispiel: „Wenn wir uns vorstellen, dass mit einer medizinischen KI außerhalb der EU Leben gerettet werden und in der EU nicht – wollen wir das wirklich?“
Jonas Andrulis, Gründer des KI-Unternehmens Aleph Alpha, sagte: „Bei dem Thema ist inhaltliche und ökonomische Souveränität für Deutschland und für Europa entscheidend.“ Deutschland dürfe in dieser Frage nicht einfach nur Kunde der USA sein. Auch Rasmus Rothe, Vorsitzender des KI-Bundesverbandes, sagte: „Es ist wichtig, dass wir Anwendungen hier in Europa schreiben mit unseren Werten.“
Ein Beispiel dafür, was das heißt, gab Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute der dortigen Universität: „Jede Designentscheidung spiegelt unsere Werte wider.“ Das beginne schon bei der Auswahl der Trainingsdaten: Sind ausschließlich weiße Gesichter darin oder haben die Entwickler:innen auf Diversität geachtet?
Schon deshalb sei es so wichtig, dass auch die Unternehmen personell entsprechend hetrogen aufgestellt sind, mit Menschen mit unterschiedlichen Hintergründen. „KI ist kein Alien, das auf unseren Planeten kommt, das eine bestimmte Gestalt hat, und jetzt bitten wir es, dass es unseren Werten entspricht, sondern KI ist etwas, das wir von Anfang an schaffen“, erklärte Wachter.
Wachter gibt auch konkrete Beispiele dafür, was in Sachen Regulierung zu tun wäre: Gehe man in den Supermarkt und kaufe beispielsweise eine Suppendose, müsse da auch draufstehen, was in der Suppe ist. „Das bringt einem aber nur etwas, wenn man auch versteht, was die Inhaltsstoffe sind.“ Daher brauche es zwar Vorgaben zur Transparenz, aber auch ein Wissen über die Technologien.
Und gleichzeitig Grenzen: „Es reicht nicht zu sagen, diese Suppe ist giftig. Es muss eine Verantwortung dafür geben, keine giftige Suppe herzustellen.“ Da die Herstellungsketten nicht nur im Lebensmittelbereich, sondern auch bei KI-Anwendungen lang sein können, sprach Wachter sich dafür aus, in der Regulierung Hersteller entlang der gesamten Kette in die Haftung zu nehmen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Historiker Traverso über den 7. Oktober
„Ich bin von Deutschland sehr enttäuscht“
Elon Musk greift Wikipedia an
Zu viel der Fakten
Grünen-Abgeordneter über seinen Rückzug
„Jede Lockerheit ist verloren, und das ist ein Problem“
Nach dem Anschlag in Magdeburg
Das Weihnachten danach
Hoffnung und Klimakrise
Was wir meinen, wenn wir Hoffnung sagen
Der Fall von Assad in Syrien
Eine Blamage für Putin