EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen

Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste Regulierung von KI abstimmen. Ex­per­t:in­nen fordern schon Nachbesserungen.

Zwei Frauen auf einem Bild. Die Frau im Vordergrund guckt mit leichter Anspannung seitlich nach vorne. Eine Frau hinter ihr drückt ihr melancholiisch wirkendes Gesicht auf ihre Schultern.

Das Bild des deutschen Fotografen Boris Eldagsen ist ein Produkt von künstlicher Intelligenz Foto: Boris Eldagsen//reuters

Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI) herstellen und kontrollieren. Eine Welt, in der unterbezahlte Ar­bei­te­r:in­nen diese KI-Systeme kuratieren und ihnen zuliefern müssen. In der die Interessen und Rechte der Nut­ze­r:in­nen und das Wohl der Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“

Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der Signal-Stiftung, die mit der gleichnamigem Messenger-App verbunden ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now Instituts an der New York University beschäftigt sie sich auch wissenschaftlich mit der Technologie. Auf der Bühne bei der Digitalkonferenz re:­pu­bli­ca spricht sie vor einem Publikum, das tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist.

Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas, das Hoffnungen weckt. Und Ängste.

Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“

OpenAI-Chef tingelt durch die Politikwelt

Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen. KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als „Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, desto mehr Macht geben wir den Firmen dahinter“, sagt sie.

Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die Staats­che­f:in­nen zahlreicher Länder – und nahm auch am Treffen eines transatlantischen Kooperationsforums teil, auf dem Ver­tre­te­r:in­nen von EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten.

Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es ist die weltweit bislang umfassendste Regulierung zu künstlicher Intelligenz.

Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog genannten Kompromissverhandlungen geeinigt haben. Weil es wegen Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die Regelungen letztlich greifen, kündigten EU und USA nach dem Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit überbrücken und die Weichen in Richtung der europäischen Regelungen stellen soll.

Positive Reaktionen auf Regeln

Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch was taugen die europäischen Regeln in der Form, wie sie aktuell geplant sind?

Spricht man mit Ex­per­t:in­nen für IT-Recht und -Ethik über den AI Act, sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das Risiko, desto umfassender und strenger die Regeln.

Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur biometrischen Massenüberwachung.

„Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen Entwicklungen überholt zu werden.

Wer lässt sich zur Rechenschaft ziehen?

Auch Sandra Wachter, Professorin am Oxford Internet Institute der gleichnamigen Universität sieht viel Positives – aber in einigen Punkten auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe Prü­fe­r:in­nen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen? „Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den Entwicklern der Foundation Models und das ist meines Erachtens nicht ausreichend“, sagt Wachter.

Foundation Models sind quasi die Basis-Modelle für KI-Anwendungen. Im Bezug auf die Herstellungskette vergleicht Wachter sie mit einem Hersteller von Ton. Ähnlich wie das Rohmaterial Ton in einem zweiten Schritt verarbeitet wird und in einem Dritten ein:e Kun­d:in es kauft und nutzt, werden aus den Basis-Modellen im nächsten Schritt KI-Anwendungen entwickelt und diese schließlich von den Nut­ze­r:in­nen verwendet.

Wachter plädiert dafür, alle Ak­teu­r:in­nen in der Kette in die Verantwortung zu nehmen – aber mit unterschiedlichen Pflichten. So müsse ein Ton-Hersteller beispielsweise dafür sorgen, dass kein Gift in dem Material sei. Der Hersteller einer Vase darf keine Fälschung erstellen und der Kunde niemanden damit erschlagen. Eine analoge Regulierung brauche es auch für KI.

Auch beim Umweltaspekt gibt es noch Luft nach oben. Zum Beispiel ist eine Bewertung der Umweltauswirkungen bislang nur für Anwendungen vorgeschrieben, die in den Bereich des hohen Risikos fallen. Die KI-Anwendung für den OP-Roboter braucht also die Bewertung, der Chatbot aber nicht. Dazu kommt: Die Modelle zum Maschinellen Lernen, die zahlreichen aktuellen KI-Anwendungen zu Grunde liegen, werden immer größer – und damit ressourcenintensiver. „Wenn wir davon ausgehen, dass wir unseren Energieverbrauch reduzieren müssen, ist das kontraproduktiv“, sagt Friederike Rohde vom Institut für ökologische Wirtschaftsforschung.

Halber Liter Wasserverbrauch für 20 bis 50 Fragen

Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität Viadrina, schlägt in einem aktuellen Arbeitspapier daher unter anderem eine Deckelung des Energieverbrauchs vor – diese könnte für gesellschaftlich wichtige Anwendungen höher ausfallen als für weniger wichtige. Außerdem gelte es, neben der Energie auch den Wasserverbrauch im Blick zu haben: Ein großes Modell, wie GPT-4, auf dem auch ChatGPT basiert, verbrauche „signifikante Mengen“ Wasser für die Kühlung der Rechenzentren. Ein Austausch von 20 bis 50 Fragen mit ChatGPT verbrauche aktuellen Schätzungen zufolge etwa einen halben Liter Wasser.

Wie das mit der Ressourcenschonung gehen kann, zeigt Björn Ommer auf der re:publica-Konferenz. Ommer ist Professor an der Ludwigs-Maximilians-Universität München. Gemeinsam mit seiner Forschungsgruppe veröffentlichte er im vergangenen Jahr einen der leistungsfähigsten KI-Bildgeneratoren, die es derzeit gibt: Stable Diffusion.

Im Unterschied zu anderen generativen KIs wie Midjourney oder ChatGPT ist Ommers Software Open Source: Je­de:r kann den Quellcode einsehen und verändern. Das kleine und damit ressourcensparende Modell führt dazu, dass die Software auch auf Heimcomputern mit etwas leistungsfähigeren Grafikkarten anwendbar ist. „Demokratisierung von KI“ nennt Ommer das.

Es könnte ein Baustein sein dafür, dass KI-Anwendungen nicht nur von wenigen großen Firmen entwickelt und betrieben werden. „Wenn es uns gelingt, den Menschen in den Mittelpunkt zu stellen, dann wird KI ein großartiges Werkzeug werden, das unsere menschlichen Fähigkeiten ergänzt und erweitert“, sagt Ommer. Die nächsten Schritte beim AI Act werden zeigen, ob es in diese Richtung geht.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.