Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig

Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren Bericht vor. Konkreter wird ein anderer Report.

Ein Mann und eine Frau mit Kopftuch blicken auf einen Joghurtbecher, er hält ein Smartphone in der hand

Die KI immer dabei: eine Übersetzungs-App soll verständlich machen, was im Joghurt ist Foto: Nikki Kahn/The Washington Post/getty images

BERLIN taz | Was die Enquetekommission „Künstliche Intelligenz“ gut zwei Jahre nach ihrem Start vorgelegt hat, ist ein Rundumschlag. Die Gruppe, die jeweils zur Hälfte aus Bundestagsmitgliedern und aus externen Expert:innen zusammengesetzt war, beleuchtet das Thema künstliche Intelligenz (KI) unter anderem im Kontext von Gesundheit, Datenschutz, Diskrimierung und Nachhaltigkeit. „KI ist die nächste Stufe einer durch technologischen Fortschritt getriebenen Digitalisierung“, so beschreiben die Autor:innen in dem Abschlussbericht die Bedeutung der eigenen Arbeit, die sie am Mittwoch an Bundestagspräsident Wolfgang Schäuble (CDU) übergaben.

Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten. Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört schon zu den konkreteren Empfehlungen in dem Bereich.

Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde, wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom, wie schwierig die Debatte war, sind die Sondervoten: Jede Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll.

Währenddessen hat der aktuelle Automating-Society-Report, den die Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark zugenommen.

Europaweite Regeln fehlen

Für Deutschland führt der Report unter anderem das Beispiel Predictive Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker kontrolliert. Derartige Software wird unter anderem in Bayern und Baden-Württemberg eingesetzt.

Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen Regelungsrahmen.

Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare Register für Systeme, die automatische Entscheidungen treffen. Darin müssten unter anderem das Ziel und das verwendete Modell erklärt und Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit diskutierbar gemacht würden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de