Leben mit künstlicher Intelligenz: Datenfreigabe nur freiwillig
Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren Bericht vor. Konkreter wird ein anderer Report.
Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten. Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört schon zu den konkreteren Empfehlungen in dem Bereich.
Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde, wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom, wie schwierig die Debatte war, sind die Sondervoten: Jede Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll.
Währenddessen hat der aktuelle Automating-Society-Report, den die Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark zugenommen.
Europaweite Regeln fehlen
Für Deutschland führt der Report unter anderem das Beispiel Predictive Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker kontrolliert. Derartige Software wird unter anderem in Bayern und Baden-Württemberg eingesetzt.
Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen Regelungsrahmen.
Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare Register für Systeme, die automatische Entscheidungen treffen. Darin müssten unter anderem das Ziel und das verwendete Modell erklärt und Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit diskutierbar gemacht würden.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!