piwik no script img

Leben mit künstlicher IntelligenzDatenfreigabe nur freiwillig

Die Enquetekommission „Künstliche Intelligenz“ des Bundestags legt ihren Bericht vor. Konkreter wird ein anderer Report.

Die KI immer dabei: eine Übersetzungs-App soll verständlich machen, was im Joghurt ist Foto: Nikki Kahn/The Washington Post/getty images

Berlin taz | Was die Enquetekommission „Künstliche Intelligenz“ gut zwei Jahre nach ihrem Start vorgelegt hat, ist ein Rundumschlag. Die Gruppe, die jeweils zur Hälfte aus Bundestagsmitgliedern und aus externen Expert:innen zusammengesetzt war, beleuchtet das Thema künstliche Intelligenz (KI) unter anderem im Kontext von Gesundheit, Datenschutz, Diskrimierung und Nachhaltigkeit. „KI ist die nächste Stufe einer durch technologischen Fortschritt getriebenen Digitalisierung“, so beschreiben die Autor:innen in dem Abschlussbericht die Bedeutung der eigenen Arbeit, die sie am Mittwoch an Bundestagspräsident Wolfgang Schäuble (CDU) übergaben.

Der Bericht liest sich vor allem wie eine Bestandsaufnahme dessen, was im Bereich KI möglich ist. Doch wenn es um konkrete Konsequenzen etwa in Sachen Regulierung geht, bleibt das Papier meist vage im Wünschenswerten. Beispiel Gesundheit: Die Autor:innen empfehlen, dass eine Datenfreigabe für die Forschung „abgestuft, freiwillig und widerrufbar“ sein sollte. Oder dass, „wo möglich, offene Standards“ genutzt werden sollen. Und das gehört schon zu den konkreteren Empfehlungen in dem Bereich.

Ursache dafür könnte sein, dass stets ein „breiter Konsens“ gesucht wurde, wie es einige Projektgruppen des Berichts betonen. Ein weiteres Symptom, wie schwierig die Debatte war, sind die Sondervoten: Jede Bundestagsfraktion verfasste eines. Immerhin konnte man sich darauf einigen, dass eine „menschenzentrierte KI“ Leitbild sein soll.

Währenddessen hat der aktuelle Automating-Society-Report, den die Organisation AlgorithmWatch und die Bertelsmann Stiftung ebenfalls am Mittwoch vorstellten, eine Bestandsaufnahme gemacht. Das Ergebnis: Der Einsatz von KI-Systemen und solchen, die automatisiert Entscheidungen treffen, hat in Deutschland und Europa in den vergangenen zwei Jahren stark zugenommen.

Europaweite Regeln fehlen

Für Deutschland führt der Report unter anderem das Beispiel Predictive Policing an. Eine Software sagt dabei auf Basis von Verbrechen in der Vergangenheit voraus, wo demnächst eines verübt werden könnte. Die Polizei reagiert beispielsweise, indem sie an dem Ort aus der Vorhersage stärker kontrolliert. Derartige Software wird unter anderem in Bayern und Baden-Württemberg eingesetzt.

Sarah Fischer, Expertin für algorithmische Entscheidungsfindung bei der Bertelsmann Stiftung, kritisiert, dass ein einheitlicher Rechtsrahmen in Europa fehle. So mangele es unter anderem an Regeln zu Transparenz und Aufsicht solcher Systeme. „Wir sehen viele gute Absichten, die dann oft schlecht umgesetzt werden“, sagt sie. Doch die EU ist derzeit noch in der Findungsphase. Im Februar hatte sie ein „Weißbuch zur künstlichen Intelligenz“ veröffentlicht – jedoch ohne konkrete Vorschläge für einen Regelungsrahmen.

Die Autor:innen des Reports fordern unter anderem öffentlich einsehbare Register für Systeme, die automatische Entscheidungen treffen. Darin müssten unter anderem das Ziel und das verwendete Modell erklärt und Trainingsdaten öffentlich gemacht werden. Vorteil einer derartigen Regelung wäre nicht nur ein deutlich größeres Maß an Transparenz bei automatisierter Entscheidungsfindung. Es würde auch dazu beitragen, dass die Mechanismen dieser Systeme für eine breitere Öffentlichkeit verstehbar und damit diskutierbar gemacht würden.

40.000 mal Danke!

40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!