piwik no script img

Deutschland muss KI-Regeln umsetzenStreitpunkt Überwachung

Deutschland muss bald die neuen EU-Regeln zu künstlicher Intelligenz umsetzen. Fachleute fordern Verschärfungen – etwa bei der Gesichtserkennung.

Videoüberwachung im öffentlichen Raum ist keine Seltenheit Foto: Michael Gstettenbauer/imago

Berlin taz | Ex­per­t:in­nen für Menschenrechte und Verbraucherschutz fordern, bei der Umsetzung der europäischen Regeln für künstliche Intelligenz (KI) Spielräume zu nutzen. „KI betrifft schon jetzt alle Lebensbereiche“, sagte Kilian Vieth-Ditlmann von der Menschenrechts-NGO Algorithmwatch bei einer Expert:innen-Anhörung im Digitalausschuss des Bundestages am Mittwoch.

Lina Ehrig vom Verbraucherzentrale Bundesverband (vzbv) betonte, der sogenannte AI Act solle dafür Sorgen, dass Menschen Vertrauen in KI gewännen. „Das wird in der Praxis aber nur gelingen, wenn die Interessen und Bedürfnisse der Verbraucherinnen und Verbraucher berücksichtigt werden“, so Ehrig.

Der AI Act, das europäische Regelwerk für KI, wird voraussichtlich in der kommenden Woche endgültig abgesegnet werden. Wirksam werden die Regeln jedoch erst nach einer Übergangszeit, je nach Vorschrift sind das zwischen 6 Monaten und 3 Jahren. Parallel dazu haben die Gesetzgeber der EU-Mitgliedstaaten innerhalb gewisser Rahmen die Möglichkeit, die EU-Regeln zu modifizieren. Dafür gibt es in einigen Bereichen Öffnungsklauseln.

Einer der großen Streitpunkte wird hier absehbar die Überwachungsfrage werden. Schon bei den Verhandlungen zwischen EU-Parlament, Kommission und Mitgliedstaaten war sie stark umstritten. Am Ende stand eine Öffnungsklausel: Die EU-Länder dürfen die biometrische Videoüberwachung strikter regeln, als es die EU vorsieht.

„Wildwuchs“ bei der Videoüberwachung

Die Fachleute Ehrig und Vieth-Ditlmann fordern nun genau das. Schon heute seien Menschen im öffentlichen Raum einem „Wildwuchs“ bei der Videoüberwachung weitgehend schutzlos ausgesetzt, kritisierte Ehrig.

„Wir werden alle zu wandelnden QR-Codes auf zwei Beinen“, so Vieth-Ditlmann, wenn der deutsche Gesetzgeber nicht restriktiver agiere als die EU. Mit biometrischer Überwachung, zum Beispiel Gesichtserkennung, werde die Anonymität im öffentlichen Raum aufgehoben, das werde zu Abschreckungseffekten führen, etwa wenn es um die Frage einer Demonstrationsteilnahme gehe. Vieth-Ditlmann forderte daher, die biometrische Überwachung im öffentlichen Raum zu verbieten.

Ehrig forderte außerdem ein niedrigschwelliges Beschwerdeverfahren für Ver­brau­che­r:in­nen bei der zuständigen Marktaufsicht. Wo die liegen wird und ob dafür eine neue Behörde geschaffen wird, ist noch offen. Der Juraprofessor und Digitalrechtexperte David Roth-Isigkeit von der Universität Speyer sprach sich in dem Zusammenhang für eine nationale Behörde aus und nicht für mehrere Landesbehörden. Eine zentrale Stelle verfüge über eine deutlich höhere Schlagkraft.

40.000 mal Danke!

40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • "Vertrauen" kann es nie geben, sobald Gewinninteressen im Spiel sind oder gar an erster Stelle stehen, wie bei uns. Logisch, oder?

    LLMs (im Volksmund gerne "KI" genannt) sind entstanden weil es das nächste Billiardengeschäft ist, auf Basis von BigData. Und weil wir damit effektiver überwacht und kontrolliert werden können, denn kein Mensch kann all das gesammelte Datenmaterial sichten.

    So gesehen ist ein LLM ein weiterer Umverteilungsfaktor von unten nach oben. Wenn wir unser Leben immer weniger selbst kontrollieren wollen, dann nutzen wir jetzt alle brav "KI", wie es sich für Verbraucher gehört.