Neues niedersächsisches Polizeigesetz: Überwachung first, Bedenken second
Niedersachsen treibt die technische Aufrüstung der Polizei voran. Das neue Polizeigesetz soll unter anderem den Einsatz von KI und Video regeln.
Das niedersächsische Polizeigesetz (NPOG) wird überarbeitet, und zwar schon seit einer ganzen Weile. Jetzt hat es eine weitere Etappe im Gesetzgebungsprozess passiert: die Expertenanhörung im Innenausschuss.
Im Gegensatz zu der breiten öffentlichen Debatte bei der Novellierung des NPOG im Jahr 2018/2019 unter der damaligen SPD-CDU-Regierung, als es massive Proteste gab, fehlt es dieses Mal aber an einer Opposition, die genau hinguckt.
Damals kritisierten FDP und Grüne aus der Opposition heraus das Polizeigesetz heftig, dieses Mal sind die Grünen Teil der Regierung. Die aktuelle Opposition aus CDU und AfD kritisiert vor allem, dass das alles zu langsam geht – und wollen zum Teil noch über den Regierungsentwurf hinausgehen.
Eine offene Tür für Palantir und Co.
Es bleibt also dem Landesdatenschutzbeauftragten Denis Lehmkemper überlassen, mahnend die Stimme zu erheben. Er kritisiert, dass der Entwurf an einigen Stellen übers Ziel hinausschieße und möglicherweise auch nicht mit dem EU-Recht vereinbar sein könnte, insbesondere mit der KI-Verordnung und der JI-Richtlinie, die die Verarbeitung personenbezogener Daten regelt.
Das betrifft zum Beispiel den Einsatz von KI-Systemen bei der automatisierten Datenanalyse. Hierbei sollen – das ist die große Hoffnung der Sicherheitsbehörden – personenbezogene Daten aus verschiedenen behördlichen Datenbanksystemen zusammengeführt und analysiert werden können. Einziger Anbieter bisher: Palantir Technologies aus den USA, die Firma des hochumstrittenen, rechtslibertären Unternehmers Peter Thiel.
Denis Lehmkemper, Landesdatenschutzbeauftragter
„Die Landesregierung sagt zwar, sie wolle Palantir nicht einsetzen, schafft aber gleichzeitig die gesetzliche Grundlage dafür“, sagt Lehmkemper. Es sei ja sehr schön, dass man auf eine europäische Alternative setze, aber die gebe es am Markt ja nun einmal noch gar nicht.
Für die polizeiliche Datenverarbeitung werde hier ein Paradigmenwechsel angestrebt: Weg von der vorgangsbezogenen Datenverarbeitung, hin zu einer personen- und objektbezogenen Datenauswertung. Das bedeutet: Jeder, der mit Polizeibehörden in irgendeiner Funktion in Kontakt tritt – als Opfer, Anzeigeerstatter oder Zeuge –, muss befürchten, dass seine Daten dann in ganz anderen Kontexten weiterverwendet werden.
Das halten neben Lehmkemper auch einige Juristen für problematisch. Wann solche Analysen zulässig wären, wie lange die Ergebnisse gespeichert werden und welche Personenkreise dabei einbezogen werden dürfen, müsste präziser definiert werden, finden sie.
Ähnliches gilt für die „intelligente“ Videoüberwachung. Hier soll eine KI anhand von Bewegungsmustern erkennen, wo es zu Vorfällen kommt, die möglicherweise strafrechtlich relevant sind. Die Technik wird derzeit in mehreren Städten, meist an Kriminalitäts-Hotspots, ausprobiert und trainiert, etwa am Hamburger Hansaplatz oder in Bremens Straßenbahnen.
Im Ausschuss wurde mehrmals die Sicherung von jüdischen Einrichtungen als Beispiel genannt. Allerdings ist umstritten, ob denen damit tatsächlich geholfen wäre, wenn der Polizeiwagen nicht mehr vor der Tür steht, sondern erst angefahren kommen muss, wenn das Videosystem Alarm schlägt.
Kritiker befürchten außerdem eine massive Ausweitung der Videoüberwachung. Denn bisher ist ein begrenzender Faktor, dass man eben immer auch Personal braucht, das auf die Monitore schaut. Das ist auch im vorliegenden Entwurf weiterhin so. Aber wenn man sich darauf verlassen kann, dass die KI Alarm schlägt, lässt sich die Zahl der Monitore, für die ein einzelner Beamter zuständig ist, erhöhen.
Das Klette-Trauma
Bauchschmerzen bekommen Datenschützer und Bürgerrechtler auch bei dem, was hier „nachträglicher biometrischer Abgleich mit öffentlich zugänglichen Daten“ heißt. Das bezieht sich natürlich auf den Fall Klette, die von einem Podcaster und seinem Rechercheteam mithilfe von Gesichtserkennungssoftware ausfindig gemacht wurde. Einer Software, die das LKA, das über 30 Jahre nach ihr fahndete, nicht benutzen durfte.
Aber ist es zulässig, wenn die Polizei künftig auf Tools oder Daten zurückgreift, die illegal sind? In der Regel unterscheiden diese Werkzeuge ja nicht, ob es hier um Fotos geht, die man selbst in sozialen Netzwerken preisgegeben hat, oder um Bilder, die von Dritten – gegen den Willen der Betroffenen – hochgeladen oder sogar generiert wurden, also Deepfakes.
Es gibt Dutzende weitere solcher Problemfälle. Und sie potenzieren sich, wenn man dann auch noch versucht, diese Werkzeuge miteinander zu verknüpfen: Drohnenaufnahmen mit Mustererkennung und Echtzeit-Identifikation zum Beispiel.
Zwar pochen die Regierungsparteien darauf, dass alle Maßnahmen nur bei erheblichen Gefahren und meist auch nur auf Anordnung eines Richters benutzt werden dürfen. Aber wer schon 2018/19 einen Dammbruch befürchtete, der könnte sich 2026 bestätigt fühlen.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert