piwik no script img

Polizei in HamburgWenn die KI eine Umarmung als Schlägerei deutet

Die Polizei Hamburg will Videoüberwachung mit Künstlicher Intelligenz aufrüsten. Die Technik ist umstritten – nicht nur aus Datenschutzgründen.

Überall Kameras am Hansaplatz: In Hamburg bald mit künstlicher Intelligenz Foto: Christian Charisius/dpa

Hamburg taz | Warum geht die Person schräg über den Platz? Hält sie da ihr Handy oder ist das eine Waffe? Was hat sie vor und könnte es eine Straftat sein?

Um solche Fragen zu klären, will die Hamburger Polizei sich bald von Künstlicher Intelligenz helfen lassen. Ab dem 1. September soll ihre Videoüberwachung auf zwei Plätzen in der Nähe des Hauptbahnhofs mit dem vom Fraunhofer-Institut entwickelten System „IVBeo“ aufgerüstet werden, das potenziell gefährliche Situationen erkennen soll.

Es wäre der erste längerfristige Einsatz von KI-Überwachungssoftware durch die Polizei im öffentlichen Raum in Hamburg. Anfang des Jahres wurde dafür extra das Landespolizeigesetz geändert. Die Technik ist allerdings umstritten, und wann sie eingesetzt werden kann, noch offen.

Vorher müssten wichtige datenschutzrechtliche Fragen geklärt werden, findet Hamburgs Datenschutzbeauftragter Thomas Fuchs. Dabei geht es vor allem darum, dass die Polizei Videoaufnahmen aus Hamburg nicht wie vorgeschrieben löschen, sondern ans Fraunhofer-Institut in Baden-Württemberg schicken will, um die KI zu trainieren.

KI rechnet Menschen in Strichmännchen um

„An wen gehen die Daten genau, wie stellt die Polizei sicher, dass nur Personen Zugang zu den Daten haben, die das dürfen, wie lange bleiben die Aufnahmen gespeichert, wann werden sie gelöscht?“ Auf Antworten der Polizei und der Innenbehörde zu diesen Fragen warte er seit geraumer Zeit vergeblich, sagte Fuchs der taz.

Grundsätzlich sei er mit der KI aber d’accord. Die Software wandelt Videoaufnahmen von Menschen in Strichmännchen um. Sie erfasst laut dem Fraunhofer-Institut keine individuellen Merkmale wie die Haarfarbe oder das Gesicht. Sie ist darauf programmiert, auffällige Bewegungen zu erkennen wie Schläge, Tritte oder Stürze. Dann springt der Bildschirm auf der Polizeiwache an und informiert die Beamt*innen, die davor sitzen, durch ein Signal.

Das findet Thomas Fuchs aus datenschutzrechtlicher Perspektive gar nicht so schlecht, weil die Polizei die Ham­bur­ge­r*in­nen dadurch weniger lange Zeit beobachte. Den zentral gelegenen Hansaplatz und angrenzende Straßen überwacht die Polizei seit 2019 mit 16 Kameras zu bestimmten Zeiten, den Hachmannplatz am Hauptbahnhof seit Sommer 2024 mit 27 Kameras. Beide Maßnahmen begründet sie mit der „hohen Kriminalitätsbelastung“.

Die Überwachung mit KI aufzurüsten, wird in Hamburg schon lange diskutiert. Am Hansaplatz wurde die Software von Juli bis Oktober 2023 schon einmal getestet, allerdings ohne mit den Aufnahmen die KI zu trainieren – erfolgreich, fand die Hamburger Polizei, die das Projekt selbst evaluiert hat. So sah es auch Hamburgs Innensenator Andy Grote (SPD): „Die bisherigen Erfahrungen zeigen, dass wir dank der Software sehr frühzeitig auf Gefahrensituationen aufmerksam werden und unmittelbar intervenieren können.“

System verwechselt Umarmung mit Schlägerei

Tatsächlich kam es in der Testphase nur zu einem einzigen Strafverfahren – und zu mehreren Fehlalarmen. Die KI schlug mehrmals an, obwohl es keine Gefahrensituation gab.

Matthias Marx, Sprecher des Chaos Computer Clubs (CCC) hält die KI für nicht funktionsfähig. „Das System kann nicht leisten, was es verspricht“, sagt er. „Es kann Umarmungen nicht sauber von einer Schlägerei unterscheiden.“ Marx kritisiert, dass die Polizei Hamburg das System vom Fraunhofer-Institut gekauft hat, obwohl sich schon während einer ersten Testphase in Mannheim Probleme abgezeichnet hätten.

Viel wichtiger als die Frage, ob das System gut oder schlecht funktioniert, sei aber die Frage, wozu es überhaupt eingesetzt werden soll. „Grundsätzlich ist Überwachung nicht das geeignete Mittel, um soziale Probleme zu lösen“, sagt Marx.

Soziale Probleme rund um den Hamburger Hauptbahnhof sollen seit Jahren vor allem verdrängt werden. Mit der „Allianz sicherer Hauptbahnhof“ setzt der Senat auf Videoüberwachung, Waffenverbotszonen und Alkoholverbote, die Kontrollen und Platzverweise ermöglichen. Am Hansaplatz, zwei Gehminuten vom Bahnhof entfernt, wird diese Verdrängungspolitik besonders sichtbar.

Hamburg setzt auf Verdrängung

Der Platz mit dem großen Brunnen in der Mitte wird gleichermaßen von gutbürgerlichen Anwohner*innen, zahlenden Cafégästen und obdachlosen und offen Drogen konsumierenden Menschen genutzt.

Letztere vertreiben Kontrollen und Überwachung zunehmend in Nebenstraßen oder auf einen nahegelegenen Spielplatz – ohne ihre Probleme zu lösen, wie das Bündnis Hansaplatz kritisiert, das sich in Reaktion auf die KI-Testphase 2023 gegründet hat.

Künstliche Intelligenz, die Gefahrensituationen anhand von „ungewöhnlichem“ Verhalten erkennen soll, werde die Situation verschärfen, glaubt Marx vom CCC. Sie führe dazu, dass Menschen ihr Verhalten anpassten, Kriminalität sich verlagere und der öffentliche Raum nicht mehr von allen gleichermaßen genutzt werden könne.

Wie die Technik von den Nut­ze­r*in­nen des Hansaplatzes wahrgenommen wird, untersucht derzeit die Uni Hamburg. Ob das System wirklich am 1. September eingesetzt wird, werde sich in den nächsten Wochen zeigen, sagte die Polizei auf Anfrage.

Hamburg lehnt Einführung von Palantir ab

Fest steht: Hamburg liegt im Trend. Bundesweit setzen immer mehr Länder auf KI, um Be­am­t*in­nen bei der Videoüberwachung zu unterstützen – Berlin setzt sie schon länger ein, Hessen und Rheinland-Pfalz testen und Niedersachsen würde auch gern, sagte Innenministerin Behrends (SPD) vor Kurzem.

Den Einsatz der umstrittenen Analysesoftware des US-Unternehmens Palantir vom rechten Techmilliardär Peter Thiel hat Hamburg kürzlich abgelehnt. Anders sieht es mit der KI-gestützten Videoüberwachung aus. SPD und Grüne haben sich schon dafür ausgesprochen, die Ausweitung auf mehr Kameras an mehr Orten in der Stadt zu prüfen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • „Grundsätzlich ist Überwachung nicht das geeignete Mittel, um soziale Probleme zu lösen“

    Ja, und? Sie kann aber einen Beitrag dazu leisten, dass die Folgeprobleme sozialer und auch individueller Probleme reduziert werden. Es mag ja sein, dass das Grundproblem bei Schlägereien auf der Straße z.B. der Alkoholkonsum als solcher ist. Aber warum sollte man deswegen darauf verzichten, Schlägereien unterbinden zu versuchen?

    Warum muss in Deutschland immer jedes konkrete Problem wegabstrahiert werden?

    Nach dem Motto "Solange Menschen immer noch übvrmäßig Alkohol konsumieren, müssen wir gar nicht erst damit anfangen, uns um Körperverletzung und Totschlag zu kümmern?"

  • Jeder der schon einmal mit KI gearbeitet hat, kennt das Thema. Es gibt immer Fehlinterpretationen, und es ist die Frage ob man sie ins Falsch-Positive oder falsch-Negative verschiebt.



    Die KI muss unterscheiden, und es gibt einfach Situationen die nur aus dem Kontext erschließt sind. Ringen und umarmen sieht ja wirklich recht nah beieinander aus wenn Mansur richtigen Momente abpasst.

    Das entscheidende ist doch: Die KI entdeckt potenzielle Situationen. Und diese müssen durch einen Menschen reviewt werden. Der Aufwand reduziert sich damit.



    In der Industrie ist es nicht anders: auch hier wird der Ausschuss ( zumindest bei wertigen Teilen) noch einmal durch einen Mitarbeiter angesehen und final begutachtet, um genau diese falsch-negativen Teile zu finden.

    Generelle Diskussionen der Überwachung per KI, okay.

    Aber ich verstehe diesen Punkt an der Kritik nicht. Diese Systeme müssen dazu gefüttert werden und werden immer besser. Die Frage ist auch, gibt es eine bessere Alternative , außer Palantir? Wo auch das Thema des Zugriffes etc klar ist? Oder ist das das beste was aus dererlei Gründen vertretbar ist?

    • @Lio:

      Abgesehen davon, ist es ja immer noch besser, dass eine Umarmung als Schlägerei interpretiert wird, als umgekehrt.

      Es ist ja auch nicht so, als flöge dann automatisch eine Drohne los, die den vermeintlichen Angreifer erschießt.