piwik no script img

Gesichtserkennung auf VideosHamburger Polizei hat Datenhunger

Die Polizei will dauerhaft eine Software nutzen, die sie für die Strafverfolgung nach G20 installiert hat. Kritik kommt vom Datenschutzbeauftragten.

Könnte gegen Gesichtserkennung helfen: Kopf in die Tüte stecken Foto: Bildgehege/imago

HAMBURG taz | Die Hamburger Polizei will die Software, die sie im Nachgang des G20-Gipfels nutzt, um mutmaßliche StraftäterInnen zu identifizieren, jetzt dauerhaft einsetzen. Das bestätigte ein Polizeisprecher der taz. Der hamburgische Datenschutzbeauftragte Johannes Caspar hält die Technologie für verfassungsrechtlich bedenklich und prüft, dagegen vorzugehen.

Mit einer solchen Software kann die Polizei aus Übersichtsaufnahmen und Videos anhand biometrischer Merkmale Gesichter erkennen, herausfiltern und speichern. Wie die Gesichtserkennung allerdings genau eingesetzt wird – ob sie lediglich zum Auffinden von Personen im Bildmaterial dient oder auch ein Abgleich mit vorhandenen Fotos aus Polizeiakten erfolgt, ist unklar. Auch der Name der Software ist unbekannt.

Im Juli war dem Chef der Sonderkommission „Schwarzer Block“, Jan Hieber, im G20-Sonderausschusses die Nachricht herausgeplatzt, nunmehr einen „völlig neuen Standard in der Beweisführung“ zu besitzen. Demnach steht der Polizei seit März das Gesichtserkennungsprogramm zur Fahndung nach G20-Gewalttätern zur Verfügung. Damit können auffällige Merkmale markiert und in der Masse von Videodaten gesucht werden, die inzwischen einen Umfang von über 100 Terabyte hat.

Das Vorbild für die Software kommt aus den USA: Nach dem Anschlag beim Marathon 2013 in Boston setzte die Polizei dort das Gesichtserkennungsprogramm von Amazon ein. Nach den sexuellen Übergriffen in der Silvesternacht 2016 in Köln wurde das Programm zum Bundeskriminalamt nach Deutschland transferiert.

Mehr zum Thema

Im Podcast Lokalrunde sprechen Katharina Schipkowski (taz nord) und Erik Peter (taz Berlin) jeden Sonntag über das Stadtgeschehen.

In Folge 12 geht es um Überwachung durch Gesichtserkennung. Hörbar auf blogs.taz.de/lokalrunde; Spotify, Sound­cloud, iTunes. (taz)

Der Einsatz eines derartigen Instruments ermöglicht es zum einen, Standortdaten, Verhaltensprofile sowie auch soziale Kontakte Betroffener zusammenzufügen und unbekannte Täter, von denen lediglich Gesichtsaufnahmen vorliegen, in der Datenmasse zu finden.

Zum anderen ist auch eine Inverssuche nach Personen über deren biometrische Bilder möglich, die einem bestimmten Spek­trum zugeordnet werden und etwa in Gefährderdateien oder Melderegistern namentlich erfasst sind. Es lässt sich so ermitteln, ob diese Personen etwa an einer Demonstration teilgenommen und bei bestimmten Ausschreitungen Straftaten begangen haben.

„Für die Annahme, dass Gefährder tatsächlich durchgeprüft werden, liegen uns allerdings derzeit keine Anhaltspunkte vor“, sagt Caspar. „Es besteht jedoch ein hohes abstraktes Gefährdungspotenzial mit Blick auf das informationelle Selbstbestimmungsrecht“, so der Datenschutzbeauftragte.

Was ihm außerdem Sorge bereitet: Die automatisierte Gesichtserkennung setz eine möglichst große Menge personenbezogener Daten voraus. „Wenn das Verfahren dazu führt, dass von allen auf dem Bildmaterial abgebildeten Personen individuelle Gesichts-IDs erstellt werden, über die eine biometrische Analyse läuft, werden massenhaft Daten Unbeteiligter über längere Zeiträume in Datenbanken gespeichert.“ Es sei davon auszugehen, dass die Betroffenen darüber nicht informiert werden, und sich folglich auch nicht juristisch wehren können, moniert Caspar.

Auch die innenpolitische Sprecherin der Grünen, Antje Möller, äußert Skepsis. Im Rahmen der Strafverfolgung beim G20-Protest sei die temporäre Anwendung von Gesichtserkennungsprogrammen vielleicht noch „sinnvoll und vertretbar“ gewesen, so Möller. „Die generelle Anwendung wirft hingegen viele Grundrechtsfragen auf.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • Ich denke da nicht an Utopie, sondern an die Vergangenheit, die sich bekanntlich gerne wiederholt:

    de.wikipedia.org/w...erk-_und_Zuchthaus

    • @DeadboZ:

      Auch schön.... eklig.

  • Hier hat man die Opposition im Griff. Von wegen Venezuela ...

  • Um die Steine Werfer des G20 zu identifizieren und ihrer gerechten Strafe zuzuführen wäre eine Gesichtserkennung sicherlich hilfreich.

    Auch könnten bei zukünftigen Ereignissen die Steine Werfer frühzeitig identifiziert werden, so sie denn einmal bekannt sind.

    Jedoch bringt dieses System nichts bei bisher unbekannten Steine Werfern. Somit besteht die Gefahr einer trügerischen Sicherheit.

    • @Svenja_Hamburg:

      Das ist alles woran Sie dabei denken? Steinewerfer*innen zu identifizieren? Hallooo, diese Gesichtserkennung ist ein weiterer Schritt hin zum Videogestützen Überwachungsstaat. Wundern Sie sich bloß nicht, wenn in 10 Jahren eine Drohne vor Ihrem Badezimmerfenster auftaucht und feststellt, dass Ihr BMI nicht passt und Sie sich nicht richtig reinigen. Dann kommt die Gesundheitspolizei und nimmt Sie wegen Verwahrlosung fest.

      Kommt Ihnen wie eine lächerliche Utopie vor? Klar, ist es auch, aber ich hoffe Sie verstehen was ich sagen will. Ich will jedenfalls, ob Steinewerfer oder nicht, nicht mein ganzes Leben überwacht werden...