Datenschützer über Gesichtserkennung: „Einstieg in die absolute Kontrolle“

Hamburgs Polizei soll ihre Gesichtserkennungs-Datenbank löschen. Das hat der Datenschutzbeauftragte Johannes Caspar am Dienstag angeordnet.

Gegen was hat Lisa demonstriert? Gesichtserkennung-Software ermöglicht Überwachung Foto: Imago

taz: Herr Caspar, Sie sprechen beim Einsatz von Gesichtserkennungssoftware durch die Hamburger Polizei von einer „neuen Dimension der Kontrolle“. Fürchten Sie einen Überwachungsstaat?

Johannes Caspar: Ja, in der Tat. Sowohl die Gesichtserkennung in Echtzeit, wie sie am Bahnhof Südkreuz in Berlin getestet wurde, als auch die retroaktive Gesichtserkennung zur Aufklärung begangener Straftaten, wie sie in Hamburg im Echtbetrieb stattfindet, schaffen Möglichkeiten der Verknüpfung von Information und einer umfassenden Kontrollmöglichkeit des Individuums. Das Beispiel in Hamburg zeigt, dass es möglich ist, Profile über Standort, Verhalten und soziale Kontakte von Personen über einen örtlich und zeitlich nicht näher festgelegten Zusammenhang zu erstellen, zu verknüpfen und auszuwerten.

Das Pilotprojekt am Südkreuz wurde vom Bundesinnenministerium als Erfolg gewertet und soll wohl ausgeweitet werden. Ist eine solche Echtzeit-Gesichtserkennung aus Sicht eines Datenschützers denn nicht deutlich schlimmer als eine Video-Auswertung im Nachhinein wie in Hamburg?

Nein, das kann man so nicht sagen. Denn wenn die Daten von Unbeteiligten im Nichttrefferfall sofort gelöscht werden, ist die Echtzeiterkennung für Personen, die nicht zur Fahndung ausgeschrieben wurden, weniger intensiv als für jemanden, der Monate oder Jahre in einer Datei gespeichert ist, die immer wieder erneut abgeglichen werden kann, und zwar auch zu ganz unterschiedlichen Delikten. Das Problem der „False Positives“, also Verwechslungen von Personen, stellt sich sowohl bei der Echtzeit-Detektion als auch bei der retroaktiven Gesichtserkennung. Prinzipiell vermittelt die staatliche Herrschaft über Bilder die Kontrolle über Menschen.

Sie haben ein ganz neues Schwert der Gesetzgebung bemüht und am Dienstagmorgen gegenüber dem Hamburger Innensenator die Löschung der kompletten biometrischen Referenzdatenbank angeordnet. Muss die Polizei jetzt auf der Stelle aufhören, solche Daten zu verarbeiten?

In diesem Zusammenhang ist dies die erste rechtsverbindliche Anordnung auf dieser Grundlage gegen eine Polizeibehörde in Deutschland. Ich bin froh über dieses Instrument, da man sieht, dass eine bloße Beanstandung allein nicht ausreicht. Sie führt weder zum Umdenken, noch kann sie Rechtssicherheit schaffen. Die Innenbehörde hat nun einen Monat Zeit und kann prüfen, Klage zu erheben oder der Anordnung Folge zu leisten.

Jg. 1962, ist habilitierter Jurist und seit 2009 Hamburgischer Beauftragter für Datenschutz und Informationsfreiheit. 2015 wurde er zu einer zweiten, sechsjährigen Amtszeit wiedergewählt. Bekannt wurde Caspar unter anderem durch seine datenschutzrechtliche Opposition gegen Google und Facebook.

Die Polizei hat es mit einer Flut von Bildern zu tun. Viele Menschen können nachvollziehen, dass diese nicht einzeln ausgewertet werden können und wünschen sich auch eine erfolgreiche Strafverfolgung. Ist das nicht ein guter Grund, die Technik einzusetzen?

Die Polizeiarbeit ist bisher auch ohne automatisierte Gesichtserkennung ausgekommen. Der Staat war auch bisher nicht wehrlos. In der derzeitigen Diskussion hat es häufig den Anschein, als wäre früher keine effektive Polizeiarbeit möglich gewesen, ohne über alle erdenklichen technischen Neuerungen zu verfügen. Jetzt gibt es eine neue Technologie, die im Prinzip die Möglichkeiten von Fahndungen revolutioniert und nun auch eingesetzt wird. Wir stehen am Anfang einer neuen Ära. Die Frage ist aber: Darf man im Rechtsstaat alles machen, was technisch möglich ist und zur Zweckverfolgung geeignet erscheint? Die neuen Techniken sind eine Herausforderung für das Grundrecht der informationellen Selbstbestimmung und die Privatsphäre. Hier brauchen wir eine grundsätzliche Entscheidung des Gesetzgebers, die auch die Rechte von Betroffenen klar formuliert. Das kann nicht dem Ermessen der Strafverfolgungsbehörden überlassen bleiben. Es ist allein Sache des Gesetzgebers, darüber zu entscheiden, in welcher Weise eine biometrische Vermessung Betroffener durch Strafverfolgungs- und Ordnungsbehörden zulässig sein soll. Dabei sind die Grundrechte und der Verhältnismäßigkeitsgrundsatz zu achten.

Von wie vielen Menschen in Hamburg wurden denn nun überhaupt die Gesichter gescannt, vermessen und gespeichert?

Anlässlich der Fahndungen nach dem G20-Gipfel hat die Hamburger Polizei eine automatische Gesichtserkennung eingesetzt.

Die Hamburger Polizei will diese Software namens „Videmo 360“ fortan dauerhaft nutzen und deutlich ausbauen. Angewendet wurde sie bislang in einer Datenbank aus zuletzt 32.000 Videos und Bildern.

Die Software berechnet für einzelne Gesichter auf den Videos anhand bestimmter Merkmale individuelle Gesichts-IDs für einzelne Personen. Mit diesen digitalen „Gesichtsabdrücken“ ist ein Abgleich mit Aufnahmen von verschiedenen Orten möglich.

Der Hamburger Datenschutzbeauftragte Johannes Caspar hat diesen Einsatz der automatischen Gesichtserkennung von Anfang an als rechtswidrig kritisiert und beanstandet.

Die biometrische Erfassung betreffe laut Caspar massenhaft Personen, die nicht tatverdächtig sind. Sie ermögliche der Polizei ein umfassendes Profil. Betroffene könnten verwechselt werden. Es fehle eine Kontrolle der Überwachung.

Caspar ordnete am Dienstag die Löschung der Referenzdatenbank gegenüber dem Innensenator an. Eine solche Anordnung ist erst auf Grundlage der neuen EU-Datenschutz-Grundverordnung möglich. Sie wurde nun in Hamburg vermutlich das erste Mal gegen eine Polizeibehörde angewendet.

Hamburgs Innensenator, die Polizei und Staatsanwaltschaft hatten die Rechtsgrundlage für den Einsatz durch die Strafprozessordnung gegeben. Das Auswerten der Videos sei eine Ermittlungshandlung und die Software nur ein Hilfsmittel.

Grote erklärte, die Beanstandungen Caspars beruhten „maßgeblich auf der Betrachtung rein hypothetischer Einsatzmöglichkeiten“ der Gesichtsanalysesoftware.

Als wir zuletzt im August nachgefragt haben, sprach die Polizei von 32.000 Video- und Bilddateien. Man hat keine Auskunft geben können, wie viele Gesichtstemplates erstellt wurden, das ließ sich aus dem System nicht auslesen. Man kann davon ausgehen, dass eine Videosequenz jeweils eine Vielzahl von Menschen zeigt, man denke etwa an Nutzer der S-Bahn, Teilnehmer an Versammlungen und Passanten vor Ort. Solange wir keine konkreten Angaben haben, gehen wir mindestens von einer sechsstelligen Zahl aus.

Bei der Bilddatenbank dreht es sich aber immer noch um den G20-Gipfel?

Die zeitliche Zuordnung lässt sich über die Tage des G20-Gipfels konkretisieren und ist daher von ziemlich langer Dauer. Bei der örtlichen Zuordnung gibt es eine breite Streuung, da Material aus vielen unterschiedlichen Quellen zusammengetragen wurde. Hier ist zum Teil überhaupt fraglich, wie nachträglich ein zeitlicher Zusammenhang hergestellt werden kann. Die Polizei verfügt insgesamt über Daten von mehr als 100 Terabyte, die nach ihren Angaben nur aufgrund technischer Beschränkungen nicht komplett eingespielt wurden.

Sie haben erklärt, der Polizei sei es mit der Software möglich, Profile auch über soziale Kontakte und sogar das Verhalten von Menschen zu erstellen. Wie kann ich mir das vorstellen?

Über eine Gesichts-ID wird es möglich, die Bewegungen, das Verhalten und die sozialen Kontakte einer Person über mehrere Tage im überwachten Bereich in Hamburg zu verfolgen. So lässt sich rekonstruieren, an welchen Veranstaltungen jemand teilgenommen hat, welche Läden und Restaurants er besucht hat. Grundsätzlich kann im Nachhinein ein lückenloses Bewegungsprofil über einen längeren Zeitraum erzeugt werden.

Was ist daran so gefährlich?

Aufgrund fehlender gesetzlicher Vorgaben lassen sich Grenzen der Überwachung nicht trennscharf ziehen. Kontrollen durch unabhängige Stellen laufen ohne Melde- und Informationspflichten ins Leere, da für derartige Datenbanken keine besonderen gesetzlichen Vorgaben existieren. Ein Richtervorbehalt zur Anordnung und Begrenzung solcher Maßnahmen besteht nicht. Das alles steht allein im Ermessen der Strafverfolgungsbehörden. Vertrauen ist im Rechtsstaat keine tragfähige Kategorie. Wenn dies zur Standardmaßnahme würde, wäre das der Einstieg in die absolute Kontrolle der öffentlichen Bereiche.

Hamburgs Innensenator Andy Grote hält Ihnen entgegen, er hat die Kompetenz, die Daten aufzunehmen.

Das bedeutet nicht, sie auch biometrisch auszuwerten. Das ist ein anderer Schritt. Aus der Ermächtigung zur Videoüberwachung folgt nicht die Zulässigkeit der biometrischen Verarbeitung. Das Bundesverfassungsgericht hat im Übrigen für die Videoüberwachung bereits eine bestimmte Rechtsgrundlage gefordert. Das muss daher erst recht für die biometrische Verarbeitung personenbezogener Daten gelten.

Aus der Innenbehörde heißt es auch, der Einsatz erfolge nur bei „einer einzelfallbezogenen staatsanwaltschaftlichen Verfügung“, insofern richte sich die Maßnahme nur gegen Beschuldigte.

Wir haben nichts dagegen, dass die Bilder existieren und sagen auch nicht, dass alle Bilder gelöscht werden müssen. Sondern es geht um die Templates der Gesichter, die allesamt von der biometrischen Software errechnet werden. Die Staatsanwaltschaft kommt erst in einem nächsten Schritt ins Spiel, wenn Verdächtige gesucht werden sollen. Ein Abgleich anhand einer rechtswidrigen Datenbank ist jedoch nicht zulässig.

Die Innenbehörde beruft sich wie Sie auf das Bundesdatenschutzgesetz, auf Paragraf 48, und sagt: Die Verarbeitung besonderer Kategorien personenbezogener Daten sei zulässig, wenn sie zur Aufgabenerfüllung unbedingt erforderlich ist.

Das ist eine zu allgemeine Norm, die keine derartigen intensiven Grundrechtseingriffe ermöglicht, insbesondere nicht bei Unbeteiligten. Das haben wir über mehrere Seiten unserer Anordnung ausgeführt.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.