Gesichtserkennung in England: Überall digitale Augen
Seit 2016 testet die Londoner Polizei automatische Gesichtserkennung. Gegen die staatliche Überwachung regt sich nun Widerstand.
Als ich in der Mittagspause aus meinem Büro ging, um mir schnell was zum Essen zu besorgen, fiel mir dieser Kleintransporter auf dem gegenüberliegenden Parkplatz auf.“ So schildert Ed Bridges, Mitarbeiter Öffentlichkeitsarbeit der Universität Cardiff, seine erste Begegnung mit dem Fahrzeug, auf dem „Automatische Gesichtserkennung“ stand. Bridges erinnert sich an seine Verwunderung, weiter darüber nachgedacht hat er damals, vor zwei Jahren in der walisischen Hauptstadt, aber nicht.
Ein Jahr später allerdings begegnete Bridges dem Fahrzeug erneut, bei einem friedlichen Protest gegen eine Waffenmesse. „Ich begann mir und der Polizei Fragen zu stellen, nämlich mit welchem Recht sie dieses System der Gesichtserkennung überhaupt einsetzen würden.“ Aus der Frage wurde eine Kampagne und schließlich ein Gerichtsverfahren. Bridges, der auch einmal für die Liberaldemokraten in Cardiffs Stadtrat gesessen hat, wird dabei von der Bürgerrechtsorganisation Liberty unterstützt, die Kosten des Verfahrens werden über ein Crowdfunding getragen. „Ich bin nun mal einer jener Menschen, die sich ganz klar gegen so etwas aussprechen, auch ohne dass ich anfangs sonderlich viel Detailwissen dazu hatte.“
Ende Mai kam es zu einer ersten gerichtlichen Anhörung in Cardiff, die den polizeilichen Einsatz automatischer Gesichtserkennung prüfen sollte und der Frage nachging, ob Bridges’ Bürgerrechte und die anderer Menschen verletzt wurden. Ein Ergebnis wird frühestens für Ende September 2019 erwartet. Ein ähnlich gelagertes Verfahren der Bürgerrechtsorganisation Big Brother Watch läuft zeitgleich in London. Seit 2016 wird die automatische Gesichtserkennung von fünf britischen Polizeibehörden getestet, darunter die Londoner Metropolitan Police und die South Wales Police.
Die Technik, Neoface Watch, kommt von der japanischen Firma NEC, kann 300 Gesichter pro Sekunde scannen und innerhalb von Millisekunden mit 23 Millionen Bildern in der angeschlossenen Datenbank abgleichen. Das britische Innenministerium fördert den Test der South Wales Police mit 2 Millionen Pfund (2,25 Millionen Euro).
Dauerhafte Echtzeitüberwachung
Bei einer weiteren Praxisstudie wurden im englischen Manchester innerhalb von sechs Monaten laut Big Brother Watch 15 Millionen Gesichter von Besucher*innen eines Einkaufszentrums gescannt. Unter ihnen befanden sich 53 gesuchte Personen, die eindeutig identifiziert worden seien. Ob diese Personen wegen begangener Straftaten gesucht wurden, ist allerdings unklar. Der Test wurde erst nach der Intervention eines Kontrollgremiums für Überwachungskameras, dem Surveillance Camera Commissioner, abgebrochen. Das Gremium ist zwar eine staatliche Stelle, die jedoch nur eine beratende Funktion, ohne rechtlich bindende Entscheidungskompetenz hat.
Die Kritik von Bürgerrechtsorganisationen, parlamentarischen Ausschüssen und Gremien an den Versuchen bezieht sich nicht zuletzt auf die Speicherung der Daten und die unfreiwilligen Scans der Gesichter von Normalbürger*innen in ihrem Alltagsleben. „Es handelt sich ganz klar um Menschenrechtsverletzungen, wenn diese Art von Überwachung bei friedlichen Protesten eingesetzt wird, wenn Menschen mit mentalen Störungen identifiziert, wenn Fußballspiele oder der zweitägige Londoner Notting-Hill-Karneval überwacht werden.
„Da gab es zum Beispiel 30 falsche Identifizierungen und eine einzige richtige“, weiß Griff Ferris von Big Brother Watch. Bei einer „richtigen“ Erkennung handelt es sich lediglich um eine eindeutige Identifizierung einer Person. Hinzu kommt eine hohe Fehlerquote, besonders bei Frauen und ethnischen Minderheiten – der Anteil an entsprechenden Vergleichsprofilen ist im System einfach zu niedrig.
Der Londoner Ausschuss für Polizeiethik hat in einem aktuellen Bericht nicht zufällig ein Gedankenexperiment aufgenommen zur Echtzeitüberwachung durch ein flächendeckendes Kamerasystem. Schon jetzt verfügt Großbritannien über eines der dichtesten Kameranetze in der westlichen Welt. Griff Ferris glaubt, dass das am Mangel an Erfahrungen mit totalitären Regimen liegen könnte. Angefangen mit der filmischen Überwachung hat es in Großbritannien bereits in den 1950er Jahren, zuerst zum Schutz bei Besuchen der königlichen Familie, bei Fußballspielen und auf Bahnhöfen.
Einschränkung demokratischer Freiheiten
Das Netz der Überwachungskameras wurde danach immer weiter ausgebaut, nicht zuletzt wegen des Nordirlandkonflikts. Schon Anfang der 1990er Jahre, während der letzten Welle des IRA-Terrorismus, waren allein in der Hauptstadt genug Überwachungskameras installiert, dass Menschen kaum einen Schritt in der Innenstadt tun konnten, ohne dabei gefilmt zu werden.
Kameraüberwachung in Deutschland
unterliegt vergleichsweise strengen
Regelungen. Im öffentlichen Raum ist
sie nur zum Erreichen konkret
festgelegter Interessen zulässig. Es
muss über die Maßnahme informiert
und sichergestellt werden, dass
„schutzwürdige Interessen“ der
Betroffenen gegenüber den
Absichten der Behörden nicht überwiegen.
Praxis
Gesichtserkennung in Echtzeit wurde
besonders prominent am Berliner
S-Bahnhof Südkreuz getestet. Neben
der einschlägigen bürgerrechtlichen
Kritik an dem Versuch wird selbst
über die Erfolgsparameter viel
gestritten.
Eine Schätzung aus dem Jahr 2011 ging von mehr als 1,8 Millionen Kameras in ganz Großbritannien aus. Die übergroße Mehrheit davon wird jedoch nicht von Behörden, sondern von Unternehmen und Privatpersonen betrieben. Durch die permanente Präsenz dieser Überwachung lässt sich über die Jahre ein gewisser Gewöhnungseffekt in der Bevölkerung vermuten. Die aktuellen Tests mit der Gesichtserkennung laufen bislang ohne gesetzliche Grundlage.
Ed Bridges glaubt, dass seine Klage wegen der Versuche in Cardiff von den Sicherheitsbehörden in gewisser Weise begrüßt würde, könnte eine Entscheidung dort doch mehr Rechtssicherheit in der Anwendung schaffen. In einem anderen Fall in London erhielt ein Mann einen Bußgeldbescheid über 90 Pfund (knapp 100 Euro), weil er sich dem Scanner durch die Vermummung seines Gesichts verweigerte und die Beamten beschimpfte, die ihn darauf angesprochen hatten. Laut Metropolitan Police sei das aber der einzige derartige Vorfall gewesen.
Für Griff Ferris und Big Brother Watch geht es bei diesen Vorkommnissen vor allem ums Prinzip. Selbst wenn das System automatischer Gesichtserkennung einmal weniger fehleranfällig sei, also tatsächlich praktisch hundertprozentig funktioniere und korrekte Treffer lande, ändere das seiner Meinung nach nichts an den von unterschiedlichsten Interessengruppen geäußerten Kritikpunkten.
Gefährdung der Privatsphäre
In San Francisco wurde die Technologie bereits von lokalen Behörden verboten, der britische Verband der Fußballfans spricht sich ebenfalls gegen sie aus. Selbst Google und Microsoft diskutieren das repressive Potenzial und die Einschränkung demokratischer Freiheiten durch Gesichtserkennung. Wäre das System aber eine Hilfe bei der Vorbeugung von Terroranschlägen? „Nein“, glaubt Ferris, denn würde ein Terrorist in einer Menschenmenge identifiziert, sei es aller Wahrscheinlichkeit nach schon viel zu spät.
Vorschläge für einen kontrollierten Einsatz gibt es derweil einige. Londons Ausschuss für Polizeiethik, ein Gremium aus größtenteils akademischen Experten, hat im Mai fünf Bedingungen für den Gebrauch der Technologie vorgeschlagen. Tatsächliche Notwendigkeit und Verhältnismäßigkeit des Einsatzes müssten geprüft werden; auch seien Mechanismen zur Vermeidung von Diskriminierungen nötig.
Der Surveillance Camera Commissioner, dass parlamentarische Kontrollgremium, spricht sogar von 16 Voraussetzungen, die vor einem Einsatz erfüllt und zwingend immer wieder geprüft werden müssten. Das Hauptaugenmerk soll dabei auf der möglichen Gefährdung der Privatsphäre liegen. Zudem habe die Technologie der Gesichtserkennung das Potenzial, „das Versammlungsrecht, das Recht auf Meinungsfreiheit und andere fundamentale Bürgerrechte zu verletzten.“
In einem Bericht der parlamentarischen Arbeitsgruppe für biometrische und forensische Ethik wurde im Februar 2019 darüber hinaus betont, dass wegen der potenziellen Gefahren für Bürger- und Menschenrechte „die Technologie nur dann benutzt werden soll, wenn andere, weniger zudringliche Techniken nicht einsetzbar sind“.
Doch selbst wenn Ed Bridges sein Verfahren gewinnen sollte oder neue gesetzliche Regelungen den Einsatz der Gesichtserkennung in Großbritannien verbieten oder nur unter eingeschränkten Bedingungen gestatten, sieht Griff Ferris die Debatte in einem globalen Kontext. Ihre bürgerrechtliche Dimension sei den westlichen Demokratien eigen. Staaten wie China würden den Gebrauch derartiger Technologien sicherlich ohnehin weiter ausbauen – was aber eben gerade nicht bedeute, „dass die Diskussion hier bei uns verfehlt sei“.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Geschasste UN-Sonderberaterin
Sie weigerte sich, Israel „Genozid“ vorzuwerfen
MLPD droht Nichtzulassung zur Wahl
Scheitert der „echte Sozialismus“ am Parteiengesetz?
Mord an UnitedHealthcare-CEO in New York
Mörder-Model Mangione
Vertrauensfrage von Scholz
Der AfD ist nicht zu trauen
Förderung von E-Mobilität
Habeck plant Hilfspaket mit 1.000 Euro Ladestromguthaben
Fußball-WM 2034
FIFA für Saudi-Arabien