Video-Überwachung am Südkreuz: Im Schatten der Technik
Schon das Modellprojekt für Gesichtserkennung per Video scheiterte. Seit Juni laufen Tests für „Verhaltens- und Mustererkennung“ – mit mäßigem Erfolg.
Nur sind diese blauen Rechtecke nicht zum Rauchen, sondern für intelligente Videoüberwachung reserviert. Hier sollen die Maschinen lernen, bestimmtes Verhalten von Menschen zu erkennen. Es ist die zweite Phase eines Modellprojekts zu automatisierter Videoüberwachung der Deutschen Bahn und der Bundespolizei.
Am Südkreuz, dem Testbahnhof für KI-gestützte Überwachungstechnik, läuft seit Juni die zweite Testphase des Modellprojekts für die Videoüberwachung der Zukunft, so wie sie sich Bahn, Innenministerium und Polizei vorstellen. In der großspurigen Science-Fiction-Ankündigung hieß es, dass die Kameras von allein lernen sollen, bestimmte Szenarien zu erkennen. Unter anderem: liegende Personen, die Hilfe benötigen, einsame Gepäckstücke sowie schnelle Bewegungen von Personengruppen. Damit rennende Hooligans von einer zum Zug laufenden Familie unterscheidbar sind, sollen für die Kameras bestimmte Szenen mit „Darstellern“ nach einem exakten „Drehbuch“ dargestellt werden: Ein wütender Hooligan-Mob, ein messerschwingender Krimineller – eine Alien-Invasion?
So jedenfalls die Theorie. In der Praxis lief schon die erste Phase des Projekts – automatisierte Gesichtserkennung anhand von biometrischen Daten – sehr schlecht. Und auch die zweite Phase scheint holprig zu starten: Denn außer der liegenden Frau ist nicht viel am Südkreuz zu sehen. Keine Spur von Szenarien, Darbietungen und Reenactment. Drehbuchautor*innen braucht hier jedenfalls niemand.
Schatten oder Mensch?
Dass es mit den Tests noch nicht so gut läuft, kann man wohl an der schwarzen Matte erkennen, auf der die Frau liegt. Denn offenbar ist es für die Maschinen gar nicht so leicht, liegende Personen zu erkennen, wenn sie sich auf den nackten Boden legen. Die Matte soll wohl dabei helfen, ein klares Bild zu bekommen – der Schatten fällt dann nicht so auf und die Kamera muss mit weniger Kontrasten klarkommen.
Tatsächlich bestätigte die Bahn der taz, dass die Tests noch nicht ganz nach Plan verlaufen. Viel zu sehen sei vor Ort noch nicht, hieß es auf Nachfrage. Situationen nach einem exakten Drehbuch herzustellen, davon sei man noch weit weg, sagte ein Sprecher der Bahn. Die Software sei noch nicht vollständig einsatzbereit. Und das, obwohl die Tests bereits seit Juni laufen sollten. Ursprünglich waren die ersten Versuche sogar für den Jahresbeginn geplant. Drei verschiedene Anbieter – IBM, Hitachi und Funkwerk – sollen ihre Software testen, seien aber noch dabei, ihre Technik einzurichten.
Datenschutzbeauftragte Smoltczyk
Die Kameras hätten allein schon damit Probleme, den Schatten einer Person von einem echten Menschen zu unterscheiden, heißt es. Ein Problem, das am Bahnhof Südkreuz kein kleines sein dürfte, weil dort bei gutem Wetter die Sonne durch ein Glasdach fällt. Ein lang werdender Schatten wirke dabei für die Software schon mal wie eine liegende Person, so der Sprecher. Und bevor man mit drehbuchartigen Szenen beginnen könne, müsse man wohl erst mal das mit den Schatten justieren. Also erst mal kein simulierter Alien-Angriff.
Ob sich der offiziell bis Dezember laufende Test am Südkreuz verlängere, könne man noch nicht abschätzen. Panik habe man aber keineswegs: Es gebe eine gewisse Anspannung, aber keine Verzweiflung, so der Sprecher. Man liege noch in der Zeit. Aber vor Anfang August sei noch nichts zu sehen von Tests mit weiteren Probanden. Nicht mal die Bahn selbst habe bislang die Technik einsehen können.
Unwissenschaftliches Debakel
Schon die erste Testphase des Modellprojekts Intelligente Videoüberwachung am Südkreuz lief nicht sonderlich gut. Zu unausgereift und ungenau ist die automatisierte biometrische Gesichtserkennung, wie das einjährige Modellprojekt ergab, das bis August 2018 lief.
Der Abschlussbericht versucht das zwar hinter allerhand Floskeln zu kaschieren und lieferte ein schön gefärbtes Fazit („wertvolle Unterstüzungsinstrumente für die polizeiliche Fahndung“). Doch kritisierten Datenschützer*innen die Ergebnisse mit klaren Worten: „Unwissenschaftlich“ sei der Abschlussbericht, die Testergebnisse seien ein „Debakel“ und deutlich geschönt worden. Die Stellungnahme des Chaos Computer Clubs (CCC) ist vernichtend. Nicht einmal technisch einsatzfähig seien solche Systeme – von ethischen Vorbehalten einer dauerhaften biometrischen Personenerfassung im öffentlichen Raum ganz zu schweigen, für die zudem jegliche Rechtsgrundlage fehle, wie Kritiker anmerkten.
Auch Berlins Datenschutzbeauftragte Maja Smoltczyk kritisierte in ihrem Jahresbericht 2018 überdeutlich: Der Trefferquote „stand eine sehr hohe Falscherkennungsrate, also eine große Zahl ausgelöster Fehlalarme, gegenüber.“ Während des Projektes seien insgesamt 80.000 bis 100.000 Personen zu Unrecht erfasst worden, schimpft ihr Bericht regelrecht auf Seite 75. In einem Ernstfall hätte die Kamera also schnell mal ein paar 10.000 Personen als vermeintliche Terroristen eingestuft. Eine hohe Fehlerquote berge wiederum das Risiko, „dass ein korrekter Treffer nicht als solcher erkannt würde, weil ständig viel zu viele Falschmeldungen von Hand aussortiert werden müssten“, resümierte die Datenschützerin.
Immerhin verzichten Bahn und Bundespolizei bei dieser zweiten Testphase auf biometrische Erkennungsmerkmale. Das ginge nicht nur anhand biometrischer Daten für Gesichter, sondern auch etwa anhand des individuellen Gangs einer Person. Smoltczyk hatte zuvor gefordert, darauf zu verzichten: „Bei einem Verlust der Daten können Betroffene ein Leben lang Opfer von Identitätsdiebstahl und Folgekriminalität werden. Die Erhebung biometrischer Daten ist daher immer mit einem sehr tiefen Eingriff in die Privatsphäre und einem erheblichen Risiko verbunden.“
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!