Video-Überwachung am Südkreuz: Im Schatten der Technik

Schon das Modellprojekt für Gesichtserkennung per Video scheiterte. Seit Juni laufen Tests für „Verhaltens- und Mustererkennung“ – mit mäßigem Erfolg.

Videoüberwachung am Südkreuz: An der S-Bahn werfen Passagiere lange Schatten

Liegen hier Menschen oder sind das Schatten? Lichteinfall am Südkreuz Foto: dpa

BERLIN taz | Eine Frau sitzt auf einer Bank in der Wartehalle vom Bahnhof Südkreuz und verhält sich eigenartig. Zunächst starrt sie nur auf ihr Handy, doch dann legt sie sich unvermittelt auf eine schwarze Matte, die vor ihren Füßen auf dem Boden liegt. Wort- und reglos bleibt sie liegen. Um die Bank ist ein Bereich mit blauem Klebeband auf dem Boden markiert – ähnlich wie die kleinen Raucher-Inseln auf dem Bahnsteig.

Nur sind diese blauen Rechtecke nicht zum Rauchen, sondern für intelligente Videoüberwachung reserviert. Hier sollen die Maschinen lernen, bestimmtes Verhalten von Menschen zu erkennen. Es ist die zweite Phase eines Modellprojekts zu automatisierter Videoüberwachung der Deutschen Bahn und der Bundespolizei.

Am Südkreuz, dem Testbahnhof für KI-gestützte Überwachungstechnik, läuft seit Juni die zweite Testphase des Modellprojekts für die Videoüberwachung der Zukunft, so wie sie sich Bahn, Innenministerium und Polizei vorstellen. In der großspurigen Science-Fiction-Ankündigung hieß es, dass die Kameras von allein lernen sollen, bestimmte Szenarien zu erkennen. Unter anderem: liegende Personen, die Hilfe benötigen, einsame Gepäckstücke sowie schnelle Bewegungen von Personengruppen. Damit rennende Hooligans von einer zum Zug laufenden Familie unterscheidbar sind, sollen für die Kameras bestimmte Szenen mit „Darstellern“ nach einem exakten „Drehbuch“ dargestellt werden: Ein wütender Hooligan-Mob, ein messerschwingender Kri­mineller – eine Alien-Invasion?

So jedenfalls die Theorie. In der Praxis lief schon die erste Phase des Projekts – automatisierte Gesichtserkennung anhand von biometrischen Daten – sehr schlecht. Und auch die zweite Phase scheint holprig zu starten: Denn außer der liegenden Frau ist nicht viel am Südkreuz zu sehen. Keine Spur von Szenarien, Darbietungen und Reenactment. Dreh­buch­autor*innen braucht hier jedenfalls niemand.

Schatten oder Mensch?

Dass es mit den Tests noch nicht so gut läuft, kann man wohl an der schwarzen Matte erkennen, auf der die Frau liegt. Denn offenbar ist es für die Maschinen gar nicht so leicht, liegende Personen zu erkennen, wenn sie sich auf den nackten Boden legen. Die Matte soll wohl dabei helfen, ein klares Bild zu bekommen – der Schatten fällt dann nicht so auf und die Kamera muss mit weniger Kontrasten klarkommen.

Tatsächlich bestätigte die Bahn der taz, dass die Tests noch nicht ganz nach Plan verlaufen. Viel zu sehen sei vor Ort noch nicht, hieß es auf Nachfrage. Situationen nach einem exakten Drehbuch herzustellen, davon sei man noch weit weg, sagte ein Sprecher der Bahn. Die Software sei noch nicht vollständig einsatzbereit. Und das, obwohl die Tests bereits seit Juni laufen sollten. Ursprünglich waren die ersten Versuche sogar für den Jahresbeginn geplant. Drei verschiedene Anbieter – IBM, Hitachi und Funkwerk – sollen ihre Software testen, seien aber noch dabei, ihre Technik einzurichten.

Datenschutzbeauftragte Smoltczyk

„Eine große Zahl von Fehlalarmen“

Die Kameras hätten allein schon damit Probleme, den Schatten einer Person von einem echten Menschen zu unterscheiden, heißt es. Ein Problem, das am Bahnhof Südkreuz kein kleines sein dürfte, weil dort bei gutem Wetter die Sonne durch ein Glasdach fällt. Ein lang werdender Schatten wirke dabei für die Software schon mal wie eine liegende Person, so der Sprecher. Und bevor man mit drehbuchartigen Szenen beginnen könne, müsse man wohl erst mal das mit den Schatten justieren. Also erst mal kein simulierter Alien-Angriff.

Ob sich der offiziell bis Dezember laufende Test am Südkreuz verlängere, könne man noch nicht abschätzen. Panik habe man aber keineswegs: Es gebe eine gewisse Anspannung, aber keine Verzweiflung, so der Sprecher. Man liege noch in der Zeit. Aber vor Anfang August sei noch nichts zu sehen von Tests mit weiteren Probanden. Nicht mal die Bahn selbst habe bislang die Technik einsehen können.

Unwissenschaftliches Debakel

Schon die erste Testphase des Modellprojekts Intelligente Videoüberwachung am Südkreuz lief nicht sonderlich gut. Zu unausgereift und ungenau ist die automatisierte biometrische Gesichtserkennung, wie das einjährige Modellprojekt ergab, das bis August 2018 lief.

Der Abschlussbericht versucht das zwar hinter allerhand Floskeln zu kaschieren und lieferte ein schön gefärbtes Fazit („wertvolle Unterstüzungsinstrumente für die polizeiliche Fahndung“). Doch kritisierten Daten­schützer*innen die Ergebnisse mit klaren Worten: „Unwissenschaftlich“ sei der Abschlussbericht, die Testergebnisse seien ein „Debakel“ und deutlich geschönt worden. Die Stellungnahme des Chaos Computer Clubs (CCC) ist vernichtend. Nicht einmal technisch einsatzfähig seien solche Systeme – von ethischen Vorbehalten einer dauerhaften biometrischen Personenerfassung im öffentlichen Raum ganz zu schweigen, für die zudem jegliche Rechtsgrundlage fehle, wie Kritiker anmerkten.

Auch Berlins Datenschutz­beauftragte Maja Smoltczyk kritisierte in ihrem Jahres­bericht 2018 überdeutlich: Der Trefferquote „stand eine sehr hohe Falscherkennungsrate, also eine große Zahl ausgelöster Fehlalarme, gegenüber.“ Während des Projektes seien ins­gesamt 80.000 bis 100.000 Personen zu Unrecht erfasst worden, schimpft ihr Bericht regelrecht auf Seite 75. In einem Ernstfall hätte die Kamera also schnell mal ein paar 10.000 Personen als vermeint­liche Terroristen eingestuft. Eine hohe Fehlerquote berge wiederum das ­Risiko, „dass ein korrekter Treffer nicht als solcher erkannt würde, weil ständig viel zu viele Falschmeldungen von Hand aussortiert werden müssten“, resümierte die Datenschützerin.

Immerhin verzichten Bahn und Bundespolizei bei dieser zweiten Testphase auf biometrische Erkennungsmerkmale. Das ginge nicht nur anhand biometrischer Daten für Gesichter, sondern auch etwa anhand des individuellen Gangs einer Person. Smoltczyk hatte zuvor gefordert, darauf zu verzichten: „Bei einem Verlust der Daten können Betroffene ein Leben lang Opfer von Identitätsdiebstahl und Folgekriminalität werden. Die Erhebung biometrischer Daten ist daher immer mit einem sehr tiefen Eingriff in die Privatsphäre und einem erheblichen Risiko verbunden.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.