KI-Überwachung im Nahverkehr: Big Brother in der Tram
Die Bremer Straßenbahn stellt ein KI-Tool vor, das aggressives Verhalten erkennen soll. Es soll helfen, schneller einzugreifen und Gewalt vorzubeugen.
Neun bis elf digitale Kameraaugen pro Wagen wachen über die Geschehnisse in den Bremer Stadtbahnen. Bis Ende 2026 soll in diese Kameras eine künstliche Intelligenz (KI) eingebaut werden, die potenzielle Gefahrensituationen wie aggressives Verhalten und Gewalttaten in Echtzeit erkennen können soll.
Die Technologie mit dem Namen AI-Watch wurde von dem Bremer Unternehmen Just Add AI entwickelt. Zunächst soll das System in 43 Bahnen der Bremer Straßenbahn AG (BSAG) installiert werden. Damit ist Bremen bundesweit Vorreiter, hieß es am Donnerstag auf einer Pressekonferenz, auf der das Projekt vorgestellt wurde. KI-gestützte Kamerasysteme in Fahrzeugen des ÖPNV gebe es bisher noch in keinem anderen Bundesland.
Das Projekt erhielt eine Unbedenklichkeitserklärung der Landesdatenschutzbeauftragten. Die Daten sollen direkt im Fahrzeug verarbeitet und personenbezogene Daten nicht zum Training der Treffsicherheit der KI genutzt werden. Zudem werden die Gesichter der erfassten Personen in dem Moment verpixelt, in dem ein Bild an die Leitstelle übertragen wird. Kleidung, Haut- und Haarfarbe sowie das Geschlecht der erfassten Personen sind, so hieß es, weiterhin erkennbar.
Polizei kann Bildmaterial anfordern
Die Bilder aus den Überwachungskameras werden für 72 Stunden auf einer lokalen Festplatte im Fahrzeug gespeichert. Die Polizei kann das nicht anonymisierte Bildmaterial weiterhin anfordern.
AI-Watch soll dabei helfen, in gefährlichen Situationen schneller einschreiten zu können, und es soll gewaltpräventiv wirken. „Ich habe ein verändertes subjektives Empfinden bezüglich des Sicherheitsgefühls in unseren Fahrzeugen festgestellt“, sagt der Vorstand Technik bei der BSAG, Thorsten Harder. Er betont, dass die Fahrzeuge der BSAG bereits aktuell ein sicherer Ort seien.
Das Gegenteil bewies ein queerfeindlicher Übergriff, der sich im Dezember 2025 in einer Bremer Straßenbahn kurz vor dem Hauptbahnhof ereignete. Ein Mann hatte dort zwei junge lesbische Frauen nach einem Kuss zum Teil bewusstlos geschlagen. In genau solchen Situationen könnte die KI nun ein schnelleres Eingreifen ermöglichen, so die Verantwortlichen.
Hamburg überwacht Plätze mit KI
Erkennt die KI eine Gefahrensituation, sendet sie einen Impuls. Dieser sorgt für ein Signal in der Fahrzeugkabine und schaltet die Bilder der Überwachungskameras in die Leitstelle. Dort können Mitarbeitende dann beurteilen, ob es sich um eine echte Gefahrensituation handelt.
„So kann schneller gehandelt werden und es gibt wenig, im besten Fall keine Eskalation“, sagte Bremens Verkehrssenatorin Özlem Ünsal (SPD). Außerdem sollen Fahrer*innen so auf Situationen reagieren können, die ihnen ohne die KI in der Fahrzeugkabine verborgen geblieben wären.
Auch in Hamburg arbeitet man bereits seit dem Sommer 2023 mit sogenannter intelligenter Videoüberwachung. Dazu wurde das Polizeigesetz angepasst. Das System, das sowohl am Hansa- als auch am Hachmannplatz eingeführt wurde, zeigt Polizeibeamt*innen in einer potenziellen Gefahrensituation Bilder von Personen, die als Figuren dargestellt werden.
Schlägereien mit Umarmungen verwechselt
In Hamburg kam es auch zu Situationen, in denen die KI eine Umarmung mit einer Schlägerei verwechselte. Laut Polizei sei dies darauf zurückzuführen, dass sich die KI noch in der Trainingsphase befindet.
AI-Watch soll jedoch in der Lage sein, Umarmungen von Schlägereien zu unterscheiden. Das zumindest behauptet die BSAG. Das System sei in sogenannten Theaterfahrten auf die Bewertung unterschiedlicher Situationen trainiert worden. Auseinandersetzungen und Übergriffe wurden dafür wie Schläge gegen den Kopf nachgestellt.
Dabei schlug die KI auch an, als eine Person gegen das Fahrerhaus schlug, was aus der Entfernung für eine KI wie ein Winken aussehen könnte. Grund dafür sei, dass AI-Watch auch die Reaktionen anderer Fahrgäste analysiert. Wenn sich diese etwa umdrehen, ist die Chance höher, dass die KI Alarm schlägt.
In einer ersten Pilotphase, die im April 2025 begann, wurde die KI ohne Echtzeitübertragung getestet. Dabei erkannte sie 16 potenzielle Gefahrensituationen. Im Abgleich mit den Betriebsberichten ließen sich allerdings nur vier davon bestätigen. Bei den übrigen zwölf Situationen handelte es sich entweder um nicht gemeldete Situationen oder um Fehlsignale.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert