Unfälle mit künstlicher Intelligenz: Ein rechtlicher Flickenteppich

Künstliche Intelligenz ist nicht perfekt. Der tödliche Unfall durch ein Roboterauto oder rassistische Diskriminierung erfordern strengere Regulierung.

Die Autokamera eines Fahrzeugs zeigt eine Straße kurz vor dem Zusammenstoß mit einer Radfahrerin

Das selbstfahrende Unfallfahrzeug von Uber, das am 18. März 2018 eine Frau tödlich verletzte Foto: Tempe Police Department/ap/dpa

Am 18. März 2018 kam es im US-Bundesstaat Arizona zu einem tödlichen Unfall. Ein selbstfahrendes Uber-Taxi erfasste eine 49-jährige Fußgängerin, die mit ihrem Fahrrad die Straße überquerte. Wie die späteren Untersuchungen des National Transportation Safety Board ergeben sollten, hatte die Radar- und Kameratechnik des Autos die Fußgängerin nicht erkannt.

Das System war nicht darauf programmiert, Personen zu erkennen, die abseits eines markierten Fußwegs die Straße überqueren. Die Fahrerin, die das auf Autopilot geschaltete Roboterfahrzeug beaufsichtigt hatte, schaute auf ihrem Bildschirm eine TV-Serie – und hatte die Hand nicht vorschriftsmäßig am Lenkrad. 1,2 Sekunden vor dem Zusammenprall identifizierten die Sensoren die Frau als Fahrrad. Doch es war zu spät. Der tödliche Crash gilt als erster „Kollateralschaden“ des autonomen Fahrens.

Eigentlich versprachen Roboterfahrzeuge, den Verkehr sicherer machen. Jedes Jahr sterben laut der Weltgesundheitsorganisation (WHO) 1,35 Millionen Menschen im Straßenverkehr. Die Rechtslage ist eindeutig, auch wenn sich die letzten Momente vor einem Unfall nicht immer im Detail rekonstruieren lassen.

Wer mit überhöhter Geschwindigkeit unterwegs ist und andere Verkehrsteilnehmer gefährdet, wird zur Rechenschaft gezogen. Wenn jedoch ein Mensch durch einen Roboter ums Leben kommt, stellen sich komplizierte Fragen der Verantwortlichkeit: Wer haftet, wenn ein autonomes Fahrzeug einen tödlichen Unfall verursacht? Der Fahrzeugbauer? Der Softwarehersteller? Der Fahrer? Kann ein Softwarehersteller wegen fahrlässiger Tötung angeklagt werden?

Der Staatsanwalt von Yavapai County, Ort des tödlichen Unfalls, sagte, für eine strafrechtliche Verantwortung von Uber gebe es „keine Grundlage“. Der Fahrerin soll nun wegen fahrlässiger Tötung der Prozess gemacht werden.

Wer haftet für Fehler eines Operationsroboters?

Es ist leichter, eine Person als ein System anzuklagen. Maschinen-Ethiker fordern schon seit Jahren eine Regulierung von künstlicher Intelligenz. Je mehr automatisierte Entscheidungssysteme in das Leben eingreifen, desto dringender und wichtiger wird ein rechtlicher Rahmen. Wer haftet, wenn ein Operationsroboter das Skalpell falsch ansetzt oder der Pflegeroboter die falsche Medizin austeilt?

Der TÜV-Verband hat vor wenigen Tagen ein Positionspapier „Über Sicherheit KI-gestützter Anwendungen“ vorgelegt und darin Eckpunkte eines europäischen Rechtsrahmens formuliert. „Aus Sicht des TÜV-Verbands ist es dringend erforderlich, die bestehende Regulierung auf ihre Applikabilität auf KI-gestützte Anwendungen zu überprüfen“, heißt es darin.

Der TÜV-Verband bezieht sich dabei auf das Weißbuch zur künstlichen Intelligenz der EU-Kommission, in dem ein „solider europäischer Regulierungsrahmen für eine vertrauenswürdige KI“ postuliert wird. Das Weißbuch geht dem Verband allerdings nicht weit genug. Der bestehende europäische Regulierungsrahmen trage den Herausforderungen von KI nicht in hinreichendem Maße Rechnung und müsse „eingehend auf die Zweckmäßigkeit und Eignung in Hinblick auf KI-gestützte Anwendungen überprüft werden“.

Der Verband fordert die Einteilung von KI-Anwendungen in Risikoklassen sowie eine unabhängige „Konformitätsbewertungsstelle“.

Wie diese Stelle aussehen soll (der Begriff lässt ein Bürokratiemonster befürchten) und mit welchen Befugnissen sie ausgestattet sein soll, wird in dem Papier nicht näher ausgeführt. Zumindest für den Mobilitätsbereich ist die Position konkret. Hier hat der TÜV-Verband bereits 2019 die Institutionalisierung eines „Trust Centers“ vorgeschlagen, das ähnlich einer Prüfbehörde Zugriff auf Daten vernetzter Fahrzeuge hat.

Bislang ist es so, dass die Nutzerverwaltung und Zugriffskontrolle dem Hersteller obliegen. „Dadurch besteht ein nicht unerhebliches Risiko der Datenmanipulation und -filterung, die einer unabhängigen technischen Bewertung des Fahrzeugs im Wege stehen“, kritisiert der TÜV-Verband. Es gelte, „Datenmonopolstrukturen zu vermeiden“.

Vage Stellungnahme aus der Politik

Die Regierungsparteien haben im Koalitionsvertrag 2018 die Einführung einer „digitalen Mobilitätsplattform“ vereinbart, um Mobilitätsangebote „benutzerfreundlich“ zu vernetzen. Geschehen ist bislang wenig, obwohl der TÜV-Verband anlässlich des Autogipfels im Kanzleramt Anfang September 2020 nochmal auf die Notwendigkeit einer solchen Datenplattform aufmerksam machte.

Auch die Stellungnahme der Bundesregierung zum KI-Weißbuch der EU-Kommission liest sich sehr verhalten und vage. Dabei ist das Weißbuch in seiner Problemdiagnose (Überwachung, Verlust der Privatsphäre, Diskriminierung) sowie seinen Lösungsansätzen sehr klar, wenngleich das temporäre Verbot für Gesichtserkennungssysteme, das noch im Entwurf enthalten war, aus der finalen Version wieder gestrichen wurde.

Das Problem ist nicht die Regulierung, die selbst von Tech-Konzernen gefordert wird, sondern ihre Einheitlichkeit. Wenn jeder Mitgliedstaat eigene Rechtsvorschriften zur Nutzung von KI erlässt, droht ein Flickenteppich. Die Autoren des Weißbuchs sehen die „Gefahr einer Fragmentierung des Binnenmarkts“.

Der KI-Experte Xeno Acharya weist daraufhin, dass die unterschiedlichen Rechtsstandards in der Lieferkette zu Haftungsverschiebungen führen können.

Bei einem autonomen Fahrzeug sei unter der derzeitigen EU-Gesetzgebung lediglich das Produkt, nicht aber die Software erfasst. Bei einem selbstfahrenden Auto von BMW, das chinesische Algorithmen nutze, würde lediglich BMW haftbar gemacht, nicht der Entwickler. Dass China infolge des Handelsstreits mit den USA den Export des Tiktok-Algorithmus beschränkt hat, macht das Ansinnen, die Systeme transparent zu machen, nicht einfacher.

Laut einem Bericht des Think Tanks Carnegie Endowment for International Peace exportieren chinesische Konzerne wie Huawei und ZTE massenhaft Überwachungstechnologien wie Gesichtserkennungssysteme, auch nach Deutschland. Selbst wenn es europaweit einen einheitlichen Standard algorithmischer Transparenz gäbe – die chinesischen Softwareschmieden werden sich wohl nicht in die Karten schauen lassen.

Facebook-Chef Mark Zuckerberg hat vor zwei Jahren bei der Anhörung vor dem US-Senat gesagt, dass eine Regulierung nicht dazu führen dürfe, dass „wir hinter chinesische Wettbewerber zurückfallen“.

Hoher Bedarf an „ethischer KI“

Es ist das Standardlamento der Tech-Konzerne: Wenn ihr unsere Industrie zu stark reguliert, haben die Konkurrenten einen Innovationsvorsprung. Irgendwann gibt es nur noch chinesische „Lösungen“ mit niedrigen oder keinen Datenschutz- bzw. ethischen Standards. Schon die Datenschutzgrundverordnung (DSGVO) galt manchen als „Innovationsbremse“. Mal abgesehen davon, dass diesem Denken ein ökonomisch verengtes Verständnis von Innovation zugrunde liegt, können rechtliche Rahmenbedingungen durchaus innovativ sein.

So war die Datenschutzgrundverordnung die Blaupause für den indischen Personal Data Protection Act (PDPA). Dass es einen Regulierungsbedarf für KI-Systeme gibt, haben wiederholt die rassistisch diskriminierenden Klassifikationsirrtümer vor Augen geführt: So hat der Gesichtserkennungsalgorithmus des Videodienstes Zoom kürzlich das Gesicht eines Schwarzen Mannes wegretuschiert. Als wäre ein Mensch bloß Luft.

Auch in China gibt es einen Bedarf an „ethischer KI“. Die vom chinesischen Wissenschaftsministerium gestützte Beijing Academy of Artificial Intelligence (BAAI) hat 2019 moralische Prinzipien für die Nutzung von KI aufgestellt. Aber auch wenn die Beijing AI Principles universelle Werte wie Freiheit, Autonomie und Privatsphäre beschwören, sind es doch zuvorderst chinesische Werte, die einer konfuzianisch-kollektivistischen Moralvorstellung entspringen.

Man merkt das dezent in der englischen Übersetzung: „Menschliche Privatsphäre, Würde, Freiheit, Autonomie und Rechte sollten ausreichend respektiert werden.“ Eine Charta, die wie eine Absichtserklärung klingt.

Die Frage ist nicht nur, wer die Motoren und Roboter von morgen baut, sondern auch, wer ihren moralischen Code schreibt. Ein Fußgänger, dessen Rechte von einem Roboterfahrzeug „ausreichend respektiert werden“, lebt gefährlich.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.