Autonome Roboter im Straßenverkehr: Der Fahrer in der Maschine

Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt?

Nur in Standardsituationen erprobt: autonome Autos von Google. Bild: ap

LOS ANGELES ap | Ein Lastwagen kommt plötzlich mit hoher Geschwindigkeit aus der falschen Richtung entgegen. Was tun? Das Lenkrad nach links reißen und einen Fahrradfahrer anfahren oder nach rechts, wo gerade eine Familie entlangläuft. Oder ist es doch besser, eine Vollbremsung zu machen und einen Frontalaufprall zu riskieren? Autofahrer müssen in Bruchteilen von Sekunden Entscheidungen treffen. Dabei verlassen sie sich oft nur auf ihren Instinkt, ohne die Gefahr aber rational einschätzen zu können.

Experten dagegen setzen auf das selbstfahrende Auto der Zukunft, das seine Umgebung fast perfekt wahrnimmt und dessen Entscheidungen auf programmierter Logik beruhen. Solche Autos werden entwickelt, um das Fahren sicherer zu machen. Allerdings gib es neben den technischen Problemen noch eine Reihe von ungeklärten ethischen Fragen. Es ist relativ einfach, einen Computer zu programmieren und dem Auto vorzuschreiben, wie es in bestimmten Situationen zu reagieren hat. Viel schwieriger ist es aber, die richtigen Antworten darauf zu finden, sagen Wissenschaftler.

„Das Problem ist, wer stellt fest, was wir wollen“, fragt Jeffrey Miller von der Universität Southern California, der Software für automatisiertes Fahren entwickelt. Es werde nie eine 100-prozentige Sicherheit geben, betont er. Experten kündigten an, dass die Technologie für selbstfahrende Autos bis 2017 auf dem Markt sein soll. Zunächst soll es bei der Programmierung darum gehen, dass allgemeine Fahrsituationen beherrscht werden. Das sichere Fahren steht dabei im Vordergrund, um Unfallsituationen zu vermeiden.

Um ethische Fragen geht es bislang weniger. Denn Unternehmen, die fahrerlose Autos testen, befassen sich kaum mit moralischen Fragestellungen. Die Softwareentwickler sind in den meisten Fällen keine Autohersteller. So hat zum Beispiel Google in den vergangenen Jahren stark in die Technik investiert. Bis jetzt hat der Suchmaschinen-Anbieter aber nur die üblichen Fahrsituationen durchgespielt. Sogenannte unvermeidbare Unfälle wurden ausgespart. „Wir philosophieren darüber. Aber Fragen von wirklichen Situationen und realen Ereignissen, die uns betreffen können, haben wir noch nicht studiert“, gibt Ron Medford, Sicherheitsdirektor für das Google-Projekt der selbstfahrenden Autos, zu.

Was ist die richtige Entscheidung?

Professor Patrick Lin, der zu ethischen und Sicherheitsfragen an der California Polytechnik State University arbeitet, spielte solche Experimente durch. „Das ist eine der schwierigsten Entscheidungen, die wir treffen müssen. Eine Maschine so zu programmieren, die voraussehbar zum Tod von Menschen führen kann“, sagt er. Eine solche Frage ist, ob die Entwickler beispielsweise den Tod von anderen Menschen in Kauf nehmen, um die Insassen im eigenen Fahrzeug zu schützen. „Wenn wir Programmierentscheidungen treffen, erwarten wir, dass diese so richtig sind, wie sie eben sein können“, sagt Lin.

Doch was richtig ist, darüber könne es in den Unternehmen unterschiedliche Auffassungen geben, meint Lin. Er ist überzeugt, Autohersteller hätten die Pflicht zu zeigen, dass sie sich mit solch komplexen Fragen auseinandergesetzt hätten. Und sie müssen auch ihre unterschiedlichen Antworten öffentlich machen.

Lin sagt, dass er die ethischen Fragen des selbstfahrenden Autos mit Google, aber auch mit Autoherstellern wie Nissan und BMW sowie mit dem Unternehmen Tesla, das Elektroautos baut, diskutiert habe. Dabei sei auch deutlich geworden, dass viele Autohersteller skeptisch in Bezug auf das fahrerlose Fahren seien – zumindest bezüglich der nächsten zehn Jahre.

Uwe Higgen, der bei BMW eine Technologie-Abteilung in Silicon Valley leitet, erläutert, dass der Autohersteller Fachleute aus den Bereichen Technik, Ethik, soziale Auswirkungen und Recht zusammengebracht habe, um Fragen zu besprechen, die mit der Entwicklung der selbstfahrenden Autos zusammenhingen. Das sei ein Prozess, der noch nicht abgeschlossen sei.

Roboter, die Unfälle verursachen

Für manche aber stehen nicht die grundlegenden moralischen Fragen des automatisierten Fahrens im Vordergrund. Für sie geht es vielmehr darum, wie man vorsichtig Schritt für Schritt die neue Technologie einführen kann, um damit Leben zu retten. Denn jährlich sterben in den USA rund 30.000 Menschen im Straßenverkehr. In Deutschland gab es im vergangenen Jahr 3.340 Verkehrstote.

„Niemand hat eine gute Antwort darauf, wie viel Sicherheit wirklich sicher macht“, sagt der Rechtswissenschaftler Bryant Walker Smith, der sich intensiv mit dem Thema der selbstfahrenden Autos befasst hat. Im Straßenverkehr gebe es eben Unfälle, sagt er. „Und das ist etwas, was die Unternehmen akzeptieren müssen, aber auch die Gesellschaft.“

Eine weitere Frage ist, wie und ob Gesetze das automatisierte Fahren regeln können. Was geschieht beispielsweise bei einem grausamen Unfall, der aber nicht durch eine Person verursacht wurde? „Das ist eine ganz natürliche Frage, die kommen wird“, sagt Bernard Soriano vom Straßenverkehrsamt in Kalifornien voraus. Wie sollten denn Autos aus einer Reihe von schlechten Entscheidungen eine Auswahl treffen können. Autos können nur aus dem auswählen, was zuvor Programmierer festgelegt haben. „Dafür wird es Erklärungen geben müssen.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.