piwik no script img

Autonome Roboter im StraßenverkehrDer Fahrer in der Maschine

Bald könnten selbststeuernde Fahrzeuge auf Straßen unterwegs sein. Doch dürfen sie in Unfallsituationen entscheiden, wer lebt und wer stirbt?

Nur in Standardsituationen erprobt: autonome Autos von Google. Bild: ap

LOS ANGELES ap | Ein Lastwagen kommt plötzlich mit hoher Geschwindigkeit aus der falschen Richtung entgegen. Was tun? Das Lenkrad nach links reißen und einen Fahrradfahrer anfahren oder nach rechts, wo gerade eine Familie entlangläuft. Oder ist es doch besser, eine Vollbremsung zu machen und einen Frontalaufprall zu riskieren? Autofahrer müssen in Bruchteilen von Sekunden Entscheidungen treffen. Dabei verlassen sie sich oft nur auf ihren Instinkt, ohne die Gefahr aber rational einschätzen zu können.

Experten dagegen setzen auf das selbstfahrende Auto der Zukunft, das seine Umgebung fast perfekt wahrnimmt und dessen Entscheidungen auf programmierter Logik beruhen. Solche Autos werden entwickelt, um das Fahren sicherer zu machen. Allerdings gib es neben den technischen Problemen noch eine Reihe von ungeklärten ethischen Fragen. Es ist relativ einfach, einen Computer zu programmieren und dem Auto vorzuschreiben, wie es in bestimmten Situationen zu reagieren hat. Viel schwieriger ist es aber, die richtigen Antworten darauf zu finden, sagen Wissenschaftler.

„Das Problem ist, wer stellt fest, was wir wollen“, fragt Jeffrey Miller von der Universität Southern California, der Software für automatisiertes Fahren entwickelt. Es werde nie eine 100-prozentige Sicherheit geben, betont er. Experten kündigten an, dass die Technologie für selbstfahrende Autos bis 2017 auf dem Markt sein soll. Zunächst soll es bei der Programmierung darum gehen, dass allgemeine Fahrsituationen beherrscht werden. Das sichere Fahren steht dabei im Vordergrund, um Unfallsituationen zu vermeiden.

Um ethische Fragen geht es bislang weniger. Denn Unternehmen, die fahrerlose Autos testen, befassen sich kaum mit moralischen Fragestellungen. Die Softwareentwickler sind in den meisten Fällen keine Autohersteller. So hat zum Beispiel Google in den vergangenen Jahren stark in die Technik investiert. Bis jetzt hat der Suchmaschinen-Anbieter aber nur die üblichen Fahrsituationen durchgespielt. Sogenannte unvermeidbare Unfälle wurden ausgespart. „Wir philosophieren darüber. Aber Fragen von wirklichen Situationen und realen Ereignissen, die uns betreffen können, haben wir noch nicht studiert“, gibt Ron Medford, Sicherheitsdirektor für das Google-Projekt der selbstfahrenden Autos, zu.

Was ist die richtige Entscheidung?

Professor Patrick Lin, der zu ethischen und Sicherheitsfragen an der California Polytechnik State University arbeitet, spielte solche Experimente durch. „Das ist eine der schwierigsten Entscheidungen, die wir treffen müssen. Eine Maschine so zu programmieren, die voraussehbar zum Tod von Menschen führen kann“, sagt er. Eine solche Frage ist, ob die Entwickler beispielsweise den Tod von anderen Menschen in Kauf nehmen, um die Insassen im eigenen Fahrzeug zu schützen. „Wenn wir Programmierentscheidungen treffen, erwarten wir, dass diese so richtig sind, wie sie eben sein können“, sagt Lin.

Doch was richtig ist, darüber könne es in den Unternehmen unterschiedliche Auffassungen geben, meint Lin. Er ist überzeugt, Autohersteller hätten die Pflicht zu zeigen, dass sie sich mit solch komplexen Fragen auseinandergesetzt hätten. Und sie müssen auch ihre unterschiedlichen Antworten öffentlich machen.

Lin sagt, dass er die ethischen Fragen des selbstfahrenden Autos mit Google, aber auch mit Autoherstellern wie Nissan und BMW sowie mit dem Unternehmen Tesla, das Elektroautos baut, diskutiert habe. Dabei sei auch deutlich geworden, dass viele Autohersteller skeptisch in Bezug auf das fahrerlose Fahren seien – zumindest bezüglich der nächsten zehn Jahre.

Uwe Higgen, der bei BMW eine Technologie-Abteilung in Silicon Valley leitet, erläutert, dass der Autohersteller Fachleute aus den Bereichen Technik, Ethik, soziale Auswirkungen und Recht zusammengebracht habe, um Fragen zu besprechen, die mit der Entwicklung der selbstfahrenden Autos zusammenhingen. Das sei ein Prozess, der noch nicht abgeschlossen sei.

Roboter, die Unfälle verursachen

Für manche aber stehen nicht die grundlegenden moralischen Fragen des automatisierten Fahrens im Vordergrund. Für sie geht es vielmehr darum, wie man vorsichtig Schritt für Schritt die neue Technologie einführen kann, um damit Leben zu retten. Denn jährlich sterben in den USA rund 30.000 Menschen im Straßenverkehr. In Deutschland gab es im vergangenen Jahr 3.340 Verkehrstote.

„Niemand hat eine gute Antwort darauf, wie viel Sicherheit wirklich sicher macht“, sagt der Rechtswissenschaftler Bryant Walker Smith, der sich intensiv mit dem Thema der selbstfahrenden Autos befasst hat. Im Straßenverkehr gebe es eben Unfälle, sagt er. „Und das ist etwas, was die Unternehmen akzeptieren müssen, aber auch die Gesellschaft.“

Eine weitere Frage ist, wie und ob Gesetze das automatisierte Fahren regeln können. Was geschieht beispielsweise bei einem grausamen Unfall, der aber nicht durch eine Person verursacht wurde? „Das ist eine ganz natürliche Frage, die kommen wird“, sagt Bernard Soriano vom Straßenverkehrsamt in Kalifornien voraus. Wie sollten denn Autos aus einer Reihe von schlechten Entscheidungen eine Auswahl treffen können. Autos können nur aus dem auswählen, was zuvor Programmierer festgelegt haben. „Dafür wird es Erklärungen geben müssen.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • 7G
    7964 (Profil gelöscht)

    Hey, das ist cool, als nächstes gibts dann Autos, in denen der Fahrer vom Computer ersetzt wird. Danach wird die Kiste aus Sicherheitsgründen auf Schienen gesetzt und wir finden uns - Schwuppdiwupp - im vorvergangenen Jahrhundert wieder, als die Straßenbahn erfunden wurde.

     

    (Kleiner Trost für die eifrigen Erfinder: auch das Rad oder die Gießkanne wurde öfter erfunden...)

  • Ein Auto, das defensiv fährt, sich an alle Regeln hält, verbrauchsarm, umweltbewuss (soweit das geht) von einem Rechner gesteuert........ und das auf Mischverkehrsflächen...... als Standardfahrzeug dürfte ein Traum sein und bleiben. Vielleicht machbar, aber wer kauft das, kann das kaufen?

    .

    Altes Spiel: Kind folgt Ball, wird neues Spiel "Kinde stoppen Auto!" mit Ball:-))

    .

    Und,..... wie bauen wir den dann unsreren Frust ab, wenn wir nicht mehr "auf den Pinn" treten dürfen? Eine "sportliche Programierung" wird wohl nicht durchsetzbar sein;-))

    .

    Die technischen Möglichkeiten stehen 2017 bereit? Klar wir können auch seit Jahrzehnten zum Mond fliegen.

    .

    So lange Rechner keine Analogien verstehen und daraus Schlüsse ziehen, wird das wohl nichts mit dem "Autopiloten". Selbst BAHN, von ein paar U-Bahnen usw. mal abgesehen, hochkontrolliert und geregelt, mit sehr viel weniger Parametern lässt sich nicht einfach so "automatisieren", den kontrollierenden Lokführer braucht man halt.

    .

    Mehr als "massive starke Assistenz" dürfte nicht drin sein.

    .

    Ein Trost bleibt aber wohl: Bis die rechtlichen, gesellschaftlichgen, usw. Probleme entscheidendt gelöst sind, wird wohl der letzte Tropfen Sprit durch den Auspuff gejagt sein.

     

    Bei anderen Energieformen dürfte diese Ressourcen-Verschwendung, 2 Tonnen Verpackung PLUS ein Rechenzentrum zu Beförderung von 80Kg Nutzlast zu nutzen, wohl unwirtschaftlich sein :-))

  • "Autos können nur aus dem auswählen, was zuvor Programmierer festgelegt haben."

    Das zeigt, wie unsinnig die periodisch immer wieder aufkommende Rede von der "künstlichen Intelligenz" ist.

    • 4G
      4613 (Profil gelöscht)
      @Heinrich Ebbers:

      Ach, man kann heute durchaus auch ein Auto bauen, das selbst lernt.

       

      Aber das will wirklich keiner. Einem getestetem, deterministischem Algorithmus kann man vertrauen.

       

      Aber einem der selbst lernt? Der sich ab und an mal sagt, jo, letztesmal hab ich die Kurve noch mit 60km/h geschafft, heute ist es zwar ein bissle nass auf der Straße, aber probieren wir mal obs mit 65km/h auch noch klappt? Klar, das Esp wirds richten, und es ist immer noch sicherer als mit einem 20-jährigem möchtegern Rennfahrer unterwegs zu sein, aber irgendwie würd ich mich da nicht sicher fühlen.

       

      Wir wollen also kein "intelligentes", also selbst lernendes Auto.