piwik no script img

Ethik des autonomen FahrensRegeln für den Algorithmus

Eine vom Verkehrsministerium eingesetzte Kommission fordert: keine Aufrechnung von Menschenleben und besseren Datenschutz.

Autonome Fahrt mit einem Prototyp auf der A81 Foto: dpa

Berlin taz | Autos treffen zunehmend autonome Entscheidungen. Sie parken beispielsweise bereits ohne Lenkung des Fahrers ein oder wechseln selbstständig die Fahrspur auf der Autobahn. Bei der Programmierung künftiger, noch ­selbstständigerer Fahrsysteme sollen Entwickler ethische Leitplanken befolgen. Der Grundsatz dabei: Fahrsysteme sind dann ethisch wünschenswert, wenn sie weniger Unfälle verursachen als menschliche Fahrer. Das ist das Ergebnis eines ­gestern vorgestellten Berichts der von Bundesverkehrsminister Alexander Dobrindt (CSU) eingesetzten Ethik-Kommission.

„Wir sind das erste Land weltweit, das nebst gesetzlichen nun auch ethische Fragen diskutiert“, sagte Dobrindt. In fünf Jahren würden die heute auf der A 9 getesteten selbstfahrenden Autos auf dem Markt erhältlich sein, sagte der Verkehrsminister. Die Mitglieder der 14-köpfigen Ethikkommission haben die vollautomatisierten Fahrzeuge im Rahmen der Untersuchung auf der A 9 auch selbst getestet. Dabei handelt es sich um dauerhaft vom System gesteuerte Modelle, bei denen der Fahrer jedoch aufgefordert werden kann, die Führung zu übernehmen.

„Ich wollte die Steuerung gar nicht mehr zurückhaben“, sagte der Leiter der Kommission und frühere Verfassungsrichter Udo Di Fabio. Das Fahrsystem sei bei strömendem Regen um einiges besser gefahren als er. Trotz des großen Potenzials der Unfallvermeidung sagte Di Fabio: „Keine Technik wird uns jemals totale Sicherheit bringen.“ Es werde immer Situationen geben, in denen Schäden an Menschen unausweichlich seien.

In diesen Fällen geht laut dem Bericht zwar Sachschaden vor Personenschaden, bei den menschlichen Opfern darf jedoch keine Selektion gemacht werden. „Die Qualifizierung nach persönlichen Merkmalen wie Alter, Geschlecht, körperliche oder geistige Konstitution ist strikt untersagt“, schreiben die Wissenschaftler und Experten der Ethikkommission. Anders verhält es sich bei der Anzahl der Personenschäden: Hier kann laut Bericht eine allgemeine Programmierung auf eine möglichst geringe Zahl von Personenschäden vertretbar sein.

Riesiger Zukunftsmarkt

Auch das Thema Datenschutz findet sich in dem Bericht. „Die Datenmengen werden mit automatisiertem und vernetztem Fahren explodieren“, sagte Di Fabio. Hinsichtlich dieser Entwicklung müssten Fahrzeughalter „grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten“ entscheiden dürfen, heißt es im Bericht – anders als das heute etwa bei der Nutzung sozialer Netzwerke die Regel sei.

Bekannte Datensammler wie die US-Konzerne Google und Apple planen bereits den Einstieg in die pozentiell hoch lukrative Roboterautoindustrie. Studien von McKinsesy zufolge sollen mit dem autonomen Fahren bis im Jahr 2030 jährlich über 6 Billionen Dollar umgesetzt werden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • "Also muss er entscheiden "Passant oder Fahrgast""

     

    Wie würden sie sich den als Fahrer in so einer Situation verhalten? Wahrscheinlich Vollbremsung - entweder es reicht oder der Passant hat Pech gehabt. Das kann der Computer auch und zwar schneller als der Fahrer.

     

    Mehr soll der Computer nicht können, denn er soll nicht wertend über Menschenleben entscheiden.

     

    Ethisch ist die computergenerierte Vollbremsung völlig unproblematisch.

  • 3G
    32795 (Profil gelöscht)

    Da wird keine einzige Frage beantwortet die sich konkret stellt. Das Geschwätz hilft nicht beim programmieren wenn es um die Frage geht: Wer stirbt?

     

    Dass eine geringere Anzahl von Personenschäden vorzuziehen ist, das ist selbsterklärend. Wäre es anders müsste man einprogrammieren "mehr zu töten". Geschwätz hilft da nicht, man muss es vorab einprogrammieren. Aber was ist in der Situation "Fahrer oder Passant?", also wenn über die Anzahl der Personenschäden nicht entschieden werden kann?

     

    Hier einmal ein Beispiel. Ein Passant tritt unvermittelt auf die Straße. Das Fahrzeug rechtzeitig abzubremsen ist nicht mehr möglich. Weicht das Fahrzeug aus, dann gefährdet es mit hoher Wahrscheinlichkeit eine Gruppe die an einer Bushaltestelle wartet oder brezelt stockvoll auf einen Brückenpfeiler. Jetzt ist es dem Computer verwehrt in die Bushaltestelle zu steuern, da wäre die "Anzahl" zu hoch. Also muss er entscheiden "Passant oder Fahrgast"?

     

    In den Fällen in denen der Computer nur noch entscheiden kann wen er jetzt umbringt, wird es keine richtige Entscheidung geben können. Und da bin ich mal gespannt, lässt man dann von Seiten der Behörden Autos zu die "immer den Passanten töten"? Kaufen die Kunden Autos die "immer den Insassen töten"?

     

    Nochmal, diese Tötungsroutine muss vorab einprogrammiert werden!

     

    Wer ist da eigentlich juristisch verantwortlich? Einer der Beteiligten ist am Ende tot weil so oder so programmiert wurde. Und das bleibt dann straffrei? Tötung durch Autos "weil es gerade nicht anders ging" ist dann straffrei? Wenn der Verkehr vollkommen automatisiert ist, dann sind Verkehrstote nur noch unvermeidliche Opfer und für deren Tötung wird niemand mehr belangt?

     

    Oder sperrt man dann den Programmierer ein? Den "Fahrgast" (sofern er es überlebt)?

     

    Ohne "Selektion" bleibt nur starres "Töte immer X" und genau darum redet sich die Kommission herum.

    • @32795 (Profil gelöscht):

      Falsch, sie brauchen keine "X vor Y" Programmierung und damit keine Selektion oder "Tötungsroutine".

       

      Sie können einfach einen Zufallsgenerator einprogrammieren der im Fall der Fälle (so wie bei ihnen beschrieben) einfach auswürfelt ob es nun X oder Y trifft.

      Nichts anderes ist bei menschlichen Fahrer.

    • @32795 (Profil gelöscht):

      Die von Ihnen gewählten Beispiele haben doch mit der Unfallrealität nichts zu tun.

      Unfälle entstehen doch weil der Fahrer falsch reagiert (etwa: zu schnell fährt), übermüdet oder betrunken ist. Dann geraten Fahrzeuge in eine Situation, die physikalisch keine unfallfreie Lösung zulassen - und auch keine wie immer geartete Selektion.

      Wenn der Verkehr vollkommen automatisiert ist, wird es keine Unfälle mehr geben. Wenn aber automatisch gesteuerte Fahrzeuge zusammen mit menschlich gesteuerten Fahrzeugen fahren, wird es auch für die Computer zu physikalischen Unmöglichkeiten (=Unfällen) kommen. Und auch da wird keine Selektion möglich sein.

       

      Wenn ein menschlicher Autofahrer falsch überholt und es für den Automaten zu eine Konfliktsituation kommt (Auto kommt auf eigener Fahrbahn entgegen), kann er auch nur langsamer werden und versuchen auszuweichen.

       

      Wenn ein Kind auf die Fahrbahn rennt hilft nur eine Vollbremsung. Diese wird von Mensch wie Automat durchgeführt und hilft - oder nicht.

       

      Aktuell ist es doch so, daß so gut wie alle Unfälle durch Fehler der Fahrer verursacht werden und so gut wie nie durch technische Pannen. Soweit doch wird dies durch die Hersteller (Rückrufe u.ä.) gelöst.

       

      Ihre Beispiele und die Annahme einer Tötungsroutine sind völlig an den Haaren herbeigezogen.

      • 3G
        32795 (Profil gelöscht)
        @Werner W.:

        Nein, da ist nicht die "Vollbremsung" die einzige Lösung. Für einen Menschen ist es das, der Mensch hat hier schlicht zu wenig Zeit um einen längeren Denk- und Abwägungsprzess durchzuführen. Der Mensch kann in der Zeit auch nicht berechnen was da physikalisch sonst noch möglich wäre, die allermeisten Menschen könnten das in Monaten nicht berechnen.

         

        Für den Bordcomputer sind einige Millisekunden eine kleine Ewigkeiten und er hat meist viele Möglichkeiten zu reagieren. Der Bordcomputer kann Dinge tun die der Mensch nicht kann. Er kann zB. einzelne Räder blockieren und gleichzeitig andere beschleunigen was Fahrmanöver etlaubt die der Mensch nicht hinbekommen würde.

         

        Was Sie da sagen ist genau das was ich befürchte. Man programmiert den Autos ein "auch wenn es anders ginge, versuche einfach zu bremsen und tue sonst nichts". Die Feigheit der Juristen (die kommen immer wenn etwas passiert und erklären was man hätte tun müssen, aber vorab labern sie nur nebulös) in Programmcode gegossen...

         

        Und wenn man das einprogrammiert, dann ist das die programmierte Entscheidung darüber wer zu sterben hat (obwohl es Alternativen gäbe). Programmierer in der Industrie werden jetzt zu den Herren übet Leben und Tot weil Komissions-Schwätzer ihnen nicht sagen können was man da sonst alternativ einprogrammieren müsste.

        • @32795 (Profil gelöscht):

          "Er kann zB. einzelne Räder blockieren und gleichzeitig andere beschleunigen was Fahrmanöver etlaubt die der Mensch nicht hinbekommen würde."

          Diese Art Computer ist heutzutage in den meisten KFZ bereits serienmäßig eingebaut. Nennt sich ABS.

        • @32795 (Profil gelöscht):

          Man programmiert den Autos ein "auch wenn es anders ginge, versuche einfach zu bremsen und tue sonst nichts".

           

          Es geht nicht anders wenn der Computer nicht wertend über Leben und Tod entscheiden soll. Mit der Unvollkommenheit der Programmierung kann man genausogut leben wie mit der Unvollkommenheit menschlicher Entscheidungen.

      • @Werner W.:

        "Wenn der Verkehr vollkommen automatisiert ist, wird es keine Unfälle mehr geben. "

         

        Fußgänger werden demnach auch automatisiert? Radfahrer? Tiere? Umfallende Bäume?

         

        Und davon, dass auch Technik nicht unfehlbar ist will ich erst gar nicht anfangen.

        • @Wonko Der Verständige:

          Natürlich muß es heissen (wobei das auch aus dem Kontext hervorgeht) "Unfälle zwischen automatisch gelenkten Fahrzeugen" wird es nicht mehr geben.

          Natürlich ist zu erwarten, daß es Fehlverhalten von Menschen im Straßenverkehr gibt, die zu Unfällen führen. Und natürlich kann der Computer auch mal ausfallen - wie wir das von unseren Geräten kennen. Wobei in diesem Fall das Auto vermutlich stehenbleibt und nicht mit Höchstgeschwindigkeit irgendwo gegenfährt - wie das beim Ausfall des menschlichen Fahrers schon mal passiert.

          Umfallende Bäume sind sowieso kein Problem. Es sind ja eher Bäume das Problem, die stehenbleiben - wenn der menschliche Fahrer versagt. Genau dieses Problem - meist wegen zu hoher Geschwindigkeit - werden wir bei Automaten nicht erleben.

           

          Natürlich werden wir Unfälle erleben, weil Menschen unautorisiert in die Software der Automaten eingreifen oder diese abschalten (etwa weil ihnen ihr Auto zu langsam fährt). Das ist dann aber wieder menschliches Versagen.

           

          Und menschliches Versagen ist nun mal für den weit überwiegenden Teil aller Unfälle im Straßenverkehr der Grund. Wenn und soweit dies ausgeschlossen werden kann, ist das ein großer Schritt, der nicht durch Argumente zu Technikfehlern widerlegt werden kann.

           

          Und keinesfalls wird es irgendwelche "Tötungsroutinen" geben. Dies ist ein unsinniger Gedanke.

      • 6G
        61321 (Profil gelöscht)
        @Werner W.:

        .

        "Wenn der Verkehr vollkommen automatisiert ist, wird es keine Unfälle mehr geben."

         

        Das haben Sie nicht wirklich geschrieben.

        So naiv kann keine*r sein.

         

        Nun gut, die Technikgläubigkeit ist in diesem Kontext tatsächlich das kleinere Problem.

        • @61321 (Profil gelöscht):

          Das mag überspitzt sein, aber ich sehe das auch so.

           

          Vor allem nimmt die Automatisierung die Emotionalität aus dem Strassenverkehr, die neben den genannten Risiken zu den größten Unfallverursachern gehören dürfte.

           

          Ein automatischs Auto fühlt sich nicht gegängelt, wenn es sich an die vorgeschriebene Geschwindigkeit hält.

  • Mit der Ethik hat Herr Dobrindt ja schon heute Probleme. Er schafft es nicht aus ethischen Gründen die hemmungslose Vergiftung seiner Bürger durch Schadstoffe aller Art einzuschränken. Er sollte besser die heutigen Problem lösen, z.B. die erschwindelten Betriebsgenehmigungen der Dieselfahrzeuge zu widerrufen , was seine oder die Pflicht des Kraftfahrbundesamtes ist. Statt dessen präsentiert er sich in der Mitte einiger alten Männer, um zukünftige Ethik Fragen zu klären. An der Stelle sieht jeder, dass ist nur Gerede.