piwik no script img

Autonomes FahrenFreihandfahren mit Haftungsfallen

Was passiert, wenn ein autonomes Auto einen Menschen überrollt? Ob Halter oder Hersteller dann in der Pflicht ist, ist bei Experten hoch umstritten.

Jetzt fährt der Computer. Und was ist, wenn es kracht? Foto: dpa

Berlin taz | In den USA ist es bereits passiert. Ein selbstfahrendes Auto überfährt eine Frau und verletzt sie tödlich. Spätestens dieser Vorfall hat gezeigt: Auch wenn das Versprechen lautet, dass selbstfahrende Autos deutlich weniger Unfälle verursachen als Menschen am Steuer – es wird weiterhin Unfälle geben. Und da stellt sich die Frage: Wer haftet in so einem Fall, wer wird bestraft?

Die rechtlichen Risiken rund ums autonome Fahren sind zwei von acht zentralen Punkten, die Expert:innen ab Donnerstag auf dem Verkehrsgerichtstag in Goslar diskutieren – neben Themen wie Abbiege­assistenten für Lkw und Fahrverboten für Dieselfahrzeuge.

Was die Frage nach den rechtlichen Konsequenzen eines Unfalls so kompliziert macht, ist unter anderem die Bandbreite der möglichen Ursachen. Selbst wenn man die Übergangsphase, in der teils der Mensch, teils die Technik das Fahrzeug steuert, außen vor lässt, gibt es ganz unterschiedliche Möglichkeiten.

So ist denkbar, dass ein Programmierfehler in der Software zu einem Unfall führt, gegebenenfalls in Kombination mit einem Hacking-Angriff. Auch ein Hardware-Defekt, entweder in der verbauten IT-Hardware oder in den klassischen Autoteilen, etwa bei einem Motorschaden, könnte zu einem Unfall führen oder ein Ausfall der Netzinfrastruktur, über die die Fahrzeuge kommunizieren.

Ein Punkt könnte sich als zentral herausstellen: die Update-Praxis der Hersteller

„Man muss unterscheiden, wer bei einem Unfall zahlt und wer bestraft wird“, sagt Markus Schäpe, der beim ADAC die juristische Zentrale leitet. Seine Position: Zahlen werde auch bei selbstfahrenden Autos weiterhin der Halter. Denn der schafft, alleine dadurch, dass er das Fahrzeug auf die Straße bringt, eine Gefahrenquelle.

Marion Jungbluth, Leiterin des Teams Mobilität und Reisen beim Verbraucherzentrale Bundesverband (vzbv), fordert dagegen ein Umdenken: „Wir plädieren für eine Gefährdungshaftung der Hersteller, um dafür zu sorgen, dass die Produkte sicher auf die Straße kommen.“ So sieht es auch Gerd Lottsiepen vom Verkehrsclub VCD. „Das ist nötig, wenn das autonome Fahren eine Chance haben soll.“ Jungbluth betont, dass es keine Haftungslücken geben dürfe. In jeder möglichen Unfallkonstellation müsse klar sein, wer zahle – auch dann, wenn unklar ist, in welcher Komponente des Fahrzeugs der Fehler lag.

Fehlerquellen gibt es viele

Ein Punkt könnte sich damit künftig als zentral herausstellen: die Update-Praxis der Hersteller. Ein Blick auf aktuelle vernetzte Geräte wie Smartphones zeigt: Der größte Teil ist mit veralteten Versionen und damit mit ungestopften Sicherheitslücken unterwegs. Die Hersteller selbst haben kein großes Interesse daran, die Geräte lange aktuell zu halten – schließlich möchten sie lieber neue verkaufen.

Nun kann ein Auto mit Sicherheitslücken ungleich größeren Schaden anrichten als ein Smartphone. Doch derzeit ist noch keine gesetzliche Grundlage vorgesehen, die die Hersteller explizit zum Bereitstellen von Sicherheits-Updates verpflichtet. „Es wäre aber sehr wünschenswert, wenn es dafür eine gesetzliche Regelung gibt“, sagt Schäpe.

Er setzt dafür 10 bis 12 Jahre an, das sei derzeit die übliche Lebensdauer eines Fahrzeugs. Verbraucherschützerin Jungbluth geht noch weiter: Sicherheits-Updates müsse es über die übliche Lebensdauer hinaus geben, so lange, wie die Nut­zer:innen ein Fahrzeug einsetzen wollen. Beschränken dürfe man höchstens nicht sicherheitsrelevante System-Updates, die zum Beispiel das Entertainment-System betreffen.

Sie fordert zudem: Daten, die das Fahrzeug protokolliert, um etwa nach einem Unfall die Ursachenforschung zu ermöglichen, dürften keinesfalls beim Hersteller, einer Versicherung oder dem TÜV liegen, sondern nur bei einer unabhängigen Stelle. Sonst bestehe die Gefahr, dass die Daten im eigenen Interesse verwendet würden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

10 Kommentare

 / 
  • Die Schuldfrage bei Unfällen müsste abhängig von der Umsetzung der Autonomie sein. Wenn das Fahrzeug ein Fahrer benötigt, also eine Person, die ein Führerschein besitzt, und kontrollierend eingreifen kann, wäre diese auch in der Regel berantwortlich. Bei vollautonomen Fahrzeugen, die nur Passagiere ohne Fahrer befördern, würde die Schuldfrage vollends bei den Hersteller der Software bzw. der Fahrzeuge liegen.

  • Ja wie geil ist das denn? Wir brauchen in Zukunft keine Umweltplaketten und Abgasgrenzwerte mehr, um den Leuten alle zehn Jahre eine neue Karre abzunötigen, Nein, du bekommst ohne Safety-und Security Updates für deine dann gefährliche, weil hackbare Kiste, einfach keine bestandene Hauptuntersuchung mehr. Und Katschingg, die Kasse klingelt und wer würde beim Thema Sicherheit dagegen sein? Keiner! Oder?

    • 9G
      91672 (Profil gelöscht)
      @Weidle Stefan:

      Daß die Kasse irgendwo klingelt, ist klar. Und wenn es beim Psychiater ist, der die Aufgabenlosigkeit der 'Nichtmehrselbstfahrer' zu behandeln versucht.



      Das einzig wirklich gefährliche ist, daß diese Dinger wie Drohnen in unsere Lebenswelt eingeschleust werden. Eine (ehemalige) Beate-Uhse-Puppe reicht aus, um eine fahrende menschliche Person zu simulieren.



      Den Rest macht der Joystick und die Webcam in irgendeiner Wohnung.

  • Ach Gottchen - leevs Lottchen. Geistloser Dünnpfiff.

    Ha no. Produkthaftung mit umgekehrter Beweislast*!*



    &



    Ab dafür. EndeGelände •

    unterm—— m. W.



    In der Schwyz & Japan eh schon heute standard(?)



    &



    Schadensabwicklungen - nur zwischen Versicherungen.



    So - die pragmatischen Niederlande.

    (Maschmeyer & Cie - was vors Knie! (Gern auch was höher - wa!;)(



    (Justizentlastungsprogramm - dito!;)

    Liggers. So geht das.

    • 9G
      91672 (Profil gelöscht)
      @Lowandorder:

      Entschuldigen Sie, ich möchte nur fragen, was Sie mit Zitat: 'Geistloser Dünnpfiff' sagen wollten. Danke.

      • @91672 (Profil gelöscht):

        Das sind - brotlose Hochreckübungen für arbeitslose Juristen.

        Die Risikopalette geht ja scharf gegen unendlich - & ist mit herkömmlichen Rechtsfiguren zwischen realen Personen etc nicht einzufangen.



        Das ist zwar sooo neu nicht.



        Produzentenhaftung - gefahrengeneigte Arbeit - the whole shit - Bibliotheken voll.

        Die Dimension ist aber doch eine andere.



        Unterstellt solches kommt - hab da mit John von Neumann et al. meine Zweifel



        Dann wird aber ganz sicher diese - Karo-einfach Lösung kommen.



        M.E. systemimmanent mehr als vorgegeben.

        Nehme Wetten an.

  • 9G
    91672 (Profil gelöscht)

    Danke, Frau Bergt, daß Sie sich das Lieblingsspielzeug der Industrie vorgenommen haben.



    Zitat: 'So ist denkbar, dass ein Programmierfehler in der Software zu einem Unfall führt, gegebenenfalls in Kombination mit einem Hacking-Angriff.'



    Wer zahlt denn eigentlich, wenn ein begabter Hacker sich eine Weihnachts- oder Sylvesterfeier mit dem ferngesteuerten Wagen vornimmt und dort mal kräftig rumbraust? Wer zahlt? Wer ist verantwortlich?



    Bundestage, Facebook, Amazon, Schiffe, Flugzeuge sind gehackt worden. Die ferngesteuerten Drohnen überall feiern ihre fröhliche und sehr aussichtsreiche Zukunft.



    Manchmal frägt man sich: Kann es wirklich sein, daß die Autoindustrie neben ihrem nicht aufgearbeiteten gigantischen Software-Betrugsexzess die nächste Nummer startet? Diese nächste Nummer ist 'Diesel hoch 4', also ein ungeahnt dicker Hammer mit einer massentodsicheren Zukunft.



    Offenbar führt NOx in den Kfz-Herstellerhirnen zum sofortigen Irrsinn ohne Heilungsaussicht.



    Einfach richtig echte Idioten.

    • 9G
      91672 (Profil gelöscht)
      @91672 (Profil gelöscht):

      Ergänzung: Atombombe ist natürlich noch effektiver, aber ein ferngesteuertes Fahrzeug schafft auch mal so 600 - 800 Leute weg (und kostet nicht so viel).

  • Zitat: „Auch wenn das Versprechen lautet, dass selbstfahrende Autos deutlich weniger Unfälle verursachen als Menschen am Steuer – es wird weiterhin Unfälle geben. Und da stellt sich die Frage: Wer haftet in so einem Fall, wer wird bestraft?“

    Unsinn. Die Frage nach der Haftung wird sich so niemals stellen. „So eine[n] Fall“ wird es nämlich auch dann nicht geben, wenn selbstfahrende Autos serienmäßig unterwegs sind auf den Straßen der Welt. Genau wie für alle anderen Verkehrsunfälle wird auch für solche mit selbstfahrenden Autos gelten: Es gibt keine zwei völlig gleich gelagerte Fälle. Die Schuldfrage wird also auch künftig nicht ohne Einzelfallprüfung bzw. Gerichtsverhandlung zu entscheiden sein. Ein pauschales „der Halter“ oder „der Hersteller“ ist Schuld, kann und darf es nicht geben. Schließlich kann der Fehler nach wie vor im Fahrzeug selbst liegen, aber auch in seiner unsachgemäßen Benutzung.

    Die Industrie hofft, dass sie die Autos erst auf den Markt bringen braucht, nachdem die Politik ihr quasi die Absolution erteilt hat. Es müssen also gerade Menschen sterben, weil „die Autobauer“ (genauer: die zuständigen Entscheidungsträger in den Konzernen) „mauern“. Niemand will Schuld sein, wenn auch künftig noch - wenige - Menschen zu Schaden kommen. Und genau deswegen machen sich nun alle Verantwortlichen schuldig daran, dass weiterhin viele Menschen Leben oder gesundheit verlieren. Wie irre ist das denn?

    Nein, was die Frage nach den rechtlichen Konsequenzen eines Unfalls so kompliziert macht, ist nicht „die Bandbreite der möglichen Ursachen“. Die "Bandbreite" ist derzeit noch sehr viel größer, ohne dass das rechtliche Konsequenzen hätte. Es ist der seltsame Hang des Menschen, allein die positiven Folgen seines Handelns genießen zu wollen, die negativen Folgen aber anderen in die Schuhe zu schieben, die unsere Straßen unsicherer macht, als sie heute schon sein müssten.

  • "So ist denkbar, dass ein Programmierfehler in der Software zu einem Unfall führt," -- und der Hersteller wird sich weigern, überhaupt Daten zur Verfügung zu stellen, mit Verweis auf 'Geistiges Eigentum'. Jüngst geschehen in der Schweiz, nachdem ein Fahrer in seinem Tesla verbrannte…