piwik no script img

Psychologe zu selbstfahrenden Autos„Der Sicherheitsgurt von morgen“

Etwas Skepsis sei angebracht angesichts der Entwicklung zum softwaregesteuerten Fahren, sagt Martin Baumann. Auch die Autohersteller müssten umdenken.

Die Erwartungen an Software höher als an den Menschen Foto: dpa
Interview von Svenja Bergt

taz: Herr Baumann, kürzlich ist der erste tödliche Unfall von einem softwaregesteuerten Auto bekannt geworden. Würden Sie sich in ein solches Fahrzeug setzen?

Martin Baumann: Ja. Allerdings mit der gleichen Skepsis, mit der ich mich vorher schon reingesetzt hätte. Und mit dem deutlichen Bedürfnis, das, was das Auto macht, zu überwachen.

Die Idee des selbst fahrenden Autos wird vor allem mit dem Argument Verkehrssicherheit beworben. Ist es realistisch, dass Software weniger Unfälle produziert als ein Mensch?

In bestimmten Bereichen ist es heute schon möglich, die Automation sehr sicher zu gestalten. Wir sehen das etwa bei den Einparkhilfen. Wie sicher die Systeme sein werden, hängt allerdings stark von der technologischen Entwicklung ab. Unter anderem davon, wie gut die Interaktion zwischen Fahrzeug und Fahrer funktioniert.

Interaktion?

Es wird noch eine ganze Weile dauern, bis die Software die Fähigkeiten des Menschen erreicht. Bis das der Fall ist, muss das Fahrzeug den Fahrer in der Aufgabe halten. Ihn also darauf hinweisen, dass er eingreifen muss, oder ihm das Feedback geben, dass es sich beispielsweise bei der Wahrnehmung der Umwelt nicht sicher ist.

In dem Fall in den USA hätte das System also melden sollen, dass die Kamera hier ein hoch hängendes Schild wahrnimmt, und fragen, ob das stimmt?

Zum Beispiel. So eine Rückfrage könnte etwa kommen, wenn das System ein Objekt wahrnimmt, das an dieser Stelle eher unplausibel erscheint. Problematisch wird es natürlich dann, wenn das System nicht erkennt, dass es einen Fehler macht.

Was ist der Sinn eines softwaregesteuerten Autos, wenn der Mensch beim Fahren doch überwachen muss?

Das muss er immerhin nicht mehr die ganze Zeit. Tätigkeiten, bei denen er gedanklich schnell wieder in die Umwelt zurückkehren kann, sollten dann beim Fahren gehen. Die Herausforderung wird sein: Wie bekommt man den Fahrer jetzt am besten und am schnellsten dazu, dass er wieder seine Umwelt wahrnimmt?

privat
Im Interview: Martin Baumann

46, ist Psychologe an der Uni Ulm und forscht zu Mensch-Maschine-Systemen.

Ist das bei Autobahngeschwindigkeit überhaupt möglich?

Hohe Geschwindigkeiten sind tatsächlich ein Problem. Die Google-Autos sind etwa mit 25 Meilen pro Stunde unterwegs, da geht so etwas schon. Aber höhere Geschwindigkeiten werden spätestens dann möglich, wenn die Sensorik des Fahrzeugs sehr weit voraussehen kann oder es eigene Fahrspuren für die automatisierten Fahrzeuge gibt.

Bei eigenen Fahrspuren würden sich die Autos aber nicht nur auf Sensoren verlassen, sondern auch untereinander kommunizieren?

Genau. Dadurch könnten sie sich rechtzeitig warnen, etwa bei einem Stauende.

Welche Situationen sind denn für die Softwaresteuerung schwierig?

Komplexe Situationen, wie wir sie gerade im Stadtverkehr haben, sind nicht einfach zu erfassen. Viele unterschiedliche Verkehrsteilnehmer, die in unterschiedliche Richtungen unterwegs sind und sich dabei stellenweise verdecken zum Beispiel. Oder Gesten von Menschen, ein Rüberwinken etwa, das geht noch nicht.

Bei dem Unfall in den USA ging es hinterher vor allem um die Frage, ob der Fehler einem Menschen nicht passiert wäre.

Es wird nie ein absolut sicheres System geben. Das ist nicht möglich. Selbst in hoch redundant angelegten Systemen wie in Atomkraftwerken treten Fehler auf. Die Frage darf also nicht sein: Schafft die Technik eine Fehlerquote von null? Sondern: Ist sie besser als der Mensch? Damit wird die Automatisierung so etwas wie der Sicherheitsgurt von morgen. Es gibt ganz wenige Unfallsituationen, da schadet er. Aber in fast allen Situationen rettet er Leben.

Warum sind die Erwartungen an Software höher als an den Menschen?

Weil wir bei Menschen wissen, dass sie Fehler machen. Wir haben in Deutschland jährlich mehrere tausend Verkehrstote, die Unfälle sind ganz überwiegend auf menschliches Versagen zurückzuführen. Dass die Erwartungen an die automatisierte Steuerung so hoch sind, liegt aber auch am Marketing von Herstellern wie Tesla, die perfekte Software suggerieren.

Was sollten die Hersteller anders machen?

Es gibt Untersuchungen, die das Vertrauen von Fahrern in Software messen. Sie zeigen: Wenn der Fahrer ein realistisches Bild bekommt von dem, was die Software kann, dann hat er Vertrauen und akzeptiert dennoch den ein oder anderen Fehler. Wird dagegen ein idealisiertes Bild vermittelt, hat der Fahrer zwar zunächst Vertrauen. Passiert aber der erste Fehler, gibt es einen deutlichen Vertrauensverlust. Das können die Hersteller auch nicht wollen.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • Es ist gefährlich, es ist unsicher, die notwendige Elektronik verursacht einen weiteren Schritt in die Totalkontrolle der Bürger, Reparaturen werden astronomisch teuer ... usw.

     

    Alles das sind Kriterien, die kaum jemanden interessieren, also wird sich die Sache durchsetzen - Hauptsache, man ist im Trend, jammern kann man später.

  • 3G
    34970 (Profil gelöscht)

    Selbstfahrende Autos halten an Ampeln. Menschen nicht unbedingt. Also JA. Je früher die kommen desto besser. Das mit dem Unfall nach so und so vielen km ist auch Unsinn. Wieviele Fahranfänger verursachen schon bei der ersten Fahrt einen Crash? Maschine : Mensch 1:0. So siehts aus. Und die Technologie ist nichtmal ausgereift. Wenns dann keine übermüdeten Brumifahrer mehr gibt die durchs Sekunden Nikerchen ganze Familien auslöschen werden vlt auch dem letzten "zurück auf die Bäume" Verfechter die Vorteile selbstfahrender Autos bewusst.

  • Es ist ein Irrtum, dass diese "Assistenzsysteme" das Fahren sicherer macht. Wenn Fahrer_innen nichts tun sollen aber in kritischen Situationen in Sekundenbruchteilen reagieren müssen, funktioniert dies einfach nicht. Schon bei der Bahn müssen die Lokführer nicht lenken und werden daher ständig überwacht, ob sie noch konzentriert bei der Sache sind.

    Wir sollten Assistenzsysteme daher erst einmal dort einsetzen, wo durch sie das Fahren sicherer wird. Das ist dort, wo sie keine Aufgabe abnehmen, sondern zusätzlich reagieren. Zum Beispiel könnten abbiegende LKW - eine Haupttodesursache für Radfahrer_innen sicherer gestaltet werden. Das bringt dann weder Rationalisierung noch können die Fahrer_innen dadurch einen Video bei der Fahrt schauen - doch das würde tausende Menschenleben pro Jahr retten.

  • Das Thema wäre sehr schnell erledigt, wenn die Haftung für Unfälle auf den Fahrzeughersteller übergehen würde. Redundanzsysteme neigen in kritischen Situationen zur Blockade. Was wäre denn wenn ein Sensor "Gefahr" signalisiert, das Redundanzsystem nicht, das eventuelle Drittsystem "weiß nicht"? Vollbremsung , weiterfahren oder verlangsamen? Müßte der Hersteller dann nicht logischerweise auch haften, weil er, bzw seine Angestellten diese Entscheidung vorab getroffen/programmiert haben?

    Die Aufmerksamkeit des Fahreres wird jedenfalls durch die Automatisierung des Fahrens deutlich sinken. Dadurch rast man dann halt ungebremst in einen LKW, die Unfallverhinderung durch Autopiloten ist derzeit reines profitmotivitiertes Wunschdenken. Verkehrsteilnehmer die nicht schneller als 25 km fahren, gehören auf den Fuß oder Radweg.

    • @Dodoist:

      Umgekehrt, Verkehrsteilnehmer die auch nur gelegentlich schneller als 15 km/h fahren, gehören auf die Fahrbahn. Insbesondere wenn WIEDER MAL der Radweg so ausgelegt ist, daß er zuallererst der Gefährdung der Nutzer und Fußgänger, in zweiter Linie der freien Bahn für freie Autofahrer dient.

       

      (Nitpick, km/h statt km)

    • @Dodoist:

      'die Unfallverhinderung durch Autopiloten ist derzeit reines profitmotivitiertes Wunschdenken' - Worauf basiert diese Ueberzeugung? Die derzeit verfuegbare Evidenz ist reichlich duenn - und laesst diese Schlussfolgerung nicht zu. Teslas Autopilot hat immerhin >200M Km bis zum ersten toedlichen crash gebraucht, waerend der Schnitt ueber alle Kraftfarhzeuge in den USA bei 150M Km liegt. Machine learning und deep neural networks legen derzeit in allen Bereichen ein atemberaubendes Entwicklungstempo vor. Die Latte die sie nehmen muessen - die (Verkehrs)leistung unserer Hirne - ist dagegen ziemlich statisch...