piwik no script img

Debatte Selbstfahrende AutosSmart Crash

Kommentar von Raul Rojas

Die Industrie verspricht, dass schon bald autonome Autos fahren. Doch statt ausgereifter Technik gibt es nur „Beta-Versionen“ – ein gefährlicher Trend.

Wurde die Software vom TÜV geprüft? Autofahrer im Tesla Foto: dpa

S eit zehn Jahren entwickeln wir an der Freien Universität Berlin autonome Fahrzeuge. Am Anfang habe ich alle deutschen Autofirmen angeschrieben und um ein Fahrzeug mit Drive-by-wire, das heißt mit Anschluss zu unseren Rechnern, gebeten. Die Antwort war ausnahmslos: „kein Interesse“. Es wurde mir versichert, die Kunden lieben das Fahren so sehr, dass autonome Fahrzeuge keine Zukunft hätten.

Heute dagegen kann es der Autoindustrie nicht schnell genug gehen. Die verschiedenen Unternehmen überschlagen sich mit Bekanntmachungen. Ford hat gerade gemeldet, dass ab 2020 autonome Fahrzeuge als Massenware abgesetzt werden sollen. Vor zwei Jahren hatte Tesla das vollautonome Fahrzeug ab 2017 versprochen. Auch Volvo wollte 2014 hundert autonome Fahrzeuge ab kommendem Jahr in dem Gebiet um Göteborg testen. Und Uber, der Taxifunk des 21. Jahrhunderts, behauptet frech, bereits in wenigen Monaten Fahrroboter auf die Straßen bringen zu können.

Wer den heutigen Stand der Technik kennt, weiß, dass dies nur heiße Luft ist. Allerdings illustriert die Ankündigungswelle eine neue Realität bei der Autoindustrie. Was wir heute erleben, ist die Kollision dieser Branche – die „Industrie der Industrien“ des 20. Jahrhunderts – mit dem IT-Sektor, der neuen „industry of industries“.

Während ehedem in der Autoindustrie vom Prototyp bis zum Serienprodukt locker fünf bis zehn Jahre ins Land gehen konnten, muss heute im Tempo der IT-Industrie geliefert werden. Jedes neue Auto enthält bereits so viel Elektronik, dass ich meinen Freunden sage, sie kaufen in Wirklichkeit eher einen Roboter als ein neues Auto. Die Elektronikindustrie testet nicht jahrelang, es wird sofort geliefert, als „Beta-Version“, wenn es sein muss. Ein Handy gibt es ja auch jedes Jahr neu, weil es sonst „veraltet“ ist.

Unfall war vorprogrammiert

Keine anderes Unternehmen hat die Computerisierung des Autos so radikal forciert wie Tesla in den USA. Bei ihren elektrischen Fahrzeugen wird Software bereits im Beta-Stadium geliefert und der Kunde kann Software-Updates über Nacht ins Auto herunterladen. Das Auto, das man heute fährt, ist vielleicht ein anderes als das von gestern.

Was uns dann zur Rechtsprechung führt: In Deutschland, wo man ohne den TÜV nicht mal eine Schraube an der Stoßstange ändern darf, kann man dann einen Tesla über Nacht in ein selbst fahrendes Auto für die Autobahn verwandeln, ohne dass jemand den Wagen überprüft? Offenbar ja, denn die neue Software für den Tesla-„Autopiloten“ wurde weltweit über das Internet geliefert, ohne dass sich der TÜV in Deutschland gemeldet hätte.

privat
Raul Rojas

Jahrgang 1955, ist Professor für Informatik an der FU Berlin. Er forscht seit Jahren zum Thema künstliche Intelligenz. Er hat ursprünglich Mathematik und Physik in Mexiko studiert. 2014 wurde er vom Deutschen Hochschulverband zum Professor des Jahres ernannt.

Vielen in der deutschen Autoindustrie war klar, dass dies nicht sehr lange gut gehen würde. Bereits der Name der Software ist komplett irreführend. Tesla redet vom „Autopiloten“, was beim Fahrer sofort die Assoziation vom Autopiloten ähnlich wie in Flugzeugen erzeugen kann. Es handelt sich bei der Software allerdings nur um einen Spurhalteassistenten, also um ein Programm, das die Spur vor dem Auto erkennt und die Lenkung so steuert, dass es in der Mitte fährt. Solche Spurhalteassistenten werden in Deutschland seit mindestens 2009 serien­mäßig angeboten, aber nur als Hilfestellung für den Fahrer vermarktet.

Im Mai dieses Jahres war es dann so weit. Bei einem Unfall in den USA hat ein Tesla-Fahrer das Auto beim Fahren mit dem Autopiloten nicht überwacht – wie es gefordert wird – und ist bei einer Kollision mit einem abbiegenden Lkw umgekommen. Was ist passiert? Die Schwarz-Weiß-Kamera des Fahrzeugs konnte den weißen Lkw nicht von den weißen Wolken im Hintergrund trennen. Die Elektronik im Fahrzeug hat sich dann auf die Messungen vom Radar verlassen. An der Kreuzung war der Lkw nur von der Seite sichtbar, allerdings war die Plattform so hoch und der Räderabstand so groß, dass der Bordrechner aus den Radarmessungen eine Brücke zu erkennen glaubte.

Das Unglück hätte vermieden werden können, wenn der Fahrer sich an die „Spielregeln“ gehalten hätte. Diese besagen, dass ein Auto jederzeit von einem Fahrer überwacht werden muss. Dies bedeutet, dass auch dann, wenn das Auto die Spur automatisch hält und der Fahrer die Hände nicht am Steuer hat, er jederzeit bei Gefahr übernehmen können muss. Das Auto fährt selbst, aber ich als Fahrer bin immer noch für das Auto und mögliche Unfälle verantwortlich.

Fahrer sind keine Nannys

Tesla versichert sich gegenüber dem Fahrer, indem er diese Regel per Klick im Bordrechner bestätigen muss. Das so etwas natürlich nicht ausreicht, ist jedem klar. Wenn man bereits beim eigenem Fahren manchmal einschläft, was wird dann geschehen, wenn man nur noch der Kopilot ist?

Wenn schon Fahrer einschlafen, was wird erst geschehen, wenn man nur noch Kopilot ist?

Infolge des Unfalls hat Mobileye, die Firma, die die Spur- und Objektkennung samt Videokamera für Tesla liefert, die Zusammenarbeit aufgekündigt. Teslas Tempo bei der Einführung der neuen Technologie wollte sie nicht mehr mittragen.

Die deutsche Autoindustrie sollte gar nicht erst in Versuchung geraten, bei der Einführung von ungetesteten Funktionen so schnell wie Tesla sein zu wollen. Als Faustregel gilt, dass 5 Prozent der Kunden jede Innovation kaufen, auch wenn sie gar nichts bringt. Genau sie sind auch die Kunden von Tesla, die unfertige Produkte annehmen. Die deutschen Hersteller aber wären gut beraten, für die restlichen 95 Prozent zu entwickeln – und da kann man keine Stufen überspringen. Bevor man in der Lage ist, in den Städten autonome Fahrzeuge einzusetzen – als Sammeltaxis, die dann den Verkehr spürbar reduzieren –, muss diese Technologie jahrelang und über Millionen und Abermillionen von Kilometern getestet werden.

Die heutigen sogenannten Autopiloten, bei denen der Fahrer noch als Nanny des Fahrzeugs unterwegs ist, sind in dieser Form unbrauchbar. Man kann eher an etwas anderes denken, wenn man selber fährt, als wenn man eine Maschine überwachen muss. Wenn die Technologie so weit ist, dass das Auto zum öffentlichen Transportmittel wird und der Fahrer zum Passagier, dann können wir die Straßen von geparkten Autos befreien und den Fußgängern und Radfahrern zurückgeben. Dann hätten wir tatsächlich die Autopie.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

7 Kommentare

 / 
  • Selbst autonome Massenkarambolagen hätten noch etwas Gutes:

     

    Dann braucht sich kein Mensch mehr schuldig zu fühlen, denn es war ja nur "technisches Versagen".

     

    Ansonsten haben aber autonom fahrende Autos auch sonst etwas echt Gutes, wenn es gleichzeitig auch noch E-Autos sind:

     

    Man kann den den bestehenden Überkapazitäten der Stromerzeugung nachträglich einen Sinn geben und vielleicht sogar diverse Kohlebergwerke reaktivieren, weil das so gut für die Umwelt ist.

     

    Daß da was schief geht, ist extrem unwahrscheinlich, denn "selbstfahrende Autos", das ist ja noch viel geiler als immer gleich drei der neuesten Handy-Modelle zu besitzen.

     

    Und wenn es trotzdem zu stetigen schlimmen Karambolagen kommt, und sei es, weil sich Hacker ein perverses Vergnügen erlauben?

     

    Auch da zeigt sich eine Lösung. Dann müssen eben hauptsächlich Rentner motiviert werden, sich eine solche Kiste zu kaufen. Das klappt recht gut, wenn man die Renten mal wieder kürzt, damit die auch "faulen 90jährigen" per Nebenjob und dessen Folgen auf der Autobahn die Kassen entlasten.

  • Interessanter, wenn auch teilweise polemischer Beitrag. Teslas Taktik, die vom Autor geforderten Real-World-Erfahrungsdaten durch schrittweises Einführen der Autonomie in Kundenfahrzeugen zu etablieren, scheint mir nix mit "Betasoftware", sondern eher was mit cleverem Einsatz vorhandener Technik zu tun zu haben.

     

    Spurhalten-/ Wechseln und Einparken sind unter den richtigen Umständen zuverlässig der Elektronik anvertraubar; wenn der Fahrer natürlich während der Fahrt (mutmaßlicherweise) eine DVD anschaut, ist das fahrlässig. Warum erwähnt der Autor nicht, dass die bereits abgelaufenen, Tesla Autopilot-geführten Fahrten pro Millionen km in weniger Todesfällen als die selbstgefahrenen geendet haben (https://www.tesla.com/blog/tragic-loss)?

     

    Noch eine Idee: Vielleicht ermüdet so eine Autobahnfahrt, bei der man nicht ständig Lenken, Beschleunigen, Bremsen, Kopfdrehen und Antizipieren muss ja weniger als permanentes Mikromanagement?

  • Das als 'ungetestet' und 'unfertig' zu bezeichnen grenzt an Verleumdung. Als Professor für Informatik sollten Sie wissen, dass die Software die Tesla anscheinend als 'Beta' bezeichnet hat, natürlich getestet wurde und ganz fertig sind solche Systeme sowieso nie.

    Mein über 10 Jahre altes Auto hat auch schon eine automatische Steuerung. Nennt sich Cruise Control. Wer sucht findet genügend Beispiele von Unfällen mit eingeschaltetem Cruise Control. Auch hier gibt es Menschen die sich nicht an Anweisungen halten und der Maschine blind vertrauen.

    • @JoWall:

      Die taz sollte sich ueberlegen, ob dies dies nicht ein Sprachrohr der deutschen Autoindustrie ist. Wie oft sind eigentlich

      Unfaelle wegen der schlechteren Assistenzsystem bei BMW, Audi etc.

      passiert... Ach sorry das wird ja nicht gemonitored... Dann sagen wir mal 0 oder? Ueberigens ist der Tesla Autopilot bei vergleichstest immer besser gewesen, vielleicht sollte Herr Rojas dies auch erwahenen. Machine Learning scheint bei Tesla besser zu funktionieren...VW etc. sollten dann ihre schlechteren Assistenzsysteme nicht in ihre Autos einbauen.

       

      Quelle z.B.:http://www.caranddriver.com/features/semi-autonomous-cars-compared-tesla-vs-bmw-mercedes-and-infiniti-feature-the-physiology-of-semi-autonomy-and-test-results-page-6

      • @testman:

        Ich wollte ohne Fakten Herrn Rojas nun nicht unterstellen im Interesse der deutschen Autoindustrie zu schreiben. Allgemeine kommt aber bei diesen diversen Artikeln gegen Tesla natürlich schon der Eindruck auf, dass hier Interessen der Auto- und Ölindustrie vertreten werden.

  • Diese Praktik greift im Allgemeinen um sich. Auch in der Videospieleindustrie gibt es immer mehr unfertige Spiele, die zum gleichen Preis, die Kunden zu Spieletestern degradieren...

    • @Nobodys Hero:

      Konkurrenzdruck im Superkapitalismus und Kunden die immer schneller etwas neues so billig wie möglich haben wollen. Wenn Zeit oder Geld gespart werden muss, ist Qualität schnell das Bauernopfer.