Wir Ihr aus den Medien erfahren habt, ist vor einigen Tagen der erste tödliche Unfall eines Tesla Model S mit eingeschaltetem Autopiloten geschehen. Erwartet haben wir das leider schon länger – wir sagen Euch hier warum.

Tesla Model S Autopilot

Noch einmal der Vorfall in Kürze (eine umfangreiche Beschreibung der Ereignisse gibt es z.B. bei Jalopnik): Der Fahrer eines Tesla Model S fuhr mit eingeschaltetem Autopiloten und war nach ersten Berichten abgelenkt und hatte die Augen nicht auf die Straße gerichtet. An einer Kreuzung bog aus der Gegenrichtung ein Traktor/Lkw mit tiefem Anhänger links ab und kreuze so die Fahrbahn des Tesla. Weder der Fahrer noch der Autopilot reagierte auf die Situation. Das Auto geriet unter den Trailer und der Fahrer erlag seinen Verletzungen.

So wie sich der Fall darstellt war es eine Situation, die der Autopilot nicht bewältigen konnte. Nicht umsonst weist Tesla auch ausdrücklich darauf hin, dass der Fahrer jederzeit die Kontrolle über das Fahrzeug behalten muss. In diesem Fall war der Fahrer wahrscheinlich abgelenkt und hat so die menschliche Chance verpasst, in das Geschehen einzugreifen.

This is the first known fatality in just over 130 million miles where Autopilot was activated. Among all vehicles in the US, there is a fatality every 94 million miles.

Im offiziellen Blog Post “A Tragic Loss” von Tesla wird erneut explizit darauf hingewiesen, dass es sich bei der Autopilotfunktion um eine Betaversion handelt, die laufend zu überwachen ist. Weiterhin wird gleich im zweiten Satz die Statistik bemüht, die verdeutlichen soll, dass eine Fahrt mit Autopilot sicherer ist, als eine menschliche Steuerung (dass sich die Kondolenzbekundung erst am Ende des Artikels findet sei mal dahingestellt).

Die Argumentation wirft gleich mehrere Fragen auf:


1. Ist der Autopilot autonom oder nicht?

Auf der Website von Tesla wird die aufpreispflichtige Funktion als “autonom” beworben. Wird autonom im allgemeinen Sprachgebrauch verstanden darf man davon ausgehen, dass das System auch tatsächlich autonom, also ohne weiteres Zutun von Außen seinen Dienst fehlerfrei verrichtet.

Dieses ist jedoch nicht der Fall. Der Nutzer muss bei der Freischaltung der Funktion mehrfach bestätigen, dass es sich um eine unausgereifte Funktion handelt, die ständig zu überwachen ist. Beim o.g. Unfall ist also (vorausgesetzt der abbiegende Fahrer hatte keine Schuld) zu 100% der Fahrer Schuld.

Tesla Autopilot autonom

Teslas Argument in ihrem Blogpost weist darauf hin, dass erst nach 130 Millionen gefahrenen Meilen mit Autopilot ein Unfall passiert und nicht, wie im amerikanischen Durchschnitt, schon nach 94 Millionen Meilen.

Das wird zwei Gründe haben: hält sich der Fahrer an die Regeln, passt dieser *zusätzlich* zum Autopiloten auf die Verkehrssituation auf. Die Unfallfreiheit ist nicht der technischen Steuerung zu verdanken, sondern der menschlichen Kontrolle unter der Zuhilfenahme des Assistenzsystems Autopilot.

Zweitens wird hier mit der Statistik gespielt: die 130 Mio. gefahrenen Meilen mit Teslas Autopilot erscheinen sicherer als die 94 Mio. im amerikanischen Durchschnitt. Was dabei verschwiegen wird ist der Umstand, dass der Autopilot nur bei sehr einfachen Straßenumgebungen genutzt werden kann wie beispielsweise Autobahn oder Landstraße (die Seitenmarkierungen sind wichtig), ebenso erst bei Geschwindigkeiten von über 18 MPH. Sämtliche anderen hochkomplexen Verkehrssituationen werden noch nicht abgedeckt. Dass die Gesamtbilanz besser ist, wenn man sich auf relativ einfache Fahrsituationen beschränkt, ist zu erwarten.


2. Fieses Marketing: Der Autopilot ist kein Autopilot.

Die Definition von Autopilot laut Wikipedia, die wir hier mal als angemessene Quelle betrachten, da wir davon ausgehen, dass die meisten Menschen es genau so interpretieren ist:

Als Autopilot wird eine automatische, üblicherweise programmierbare Steuerungsanlage bezeichnet, welche Fortbewegungsmittel auf Wunsch automatisch lenkt, ohne dass Menschen, während der Autopilot aktiv ist, in die Steuerung eingreifen müssen.

Die ersten Autopiloten fanden sich in Schiffen und Flugzeugen und schon dort war die Entwicklung nicht trivial. Die Nutzung ist solchen Fortbewegungsmitteln hat allerdings einen großen Vorteil: die Steuerungsvorgänge sind meist längerfristig planbar, zusätzlich kann die Funktion auf bestimmte Bereiche beschränkt werden (Kurs halten), ohne dass auch eine unvorhergesehene Störung (Turbulenz, menschliches Eingreifen nötig) zu bewältigen wäre.

Beim Auto ist das anders: Hindernisse können in Sekundenschnelle auftauchen und müssen auch sofort in die Steuerungshandlung einfließen. Ein Autopilot wäre als nur dann ein Autopilot, wenn er tatsächlich autonom handeln könnte. Eine Beschränkung wie beim Flugzeug auf die Funktion “Kurs halten” ohne die Funktion “Hindernisse erkennen” ist auf Straßen nicht zielführend. Das macht das Problem deutlich: Wenn es denn tatsächlich ein Autopilot sein soll, so muss er alle Eventualitäten berücksichtigen (soweit menschenmöglich). Wir reden hier dann vom autonomen Fahren, und dieses ist noch nicht marktreif aufgrund der genannten Komplexität.

Tesla spiegelt mit dem Namen “Autopilot” also eine Funktion vor, nämlich das autonome Fahren, das sie aber eben gar nicht ist. Wie beim o.g. Unfall wird nicht einmal ein quer stehender Lkw-Anhänger erkannt.


3. Tesla-Fahrer, die den Autopilot in Betaphase nutzen, sollten Testfahrer sein.

Ist Tesla rechtlich beizukommen? Wahrscheinlich nicht. Es wird ausdrücklich darauf hingewiesen, dass die Funktion Beta ist und nicht ausgereift. Das Problem liegt woanders: Die Menschen nutzen Dinge nicht immer so wie geplant. Auf der guten Seite führ das zu Hackern, die Sicherheitslücken aufdecken, bessere Firmware schreiben und Geräte neuen Funktionen zuführen und auf der schlechten zu Leuten, die während des Fahrens an Ihrem Handy rumfummeln.

Im Falle des Tesla Autopiloten kommt technische Begeisterung und laienhafte Überwachung zusammen. Tesla preist die Funktion als autonomen Autopiloten an. Jedoch ist die Funktion weder autonom, noch ein Autopilot im herkömmlichen Sinne. Die Leute finden sie allerdings cool genug, dass sie sie auch benutzen. Mit der Zeit gewöhnen sie sich daran und vergessen, dass es eine nicht ausgereifte Software ist. Tritt dann ein Fehler auf, wie ein übersehener Lkw, ist es zu spät.

Und genau das ist die Krux: Die von Tesla für 2.500 Euro (!) verkaufte Beta Software gehört nicht in die Hände von Endnutzern. Sie gehört, wie jedes kritische Element in der Automobilentwicklung in die Hände von professionellen Testfahrern, die das System auf Herz und Nieren prüfen. Wer sich schonmal mit Leuten dieses Schlages unterhalten hat, weiß was das für ein komplexer und anstrengender Job ist. Teslas Idee, diese Entwicklungsarbeit auf die dummen Kunden umzulegen, ist sehr fragwürdig. Diese kaufen die Softwareerweiterung, um bei langen Fahrten entlastet zu werden. Das Gegenteil ist jedoch der Fall: beim Testen einer Betaversion, die zwei Tonnen Masse steuert müssten sie dauerhaft hoch konzentriert sein. Im oben genannten Fall hat es letztendlich einem Versuchskaninchen sogar den Kopf abgerissen. Richtig schlimm wird es, wenn nicht vorgewarnte Unbeteiligte unter einer Betaversion von Software leiden müssen, die ein Auto steuert.


Autonomes Fahren wird awesome, aber Finger weg vom Tesla Autopilot.

Um es deutlich zu machen: Das autonome Fahren wird kommen, und es wird auch sicherer sein als das menschliche Fahren. Wer sich allerdings mit der Materie beschäftigt wird feststellen wie umfangreich das ganze ist. Tesla hat dieser Weiterentwicklung mit seinem nicht ausgereiften “Autopiloten” genannten Asisstenzsystem dem ganzen einen Bärendienst erwiesen, da viele Autopilot mit autonomem Fahren gleichsetzen. Deshalb ist diese Funktion bei Teslas eine gefährliche Spielerei, die den Kunden wichtige Entwicklungsarbeit machen lässt.

Close