Fahrzeuge sind keine Spielzeuge

Seite 2: Das Unfallszenario ist gut bekannt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Seit Monaten habe ich einige Videos von Teslas-Autopiloten im Internet gesehen und immer darüber gegrübelt, wann die Behörden wohl einschreiten würden. Leider musste das Kind erst in den Brunnen fallen, aber jetzt hat die National Highway and Traffic Safety Administration bekannt gegeben, dass sie die Sicherheit des Autopiloten in 25.000 Fahrzeugen von Tesla überprüfen wollen.

Der Unfall führt deutlich vor Augen, dass es hier an der notwendigen Redundanz der Sensoren und Daten gefehlt hat. Wir fahren seit 2011 autonom in Berlin und besitzen die Ausnahmegenehmigung des TÜVs. Das Szenario, das im Fall von Tesla zum Crash geführt hat, ist uns von der Autobahn sehr gut bekannt.

Wenn das Fahrzeug mit Radar und Laserscanner unterwegs auf der Autobahn ist, reicht eine kleine Änderung des Neigungswinkels auf Grund der Topographie, dass sich plötzlich Schilder über der Fahrbahn für die Sensoren in eine Mauer verwandeln. Bei 120 Km/h kann ein Schild in 100 Meter Abstand in drei Sekunden erreicht werden. Wenn ansonsten keine weiteren Informationsquellen verwendet werden, bremst das Auto, ändert damit den Sensorwinkel, erkennt dann, dass keine Mauer da ist, und fährt weiter. Das Auto "stottert" auf der Autobahn.

Um das Stottern zu eliminieren, muss man Informationen aus mehreren Sensoren zusammenführen. Eine Videokamera würde vielleicht ausreichen, aber bei hohen Geschwindigkeiten sind die Größe und Bildauflösung der vom Radar erkannten Objekte meistens nicht ausreichend. Deswegen muss man die Navigationskarte zur Hilfe rufen, in der Brücken und Schilderbrücken aufgetragen sind, um eine Plausibilitätsanalyse durchzuführen. Man braucht also eine hohe Redundanz bei den Daten, die aus den verschiedenen Sensoren und auch aus der Navigationskarte kommen. Erst dann kann man ein Hindernis als durchfahrbare Brücke klassifizieren. Ich vermute, dass bei der Software von Tesla Brücken ohne Zugriff auf die Navigationskarte erkannt bzw. verworfen werden.

Hier in Deutschland ist Tesla häufig zur Sprache gekommen, und zwar immer dann, wenn über Fahrsicherheit diskutiert wurde. Die deutschen Sicherheitsexperten in der Autoindustrie schütteln bereits seit langem den Kopf, wenn man berücksichtigt, wie viel Aufwand hier notwendig ist, um eine Zertifizierung zu bekommen.

Software-Update über Nacht

Ich habe im November 2015 beim Ausschuss für Wirtschaft, Forschung und Technologie vom Abgeordnetenhaus von Berlin auf die fragwürdige Praxis von Tesla hingewiesen, die relevant für Europa ist, da ihre Fahrzeuge auch hier verkauft bzw. importiert werden. Am 22. Juni habe ich beim Ausschuss "Digitale Agenda" des Deutschen Bundestags wiederum darauf hingewiesen und Tesla namentlich erwähnt (ohne Kenntnis des Unfalls).

Ich habe gesagt, es könne nicht sein, dass man in Deutschland sofort zum TÜV muss, wenn man nur eine Schraube an der Stoßstange eines Autos ändert, dass aber ein Software-Download, welcher das komplette Verhalten des Autos über Nacht umstellen kann, einfach so über das Internet kommen darf. Es gab leider, in beiden Fällen, keine Nachfrage der dort versammelten Abgeordneten. Ich befürchte sogar, sie haben gar nicht richtig begriffen, worum es geht.

Der Fall von Tesla ist bedeutend, weil bei der Technologieentwicklung immer an den Benutzer gedacht und immer den "worst case" berücksichtigt werden muss. Ich beobachte seit Jahren die europäische Automotive-Szene und kann nur bestätigen, wie wichtig der Sicherheitsgedanke bei den Kollegen in der Branche ist. Prof. Winner aus Darmstadt ist bei solchen Treffen immer ein willkommener Gast, gerade weil er immer unterstreicht, dass Testen über Millionen und Abermillionen von Kilometern notwendig ist, bevor man die Technologie auf das Publikum loslässt.

Im Silicon Valley, wo die IT gerade mit dem Auto verschmilzt, gibt es eine solche Tradition nicht. Gerade der Tesla-Autopilot wurde eher als eine Art "Spielzeug" für Autofahrer auf dem Markt lanciert, ohne all die präventiven Sicherheitsvorkehrungen, die in Deutschland für Spurhalteassistenten im Voraus getroffen wurden. Tesla hat viele Kunden, die innovationsfreudig sind. Das ist an sich nicht schlecht, aber gerade dieses Kundensegment ist besonders technologiegläubig. Autos sind aber keine Spielzeuge für innovationsfreudige Kunden.

Ich kenne viele Entwickler in Silicon Valley und habe großen Respekt von ihrem technischen Können. Gerade bei der Firma Tesla arbeiten viele sehr fähige Köpfe und man kann nur hoffen, dass sie in Zukunft behutsamer mit der Einführung der neuen Technologien umgehen werden, wenn diese die Sicherheit der Fahrzeuge betreffen. Technologen müssen jede Art von Hybris vermeiden und sich in Demut üben, wenn sie an die Folgen ihrer technischen Entscheidungen denken, auch wenn es sich um ein einziges Leben handelt.

Können Roboter lügen?
Essays von Raúl Rojas zur Robotik und Künstlichen Intelligenz
Als eBook bei Telepolis erschienen