Autonome Fahrzeuge: Mensch-Maschine-Probleme

Nach einer Studie sind autonome Fahrzeuge häufiger als konventionelle in Auffahrunfällen verwickelt

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die autonomen Google-Fahrzeuge sind bislang unfallfrei gefahren, d.h. sie haben keine Unfälle verursacht, die sie selbst direkt verursacht haben. Aber wir haben bereits berichtet, dass es durchaus einige Auffahrunfälle gegeben hat, die deswegen entstanden sind, weil menschliche Fahrer offenbar die vorsichtige Fahrweise der autonomen Autos nicht richtig einschätzen konnten (Von autonomen Fahrzeugen und Menschen). So bremste ein autonomes Fahrzeug zu plötzlich wegen eines Fußgängers, der sich womöglich anschickte, über die Straße zu wollen, der Fahrer des nachfolgenden Autos hatte mit einer solchen Übervorsicht nicht gerechnet.

Das bestätigte einerseits die Sicherheit der autonomen Fahrzeuge, die im Prinzip Unfälle reduzieren können, aber gefährdet sind, wenn sie sich zusammen mit menschlichen Fahrern auf den Straßen bewegen, weil da stur regelgeleitetes und zu vorsichtiges Fahren der Software auf eiliges, unaufmerksames, emotionales und Regeln kreativ befolgendes oder nicht beachtendes Fahren der Wetware stößt. Da natürlich Google möglichst vermeiden will, dass in der Erprobungsphase ein autonomes Fahrzeug einen Unfall verursacht, wird Wert auf Sicherheit gelegt, was dann eben auch kontraproduktiv sein kann, wenn nicht nur autonome Fahrzeuge unterwegs sind.

Google hatte angesichts der Probleme mit der übergenauen Regeleinhaltung Bestrebungen eingehalten, sie weicher auszulegen, damit die Fahrzeuge eleganter fahren (Google will die autonomen Autos menschlicher machen). Sie sollen dann Kurven auch schon mal anschneiden oder parkende Autos überholen können, wenn sie dabei einen durchgezogenen Strich auf der Fahrbahn überfahren müssen. Kleinigkeiten also, eine winzige Annäherung an die reale Welt des Autofahrens. Klar bleibt, das menschliche Fahren kann kein Vorbild sein, denn dann würde der Vorteil der autonomen Fahrzeuge im Hinblick auf Sicherheit verloren gehen.

Das Dilemma wird, zumindest wenn autonome und von Menschen gesteuerte Fahrzeuge die Straßen teilen, noch weiter erschwert, weil sich nun herausgestellt hat, dass die Unfallhäufigkeit bei den autonomen Fahrzeugen im Zusammenwirken mit den menschlichen Fahrern, wie Bloomberg berichtet doppelt so hoch ist wie bei den menschlichen Fahrern, die miteinander zu tun haben und offenbar sich besser einschätzen können. Es handelt sich um Auffahrunfälle mit geringem Blechschaden, aber das rührt an der versprochenen Fehlerreduzierung, was überdies darauf hinweist, dass es immer darauf ankommt, in welcher Umgebung eine Technik eingesetzt wird, die theoretisch fehlerlos sein mag. Anders als Menschen reagiert die KI von autonomen Fahrzeugen sofort, wenn eine Gefahr eintreten könnte.

Zu wenig Bereitschaft zum Risiko?

Das Problem ist wiederum die wenig intelligente Regelbefolgung, beispielsweise die sture Einhaltung der Geschwindigkeit, was menschliche Fahrer eher locker handhaben. Natürlich müssen autonome Fahrzeuge die Geschwindigkeitsbegrenzungen beachten, aber sie werden dadurch zu Ausnahmen, die beispielsweise Überholen oder überhaupt Ärger bei den drängelnden Fahrern provozieren, die nicht verstehen, warum eine Vorschrift exakt befolgt wird. Kaum vorhersehbar ist beispielsweise für die KI, ob die menschlichen Fahrer im dichten Verkehr bereit sind, ein Fahrzeug, das auf eine Straße einbiegen will, einfahren zu lassen. Wenn partout Risiko vermieden werden soll, kann das autonome Fahrzeug sehr lange warten und den Verkehr dahinter aufhalten.

Aber nun das allgemeine Dilemma, das in einer Untersuchung des Transportation Research Institute der University of Michigan aufkam. Die autonomen Fahrzeuge von Google, Delphi und Audi haben zwar auf ihren Testfahrten in Kalifornien niemals selbst direkt einen Unfall verursacht, aber es gibt pro einer Million gefahrenen Meilen doppelt so häufig Auffahrunfälle mit den von Menschen gesteuerten Fahrzeugen und auch mehr Verletzungen, die aber geringfügiger sind als diejenigen, die von normalen Autos verursacht werden.

Hingewiesen wird allerdings auf die noch relativ geringen Strecken, die autonome Fahrzeuge zurückgelegt haben: 1,2 Millionen Meilen gegenüber 3 Billionen Meilen, die normale Autos jährlich in den USA fahren. Überdies würden autonome Fahrzeuge weniger riskanten Verkehrsbedingungen ausgesetzt, beispielsweise keinen schneebedeckten Straßen.

Letztlich wird die KI von autonomen Fahrzeugen mit Problemen konfrontiert, die moralisch unauflösbar sind. Beispielsweise mit der Entscheidung, die so ähnlich auch einst den Kriegsdienstverweigerern vorgelegt wurde, ob wie im Trolley-Gedankenexperiment durch die Bedienung einer Weiche mehr oder weniger Menschen getötet werden. Utilitaristisch sind weniger Opfer immer besser, moralisch bleibt das Problem, ob man die Entscheidung trifft, einen Menschen zu opfern, um mehrere zu retten (Hängt die Moral von der Sprache ab?).

Was sich aus den Testversuchen von Google ableiten lässt, ist sowieso eine Frage der Interpretation. Die autonomen Google-Autos sind mehr als 3 Millionen Kilometer gefahren, es gab gerade einmal 17 kleine Auffahrunfälle. Im November wurde ein Google-Auto von der Polizei gestoppt, weil sich hinter ihm ein Stau gebildet hatte. Es fuhr 35 Meilen pro Stunde in einer Zone, in der 35 Meilen erlaubt sind. Ein Polizist stoppte das Fahrzeug und warnte die beiden Ingenieure an Bord, dass so ein Unfall provoziert werden könnte. Er empfahl, dass das Fahrzeug parken und den Verkehr passieren lassen sollte, da es auch übervorsichtiges Fahren geben könne.

Google arbeitet daran, den Fahrstil "aggressiver", d.h. menschlicher, zu machen, aber KI-gesteuerte Autos, so Brandon Schoettle, Mitautor der Studie, verhalten sich weiterhin anders. Sie halten mitunter nicht nur, wo ein Fahrer nicht auf die Bremse treten würde, sie handeln auch schneller, was die Fahrer hinter ihnen überrascht. Und wenn sie flexibler mit Regeln umgehen sollen, d.h. wenn sie Regeln verletzen dürfen, dann ist die Frage zu beantworten, wo Schluss sein soll bei der Regelverletzung.

KI-Systeme könnten natürlich ebenso lernen wie ihre Programmierer, aber lernen heißt auch, Fehler zu machen. Und Fehler zu machen, bei denen durch Unfälle Menschen sterben, wäre im Augenblick fatal für die Entwickler von autonomen Fahrzeugen, selbst wenn damit ein Lernen stattfindet, um ähnliche Fehler zu vermeiden. Ein Dilemma.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.