Dobrindt will für autonome Fahrzeuge "klare Leitlinien für Algorithmen"

Bild: Dilemma/CC-BY-SA-2.0

Wie sollen Algorithmen moralische Dilemmata entscheiden? Bislang herrscht anscheinend in Behörden Gleichgültigkeit oder Unwissenheit über Risiken von Algorithmen

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Bundesverkehrsminister Alexander Dobrindt will schnell autonome Fahrzeuge auch in Städten erproben. Die Devise: "Alles was digitalisiert werden kann, wird digitalisiert. Alles was vernetzt werden kann, wird vernetzt."

In einem Strategiepapier für die Kabinettsklausur in Meseberg wird von seinem Ministerium die Einrichtung einer Kommission vorgeschlagen, die "ethische Fragen beim Paradigmenwechsel vom Autofahrer zum Autopilot" klären soll.

Im Hintergrund steht die "Strategie automatisiertes und vernetztes Fahren" und der politische Wille, irgendwie Deutschland als Autoland mit an die Spitze der von Dobrindt ausgerufenen "größten Mobilitätsrevolution" stellen, nämlich das "automatisierte und vernetzte Fahren". Als Vorgabe wurde schon einmal festgelegt, dass beim teilautomatisierten Fahren "das System" vom Fahrer "dauerhaft überwacht" werden muss, der "jederzeit zur vollständigen Übernahme der Fahraufgabe in der Lage sein" müsse. Das aber würde beim autonomen Fahren nicht mehr der Fall sein. Hier müsste "das System" selbständig entscheiden, wie auf bestimmte Situationen reagiert werden muss.

Es geht also um programmierte Ethik, denn die Kommission von Vertretern aus Wissenschaft, Auto- und Digitalbranche soll Leitlinien für Algorithmen entwickeln, nach denen Autos in Risikosituationen reagieren. In der Welt hieß es, wo zuerst darüber berichtet wurde, es ginge um "klare Leitlinien für Algorithmen, welche die Fahrzeugreaktionen in Risikosituationen bestimmen". So sollen möglichst Personenschäden vermieden werden, wenn die Verursachung eines Sachschadens eine Alternative wäre. Oder so. Genaueres über die "Algorithmen" weiß man nicht.

Interessant wird dann auch sein, wer für die in Algorithmen codierte Ethik verantwortlich sein soll. Und wie letztlich ein Programm entscheiden soll, wenn die Lösung eines Konflikts ein moralisches Dilemma birgt, also es nicht darum geht, Personen- vs. Sachschaden abzuwägen, sondern etwa darum, welche oder wie viele Menschen gefährdet werden. Wie soll "das System" entscheiden, ob es eher das Leben eines Passanten oder das des Passagiers riskiert, selbstverständlich vorausgesetzt, das "das System" selbstlos handelt? Lassen sich moralische Dilemmata mit Algorithmen auflösen, die seit Jahrtausenden in der Philosophie, in Rechtssystemen und in Religionen verhandelt und abgewägt werden, ohne die eine richtige Lösung gefunden zu haben? Und welche Moral will man implementieren: die utilitaristische, die teleologische, die deontologische, die konsequentialistische, die Gesinnungs- oder die Verantwortungsethik? Oder müsste es sich um eine Konsensethik handeln, die sich dynamisch verändern müsste?

Man darf gespannt sein, wie die von Dobrindt gewünschte Kommission dem Problem nähern wird. Ein Standardbeispiel ist das Trolley-Dilemma, ein Gedankenexperiment für ein moralisches Problem, in dem jede Entscheidung, auch die, nicht zu handeln, dazu führt, dass Menschen getötet werden. Unschuldig kann man nicht bleiben, es gibt auch kein richtiges Handeln im Falschen, sondern nur ein blitzschnelles Abwägen. Im Gedankenexperiment rollt ein Güterwaggon auf 5 Menschen zu, die überrollt werden, weil sie nicht ausweichen können. Es gibt aber eine Weiche. Wenn diese umgestellt wird, werden die fünf Menschen gerettet, dafür muss aber eine andere Person auf der alternativen Strecke sterben.

Wie entscheidet sich "das System"? Ist es moralisch besser, nur eine Person zu töten, obgleich die Tötung eines Menschen moralisch verpönt ist, um das Leben von 5 Menschen zu retten? In Versuchen mit VR-Simulationen entscheiden sich faktisch die meisten Menschen für die utilitaristische Version, mehr Menschen zu retten. Andere jedoch erstarren und können sich nicht entscheiden (Hängt die Moral von der Sprache ab?). Sollten also die Algorithmen utilitaristisch gebaut werden? Und was ist, wenn ein Leben gegen das andere steht? Welcher Mensch wäre wichtiger?

Und man muss gar nicht auf die dramatische Ebene für Dilemmata gehen. Es würde vielleicht schon reichen, wenn ein autonomes Fahrzeug eher bei dem einen hält, um ihn einsteigen zu lassen, als bei einem anderen, der neben ihm steht und auch fahren will. Zählen die Millisekunden, wer zuerst bestellt hat, unabhängig davon, ob die eine Partei ein Kind, ein Kranker oder jemand ist, der dringender an einem Ort sein muss? Oliver Bendel hat solche Situationen für Kampf-, aber auch etwa für Pflege- oder Serviceroboter durchgespielt. Manchmal, so seine These, werden Roboter nicht wissen, was sie tun sollen, aber sich dennoch entscheiden oder verhalten müssen. Welche Auswege hier mit der programmierten Ethik gefunden werden, dürfte erst die Praxis zeigen (Buridans Robot).

Ahnungslosigkeit über die Folgen schon von Assistenzsystemen

Constanze Kurz fragte sich auf Netzpolitik.org allerdings, ob das erst einmal nicht nur Wortblasen sind. Sie hatte u.a. in seinem Ministerium vergeblich angefragt. Niemand sei in der Lage gewesen, "ein paar Basisinformationen zu bereits heute massenhaft in Fahrzeugen verbauten Computersystemen zu geben und damit zusammenhängende Fragen zu IT-Sicherheitsanforderungen zu beantworten, oder Erhebungen und Fakten benennen kann, welche Auswirkungen auf Unfallhäufigkeiten heutige elektronische Assistenten eigentlich haben."

Kurz interessiert, "in welcher Weise sich Unfallhäufigkeiten verändert haben, seit wir in fahrenden Computern sitzen. Welche Systeme werden heute verbaut? Haben elektronische Assistenzsysteme die Sicherheit im Straßenverkehr messbar verändert? Welche Fehlfunktionen in Software tauchten dabei auf?" Bislang konnte sie feststellen, dass offenbar staatlichen Behörden und Ministerien daran gar nicht interessiert sind. Möglicherweise war die Fragestellung auch noch nicht aufgekommen, die aber im Vorfeld der massenhaften Einführung von Fahrassistenzsystemen und dann auch autonomen Fahrzeugen eine große Rolle spielt.

Bislang heißt es, diese würden helfen, Unfälle zu vermeiden, aber wenn nicht klar ist und erfasst wird, ob schon in Gebrauch befindliche Fahrassistenzsysteme Fehlfunktionen aufweisen und so zu Unfällen beitragen, bewegt man sich auf dünnem Eis. Von Polizeibehörden erfuhr sie lediglich, dass entsprechende statistische Erhebungen nicht gemacht würden oder auch dass man keine Informationen über Regularien und Vorschriften zur Prüfung der IS-Sicherheit in Fahrzeugelektronik und -software geben könne.