Brauchen Roboter eine Ethik und handeln Menschen moralisch?

Seite 2: Das ethische Dilemma mit dem Dilemma

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Die Kommission macht dann doch deutlich, dass es ein Dilemma mit dem Dilemma gibt: "Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss 'unberechenbarer' Verhaltensweisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar." Gleichzeitig wird gefordert: "In Notsituationen muss das Fahrzeug autonom, d.h. ohne menschliche Unterstützung, in einen 'sicheren Zustand' gelangen."

Was aber als Prinzip festgelegt werden soll, offenbart die Unmöglichkeit, dies lösen zu können: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern." Man scheint sich also geeinigt zu haben, dass man etwa Alte gegen Junge nicht ausspielen darf, wohl aber Mehr gegen Wenige. Statt Qualität zieht man sich auf die Quantität zurück, die offenbar als weniger moralisch anstößig gilt.

Würde man von Menschen absehen, die nicht mit autonomen Vehikeln unterwegs sind, könnte man Unfallfreiheit und Abwesenheit von Dilemmata durch eine zentrale Steuerung realisieren, so lange das Steuerungssystem fehler- und pannenfrei arbeitet. Aber dem würde die Freiheit der Menschen widersprechen: "Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag."

Das aber kann man nicht, wie die Kommission selbst feststellt: "Funktionsstörungen vernetzter Systeme oder Angriffe von außen lassen sich nicht vollständig ausschließen. Solche Risiken sind, wenngleich selten vorkommend, komplexen Systemen immanent." Also bleiben autonome Systeme inhärent riskant. Zudem wird seltsam argumentiert. Entweder man will Sicherheit, dann geht dies auf Kosten der Freiheit, oder man bewahrt Freiheit, dann lassen sich Risiken nicht ausschließen. Die treten sowieso auf, weil man gelingende Cyberangriffe auf autonome Fahrzeuge nicht ausschließen kann. Bislang gibt es kein absolut sicheres vernetztes System, gäbe es dieses, wäre es wiederum ein Sicherheitsrisiko. Und wenn die Verkehrsteilnehmer Daten aufgrund der "Autonomie und Datenhoheit" nicht weitergeben müssen, ist eine zentrale Steuerung schlicht unmöglich.

Die Kommission bleibt auch unentschieden, ob einem autonomen Fahrzeug in kritischen Situationen die Entscheidung überlassen werden soll. Als Szenario wird gewählt: "Der Fahrer eines Wagens fährt eine Straße am Hang entlang. Der vollautomatisierte Wagen erkennt, dass auf der Straße mehrere Kinder spielen. Ein eigenverantwortlicher Fahrer hätte jetzt die Wahl, sich selber das Leben zu nehmen, indem er über die Klippe fährt oder den Tod der Kinder in Kauf zu nehmen, indem er auf die im Straßenraum spielenden Kinder zusteuert. Bei einem vollautomatisierten Auto müsste der Programmierer oder die selbstlernende Maschine entscheiden, wie diese Situation geregelt werden soll."

Vergessen wird aber bei der Überlegung das Szenario, das im öffentlichen Verkehr oder im Flugzeug normal ist, wo die Menschen Passagiere und der Entscheidung der Fahrer bzw. Piloten überlassen sind, also auch nicht eigenverantwortlich entscheiden können. Kaum bestreitbar ist, dass die Kommission empfiehlt, die Vermeidung von Personenschäden müsse Vorrang haben vor Sachschäden. Verletzung sei überdies einer Tötung vorzuziehen, und es müsse das Prinzip der geringstmöglichen Zahl von Verletzten und Getöteten gelten. Aber all das muss im vorneherein mit blitzschnellen Wahrscheinlichkeitsberechnungen entschieden werden, die selbstverständlich falsch sein können, weil in der Welt immer Unerwartetes, Singuläres geschehen kann.

Theoretisch hat die Forderung nach einer "Minimierung der Opfer" durch eine Programmierung etwa gegenüber der Regelung im Luftsicherheitsgesetz, dass die Opferung von unschuldigen Menschen zugunsten anderer Menschen unzulässig ist, und dem Weichenstellerdilemma, gewissermaßen einen Vorteil. In realen Verkehrssituationen müsse eine Wahrscheinlichkeitsprognose aus der Situation erfolgen, "bei der die Identität der Verletzten oder Getöteten (im Gegensatz zu den Trolley-Fällen) noch nicht feststeht. Eine Programmierung auf die Minimierung der Opfer (Sachschäden vor Personenschäden, Verletzung von Personen vor Tötung, geringstmögliche Zahl von Verletzten oder Getöteten) könnte insoweit jedenfalls ohne Verstoß gegen Art. 1 Abs. 1 GG gerechtfertigt werden, wenn die Programmierung das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert."

Man würde also nicht Menschenleben gegeneinander verrechnen, wie das bei dem Trolley-Dilemma gemacht wird, sondern die Programmierung müsse so erfolgen, dass das Risiko für alle Verkehrsteilnehmer, den Fahrer oder die Passagiere eingeschlossen, gleichermaßen minimiert wird, was auch heißen würde, dass es für Manche erhöht werden müsste, die faktisch bei irgendeinem Verhalten gefährdet sein könnten. Moralisch wären nach dem interessanten Ansatz die Gleichverteilung des Risikos und ein zufälliges Ergebnis. Allerdings muss trotzdem immer eine Entscheidung getroffen werden. Dazu kommt, dass nicht nur die jeweils eingesetzte KI, sondern eine Vielzahl von technischen Systemen unterschiedlicher Hersteller funktionieren muss. Eine Verantwortung tragen auch, wie der Bericht anmerkt, die Hersteller der Sensoren.

Die Folgerung der Kommission für die Hersteller setzt dabei die Schwelle tief und entspricht einem utilitaristischen Prinzip, wobei genau die entscheidende Abwägung offen bleibt, wo die Grenzen des Zumutbaren für die Sicherheit und die Minimierung der Opfer liegt:

Folgt man der hier vertretenen Position, so ergibt sich das Folgeproblem, ob bzw. inwieweit Hersteller für die als "Unrecht" qualifizierte Verletzung oder gar Tötung durch automatisierte Systeme zur Verantwortung gezogen werden können. Es ist deshalb darauf hinzuweisen, dass für Kollisionsvermeidesysteme im Prinzip nichts anderes gilt als für Airbags oder Gurte: Die Tötung durch einen fehlauslösenden Airbag bleibt Unrecht, der Hersteller wird aber nicht in Haftung genommen, wenn er alles Zumutbare unternommen hat, um derartige Risiken zu minimieren.

Der Einbau von automatisierten Systemen ist daher zulässig und führt nicht zu besonderen Haftungsrisiken, wenn die Hersteller alles Zumutbare tun, um ihre Systeme so sicher wie möglich zu machen und insbesondere die Gefahr von Personenschäden minimieren.

Kommissionsbericht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.