Die Moral der künstlichen Intelligenz

Seite 3: KI für manipulatives Marketing

Anstelle der albtraumhaften Dystopie von superintelligenten Robotern haben Hightech-Konzerne jedoch ganz andere Ziele. Im September 2020 sagte Tim Kendall – passenderweise "Direktor der Monetisierung" bei Facebook:

Wir haben einfach eine Seite aus dem Drehbuch der Tabakindustrie genommen, um unsere Kunden von Anfang an süchtig zu machen.

Heute weiß man, dass die Tabakindustrie im 20. Jahrhundert den Tod von 100 Millionen Menschen verursacht hat. Kurz gesagt, kluges unternehmerisches und hochmanipulatives Marketing behinderte – oder besser "eliminierte" – die Autonomie vieler Kunden, indem es Menschen süchtig nach (zuerst) Tabak, dann Online-Plattformen machte.

Für KI bleibt die Autonomie des Menschen jedoch ein überaus moralisches Thema, wenn auch ein eher neues Problem. Bis vor kurzem existierten keine Maschinen, die unabhängig von ihren menschlichen Herren Entscheidungen treffen konnten.

Moralphilosophen weisen hier gerne auf das berüchtigte "Trolley-Problem" oder die "Trolleyologie" von Philippa Foot hin, ein klassisches moralisches Dilemma. Ursprünglich nicht darauf ausgelegt, eine endgültige Lösung zu finden, erlaubt uns das "Trolley-Problem" dennoch, die moralische Spannung zwischen zwei Moralphilosophien aufzuzeigen:

  1. dem deontologischem Denken, bei dem wir die Absicht einer Handlung und auch ihre Konsequenzen beurteilen;
  2. sowie dem Konsequentialismus, bei dem wir eine Handlung ausschließlich nach ihren Konsequenzen beurteilen.

Am Ende läuft das "Trolly-Problem" auf eines hinaus: Es ist falsch zu töten, aber es ist gut, Leben zu retten. Jedoch könnte man versucht sein, zu bezweifeln, ob ein Haufen Computerprogrammierer – the sea of white dudes – ein solches moralisches Dilemma lösen kann.

Und das bringt die Debatte zur "moralischen Maschine" der Universität MIT, die jedoch ihrerseits eigene moralische Probleme hat; unangenehmerweise hat MIT Spenden von Jeffrey Epstein – einem Sexualstraftäter, der im Gefängnis gestorben ist – angenommen. Wie auch immer.

MITs "moralmachine.net" bittet Leute, über moralische Fragen abzustimmen. Viele würden argumentieren, dass eine simple Abstimmung über Moral ein heikles Thema ist. Zum einen sagen Menschen oft das eine, tun aber das andere. Viele sagen, dass sie abnehmen wollen, aber sie werden trotzdem noch ein kleines Tellerchen köstlicher Schwarzwälder Kirschtorte essen.

Es gibt jedoch auch noch ein weiteres Problem. Im Gegensatz zu echten demokratischen Wahlen ist die "moralische Maschine" von MIT demografisch nicht ausgewogen. Sie ist nicht repräsentativ. Die moralische Maschine des MIT wird hauptsächlich von jungen Männern mit Hochschulabschluss benutzt – womit wir wieder bei den white dudes sind.

Beklagenswerter als MITs etwas einfältige "Moralwahlmaschine" ist jedoch das eher ernste Thema der automatisierten Killer-Roboter. António Guterres, Vorsitzender der Uno, hat kürzlich dazu gesagt:

Nennen wir es so, wie es ist. Die Aussicht auf Maschinen mit der Diskretion und Macht, Menschenleben zu zerstören, ist moralisch unvertretbar.

Dennoch findet man in der Frage der automatisierten und Algorithmen-gesteuerten Kriegsführung auch die bekannte "Martens-Klausel". Diese regelt – entgegen dem Glauben von neoliberalen Techno-Libertären – bewaffnete Konflikte.

Noch interessanter ist, dass es auch ethische Grundsätze des US-Verteidigungsministeriums zum "Kriegs-Einsatz von KI" gibt. Natürlich spricht das "defense.gov" mit der (un-)moralischen Autorität, zwei Atombomben abgeworfen zu haben, am Korea- und Vietnamkrieg beteiligt gewesen zu sein und Abu Ghraib unterhalten zu haben, in einem Krieg, der für "keine Massenvernichtungswaffen" im Irak geführt wurde.

Egal, ob innerhalb oder außerhalb von Kriegssituationen, heutige KI-Ingenieure beschäftigen sich eingehend mit dem moralischen Thema "Mensch gegen Maschine". Insgesamt verhalten sich Menschen in der Regel ethisch. Dennoch drängen sich zwei moralische Fragen auf:

  1. können wir menschliche Intelligenz in Maschinen reproduzieren? und
  2. unterscheiden sich "menschliche" und "maschinelle" Intelligenz grundlegend?

Weiterhin besteht einer der Hauptunterschiede zwischen uns und KI darin, dass wir leben und Maschinen nicht. Was wir "Leben" nennen, nennt KI "ein lebendes System". Damit ist ein System gemeint, das eine Handvoll Kriterien erfüllt, wie zum Beispiel:

  • Leben existiert innerhalb der Aufrechterhaltung eines gesellschaftlichen Gleichgewichtes;
  • Leben hat einen Lebenszyklus und betreibt Stoffwechsel;
  • Leben kann wachsen und sich seiner Umgebung anpassen;
  • Leben kann auf Umweltreize reagieren; und vielleicht am wichtigsten,
  • Leben kann sich reproduzieren und entwickeln.

Interessant ist auch die Tatsache, dass es einen Zweig der KI gibt, der "genetische Programmierung" genannt wird. Dessen Kern ist die Evolution, und das ganz unabhängig vom "Rucksackproblem des genetischen Programmierens".

Auch ohne genetisches Programmieren hat KI einen Einfluss auf das, was Moralphilosophie den "freien Willen" nennt. KI-Leute sind überzeugt davon, dass der wirkliche freie Wille keine Notwendigkeit und, in der Tat, keinen Platz in der Künstlichen Intelligenz hat.

Dabei sollten wir uns daran erinnern, dass Computer "deterministische Maschinen" sind, die ausschließlich den Anweisungen in ihrem Code folgen. KI hat keinen "freien Willen" – noch nicht!

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.