Die Moral der künstlichen Intelligenz

Maschinen können den Menschen schon heute beeinflussen. Da helfen auch moralische Werte nicht. Welche Fragen sich im Umgang mit KI nun stellen. Ein Essay.

Moral und künstliche Intelligenz haben eine umstrittene und vielleicht sogar eine antagonistische Beziehung. Künstliche Intelligenz (KI) selbst kann jedoch keine Moral haben – es geht um Maschinen.

Andererseits hat die Erschaffung von Künstlicher Intelligenz (coding) und ihre Anwendung durchaus moralische Implikationen. Einfach ausgedrückt ist KI ein ausgeklügelter Computercode, bestehend aus sequentiellen Gleichungen, die als Algorithmus formuliert sind. Der Begriff "Algorithmus" geht auf den mittelalterlichen persischen Mathematiker Al-Khwarizmial-gha-rizm – zurück.

Trotzdem geht es in diesem Artikel weder um Mathematik, Codierung oder das Schreiben von Algorithmen, noch um die Rechenlogik der künstlichen Intelligenz. Es geht um den Punkt, an dem KI und Moral zusammentreffen.

In gewisser Weise geht es auch um Moralphilosophien wie die des Philosophen Immanuel Kant, Aristoteles Tugendethik und den britischen Utilitarismus. Ferner betrifft Moral diejenigen, die KI entwickeln, und ebenso die Unternehmen, die KI einsetzen, um Profite zu erzielen.

Insbesondere die moralische Frage der menschlichen Autonomie steht mit AI im engen Zusammenhang. Die menschliche Handlungsfähigkeit kann durch den Einsatz von KI und Algorithmen reduziert worden. Unsere Gesellschaft hat schon heute viele Entscheidungen an KI übergeben, zum Beispiel bei der Frage: wie finde ich dieses oder jenes neue Restaurant?

Mit Algorithmen, die mit GPS in unseren Autos verknüpft sind, ist es fast unnötig, echte Menschen nach dem Weg zu fragen. Menschliche Kommunikation ist überflüssig geworden. Diese "Abgabe" von Entscheidungen führt zu der "Mensch gegen Maschine" Frage und zu ethischen Regeln, die in der KI bereits verwendet werden. Damit verbunden sind zwei wichtige Themen für die KI:

  1. Fairness – ist KI fair? und
  2. Privatsphäre – dringt KI in unsere Privatsphäre ein, wenn jemand etwa Kondome kauft?

Obwohl es in diesem Artikel um die Moral der künstlichen Intelligenz, Fairness und Privatsphäre geht, wurde dieser Artikel "noch" nicht von einem KI Programm, wie z.B. der berühmt-berüchtigten ChatGPT-Website für algorithmische Essays geschrieben. Es geht hier schließlich nicht darum, wie kürzlich der AI-Experte Wolfram über ChatGPT gesagt hat, einen Artikel schreiben zu lassen, der nicht viel mehr ist als die bloße Fortsetzung von dem, was ChatGPT im Internet gefunden hat.

Eines sollte jedoch angemerkt werden. KI-Maschinen sind keine "bewussten und moralischen" Roboter. Bisher sind KI-Ingenieure nicht – oder besser gesagt, "noch nicht!" – in der Lage, so etwas herzustellen. Gegenwärtige KI-Maschinen haben etwa die Intelligenz eines Zweijährigen.

KI mit einem moralischen Bewusstsein vergleichsweise zum menschlichen Gehirn wird im KI-Jargon "AGI" – artificial general intelligence – genannt. Bisher sind jedoch Algorithmus-gesteuerten KI-Programme immer noch relativ eng geschnitten und sehr stark auf spezifische Themenbereiche beschränkt.

Genauso wie etwa eine herkömmliche Kaffeemaschine – ein technischer Apparat also – hat auch KI keine Moral. Dennoch verwendet jede Person, die Siri/Alexa eine Frage stellt, KI – und stellt sich damit in gewisser Weise den moralischen Problemen, die diese Technologie mit sich bringt.

Gleichzeitig basieren genau diese KI Programme auf maschinellen Lernalgorithmen. Solche KI Programme können beispielsweise vorhersagen, welche Kriminelle erneut straffällig werden. Für die Moralphilosophie ist so etwas höchst problematisch.

Trotzdem gibt es noch immer das weit verbreitete Missverständnis, dass KI "eine" einzige Sache ist. Genauso wie unsere Intelligenz eine Sammlung verschiedenster Fähigkeiten darstellt, ist die gegenwärtige KI eine Ansammlung verschiedener Technologien.

Überraschenderweise geben selbst anerkannte KI-Ingenieure, selbst nach jahrzehntelanger Forschung im Bereich von KI und wohl auch ganz zu Recht, zu, dass sie bei der Entwicklung von AGI, die eine Vielzahl von verschiedenen menschlichen Problemen lösen könnte, die über einfache Intelligenz hinausgehen, praktisch "keine Fortschritte" gemacht haben. Vielfach beschränkt sich KI noch immer eher darauf, wie man z.B. den richtigen Weg zu einem Restaurant findet oder einen – oft eher oberflächlichen – Schulaufsatz schreibt.

Dennoch hat all das große Auswirkungen auf unsere Gesellschaft. Im Bereich von Politik zum Beispiel bewegen wir uns schon jetzt in einem von KI gesteuerten Minenfeld. In großem Stil zeigte sich dies im Jahr 2016 beim Brexit Referendum in Großbritannien und dann bei der Wahl von Donald Trump in den USA.

Politische Manipulation durch KI

Maschinen können schon heute den Menschen routinemäßig beeinflussen; wenn nicht mit direkter Kontrolle, so manipulieren sie doch die Bevölkerung in politischer Hinsicht. Soziale Medien wie Facebook können benutzt werden, um die öffentliche Meinung in politischen Kampagnen zu beeinflussen.

Gefährlicher noch als Facebook – das einst mit der hochgradig manipulativen Cambridge Analytica unter einer Decke steckte – ist die Tatsache, die von Werbetreibenden und politischen Meinungsforschern oft ignoriert wird: dass der menschliche Verstand leicht, wie Informatiker sagen würden, "gehackt" werden kann.

Ferner setzen KI-Tools wie maschinelles Lernen das Problem auf Steroide. Unternehmen, die Algorithmen verwenden, können bereits heute Daten über fast die gesamte Bevölkerung sammeln und die Ansichten der Menschen in einem Ausmaß erfassen und verändern, das noch vor Jahren unvorstellbar war. Und das geschieht mit einer immer größer werdenden Geschwindigkeit und zu immer geringeren Kosten.

Dazu kommt, dass diejenigen, die den Code der Algorithmen für künstliche Intelligenz schreiben, zumeist weiße Männer sind. Man spricht sogar von "einem Meer weißer Typen" [a sea of white dudes]. Und schlimmer noch, dieses Meer der weißen Männer ist auch beim Beteiligungskapital, das die KI-Produktion finanziert, überrepräsentiert.

Sie stellen außerdem sicher, dass KI reibungslos in Unternehmensgewinne umgewandelt wird. Die meisten Risikokapitalgesellschaften, die heute KI finanziell unterstützen, können in drei etwa gleich große geografische Gruppen unterteilt werden:

  1. Silicon Valley – das sich mittlerweile über die Gegend um die San Francisco Bay erstreckt;
  2. der Rest von Amerika; und schließlich
  3. der Rest der Welt.

Für viele der weißen dudes, die im Bereich KI arbeiten, bietet die geschichtenerzählende Ideologin Ayn Rand eine Art halbwegs plausibles Glaubenssystem. In der Welt der KI beziehen sich viele Leser ihres Märchenatlas auf ihre krypto-philosophischen Ausuferungen. Einige KI-Leute glauben in der Tat an Rands egoistische – oder besser "egozentrische" – Halluzination, dass unser moralisches Dasein darin besteht, unserem individuellen Eigeninteresse zu folgen.

Als Folge dieser verschrobenen Ideologie wurden viele KI-Leute bereitwillig zu "Techno-Libertären". Sie lehnen zum Beispiel fast alle staatlichen Regeln und selbst die sinnvollsten Vorschriften ab und glauben, dass die beste Lösung für fast alle Probleme der neoliberale freie Markt sei.

Innerhalb von KI findet Rands Ideologie durch John Perry Barlows "Unabhängigkeitserklärung des Cyberspace" aus dem Jahr 1996 ihren klarsten Ausdruck. Kurz gesagt ist Barlows Erklärung vielleicht sogar "der" Ausdruck des reinen "Techno-Libertarismus". Auf dieser Grundlage haben sich Techno-Libertäre höchst-selbst davon überzeugt, dass der Staat den Cyberspace nicht regulieren kann und auch nicht sollte. Dafür führen sie drei Argumente an:

  1. sie glauben, dass dies nicht möglich sei, weil digitale Bits nicht physiologisch sind;
  2. gleichzeitig überschreiten Technologieunternehmen nationale Grenzen, sodass sie nicht an nationale Vorschriften gebunden werden können;
  3. selbst wenn Regulierung machbar wäre, würde eine solche Regulierung in ihren Augen die Innovation von KI ersticken.

Es ist ein simpler Katechismus, der den ebenso simplen Regeln des Neoliberalismus folgt. Doch ihr unerschütterlicher Glaube an die Wunder des freien Marktes und die Mythen der Deregulierung (sprich: unternehmensfreundliche Neu-Regulierung) lässt sich auch dann nicht erschüttern, wenn ihnen unangenehme Fakten entgegenstellt werden wie z.B.:

  1. Penizillin wurde von der Universität London erfunden;
  2. DNA von der Universität Cambridge und
  3. der erste Allzweck-Digitalcomputer wurde 1945 an der University of Pennsylvania gebaut.

Schlimmer noch ist für die neoliberalen freien Markt Verehrer, dass selbst die künstliche Intelligenz an Universitäten begann, und zwar an Orten wie MIT, Stanford und Edinburgh. KI wurde nicht von Unternehmen des freien Marktes entwickelt, sondern von staatlich-geförderten Institutionen.

Trotzdem übernahmen irgendwann Konzerne das Geschäft mit KI. Heute sehen wir zum Beispiel, dass der Umsatz von Apple mehr als das BIP von einem Land wie Portugal beträgt. Schlimmer noch, die meisten großen Tech-Unternehmen sitzen auf riesigen Geldhaufen.

Es wird geschätzt, dass US–Unternehmen Gewinne von über eine Billion US–Dollar auf Offshore-Konten halten – ein eher nettes Wort für Steueroasen, in denen die Unmoral zwielichtiger Steuersenkungsprogramme oder, wie Ketzer sagen würden, Steuerbetrug plus Geldwäsche, einhergeht.

Abgesehen von der unmoralischen und halb-kriminellen Seite vieler Technologiekonzerne, die KI entwickeln, ist die Angst vor den "superintelligenten Maschinen", die Menschen übertrumpfen und überwältigen könnten, wohl doch überzogen. Überraschenderweise machen sich viele, die in der KI arbeiten, "fast keine" allzu großen Sorgen um superintelligente Maschinen.

Der britische Moralphilosoph Nick Bostrom befürchtet trotzdem, dass Superintelligenz eine existenzielle Bedrohung für den Fortbestand der Menschheit darstellt. Angenommen, wir wollen die Krebskrankheit besiegen. "Das ist einfach", könnte eine superintelligente KI-Maschine sagen. Wir müssen einfach alle Wirte von Krebs eliminieren. Und so würden die KI-Roboter anfangen, alle Lebewesen zu töten – ein logischer Weg, um das Problem zu lösen.

KI für manipulatives Marketing

Anstelle der albtraumhaften Dystopie von superintelligenten Robotern haben Hightech-Konzerne jedoch ganz andere Ziele. Im September 2020 sagte Tim Kendall – passenderweise "Direktor der Monetisierung" bei Facebook:

Wir haben einfach eine Seite aus dem Drehbuch der Tabakindustrie genommen, um unsere Kunden von Anfang an süchtig zu machen.

Heute weiß man, dass die Tabakindustrie im 20. Jahrhundert den Tod von 100 Millionen Menschen verursacht hat. Kurz gesagt, kluges unternehmerisches und hochmanipulatives Marketing behinderte – oder besser "eliminierte" – die Autonomie vieler Kunden, indem es Menschen süchtig nach (zuerst) Tabak, dann Online-Plattformen machte.

Für KI bleibt die Autonomie des Menschen jedoch ein überaus moralisches Thema, wenn auch ein eher neues Problem. Bis vor kurzem existierten keine Maschinen, die unabhängig von ihren menschlichen Herren Entscheidungen treffen konnten.

Moralphilosophen weisen hier gerne auf das berüchtigte "Trolley-Problem" oder die "Trolleyologie" von Philippa Foot hin, ein klassisches moralisches Dilemma. Ursprünglich nicht darauf ausgelegt, eine endgültige Lösung zu finden, erlaubt uns das "Trolley-Problem" dennoch, die moralische Spannung zwischen zwei Moralphilosophien aufzuzeigen:

  1. dem deontologischem Denken, bei dem wir die Absicht einer Handlung und auch ihre Konsequenzen beurteilen;
  2. sowie dem Konsequentialismus, bei dem wir eine Handlung ausschließlich nach ihren Konsequenzen beurteilen.

Am Ende läuft das "Trolly-Problem" auf eines hinaus: Es ist falsch zu töten, aber es ist gut, Leben zu retten. Jedoch könnte man versucht sein, zu bezweifeln, ob ein Haufen Computerprogrammierer – the sea of white dudes – ein solches moralisches Dilemma lösen kann.

Und das bringt die Debatte zur "moralischen Maschine" der Universität MIT, die jedoch ihrerseits eigene moralische Probleme hat; unangenehmerweise hat MIT Spenden von Jeffrey Epstein – einem Sexualstraftäter, der im Gefängnis gestorben ist – angenommen. Wie auch immer.

MITs "moralmachine.net" bittet Leute, über moralische Fragen abzustimmen. Viele würden argumentieren, dass eine simple Abstimmung über Moral ein heikles Thema ist. Zum einen sagen Menschen oft das eine, tun aber das andere. Viele sagen, dass sie abnehmen wollen, aber sie werden trotzdem noch ein kleines Tellerchen köstlicher Schwarzwälder Kirschtorte essen.

Es gibt jedoch auch noch ein weiteres Problem. Im Gegensatz zu echten demokratischen Wahlen ist die "moralische Maschine" von MIT demografisch nicht ausgewogen. Sie ist nicht repräsentativ. Die moralische Maschine des MIT wird hauptsächlich von jungen Männern mit Hochschulabschluss benutzt – womit wir wieder bei den white dudes sind.

Beklagenswerter als MITs etwas einfältige "Moralwahlmaschine" ist jedoch das eher ernste Thema der automatisierten Killer-Roboter. António Guterres, Vorsitzender der Uno, hat kürzlich dazu gesagt:

Nennen wir es so, wie es ist. Die Aussicht auf Maschinen mit der Diskretion und Macht, Menschenleben zu zerstören, ist moralisch unvertretbar.

Dennoch findet man in der Frage der automatisierten und Algorithmen-gesteuerten Kriegsführung auch die bekannte "Martens-Klausel". Diese regelt – entgegen dem Glauben von neoliberalen Techno-Libertären – bewaffnete Konflikte.

Noch interessanter ist, dass es auch ethische Grundsätze des US-Verteidigungsministeriums zum "Kriegs-Einsatz von KI" gibt. Natürlich spricht das "defense.gov" mit der (un-)moralischen Autorität, zwei Atombomben abgeworfen zu haben, am Korea- und Vietnamkrieg beteiligt gewesen zu sein und Abu Ghraib unterhalten zu haben, in einem Krieg, der für "keine Massenvernichtungswaffen" im Irak geführt wurde.

Egal, ob innerhalb oder außerhalb von Kriegssituationen, heutige KI-Ingenieure beschäftigen sich eingehend mit dem moralischen Thema "Mensch gegen Maschine". Insgesamt verhalten sich Menschen in der Regel ethisch. Dennoch drängen sich zwei moralische Fragen auf:

  1. können wir menschliche Intelligenz in Maschinen reproduzieren? und
  2. unterscheiden sich "menschliche" und "maschinelle" Intelligenz grundlegend?

Weiterhin besteht einer der Hauptunterschiede zwischen uns und KI darin, dass wir leben und Maschinen nicht. Was wir "Leben" nennen, nennt KI "ein lebendes System". Damit ist ein System gemeint, das eine Handvoll Kriterien erfüllt, wie zum Beispiel:

  • Leben existiert innerhalb der Aufrechterhaltung eines gesellschaftlichen Gleichgewichtes;
  • Leben hat einen Lebenszyklus und betreibt Stoffwechsel;
  • Leben kann wachsen und sich seiner Umgebung anpassen;
  • Leben kann auf Umweltreize reagieren; und vielleicht am wichtigsten,
  • Leben kann sich reproduzieren und entwickeln.

Interessant ist auch die Tatsache, dass es einen Zweig der KI gibt, der "genetische Programmierung" genannt wird. Dessen Kern ist die Evolution, und das ganz unabhängig vom "Rucksackproblem des genetischen Programmierens".

Auch ohne genetisches Programmieren hat KI einen Einfluss auf das, was Moralphilosophie den "freien Willen" nennt. KI-Leute sind überzeugt davon, dass der wirkliche freie Wille keine Notwendigkeit und, in der Tat, keinen Platz in der Künstlichen Intelligenz hat.

Dabei sollten wir uns daran erinnern, dass Computer "deterministische Maschinen" sind, die ausschließlich den Anweisungen in ihrem Code folgen. KI hat keinen "freien Willen" – noch nicht!

KI-Maschinen mit menschenähnlichem "Bewusstsein"?

Die Moralität von KI bringt uns schließlich zu einem Punkt, der uns zwar in der näheren Zukunft möglicherweise noch nicht allzu sehr beschäftigen wird, langfristig jedoch die Frage aufwirft, ob KI-Maschinen irgendwann menschenähnliches "Bewusstsein" entwickeln könnte.

An diesem Punkt haben wir möglicherweise eine ethische Verpflichtung auch gegenüber KI-Maschinen und wie wir mit KI-Robotern umzugehen haben. Eine der vielen moralischen Fragen könnte sein: "können wir sie einfach ausschalten?".

Damit verbunden ist die Unterscheidung zwischen uns und KI, wobei wir Emotionen haben, KI aber nicht. Viele KI-Leute glauben, dass es nur sechs grundlegende menschliche Emotionen gibt: Wut, Ekel, Angst, Glück, Traurigkeit und Überraschung. Seltsamerweise scheint das sehr menschliche Gefühl der Liebe für das "Meer weißer Typen" keine menschliche Empfindung zu sein.

Etwas ernster wird es dann aber doch, wenn zum Beispiel Googles "Translator" den Satz "He is pregnant" korrekt in das ebenso unsinnige Deutsch "Er ist schwanger" übersetzt.

Vielleicht liegt Unsinn wie dieser einfach daran, dass KI Emotionen wie Schmerz und Leiden nicht erleben kann. Daraus könnte folgen, dass – egal, wie intelligent KI ist oder sein wird – KI keine Menschenrechte braucht und dass wir KI und Roboter wie jede andere Maschine behandeln können. Ein Küchenmixer hat keine Rechte.

Aber wie gehen wir dann mit intelligenten Maschinen um? An diesem Punkt kommt das berühmte ethische Gesetz von Robotik und KI ins Spiel. Im Jahr 1942 veröffentlichte Isaac Asimov seine renommierten Gesetze der Robotik. Diese drei Gesetze verlangen von Robotern, sich selbst zu schützen – es sei denn, dies steht im Widerspruch zu einer Anweisung eines Menschen – und diesen Anweisungen zu folgen, es sei denn, sie könnten einer Person Schaden zufügen. Die drei Gesetze sind:

1. Gesetz: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Gesetz: Ein Roboter muss den ihm von einem Menschen gegebenen Anweisungen gehorchen, es sei denn, ein solcher Befehl würde mit dem 1. Gesetz kollidieren.

3. Gesetz: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Gesetz eins oder zwei kollidiert.

Neben solchen frühen Versuchen, ein ethisches Gesetz für Roboter zu formulieren, gibt es in jüngerer Zeit die folgenden Ethikkodizes für künstliche Intelligenz:

  • die drei Gesetze der verantwortungsvollen Robotik der Ohio State University;
  • EPSRC / AHRCs fünf Prinzipien der Robotik;
  • BS 8611 Roboter und Robotergeräte: Leitfaden für die ethische Gestaltung und Anwendung von Robotern und Robotersystemen;
  • 23 Asilomar KI-Prinzipien; und schließlich,
  • die sieben wichtigsten ethischen Voraussetzungen der Europäischen Union für den Einsatz vertrauenswürdiger künstlicher Intelligenz.

Sie alle verweisen darauf, dass KI und Moral besonders im Bereich der Medizin – wo Moral und KI mit besonders problematischen Aspekten verbunden sind – essenziell sind. Dies führt fast zwangsläufig zu dem, was Moralphilosophie "fairness" – Gerechtigkeit nennt.

Ein anschauliches Beispiel, um Gerechtigkeit im KI Bereich zu beleuchten, ist das britische "Ofqual-System" zur Regulierung von Qualifikationen, bei dem Schüler aus armen staatlichen Schulen mit größerer Wahrscheinlichkeit ihre Noten herabgesetzt bekamen als Schüler aus reichen Privatschulen.

Noch gravierendere Dinge sind im Bereich der Polizeiarbeit zu finden, wo etwa die Vorhersage eines zukünftigen Verbrechens unter Verwendung historischer Daten nur vergangene Vorurteile aufrechterhält. Eines der Hauptprobleme ist, dass diejenigen, die KI nutzen, um aus der Geschichte zu lernen, dazu verdammt sind, sie zu wiederholen.

In der Tat ist das Thema jedoch weitaus ernster als die simple Wiederholung von Fehlern der Vergangenheit. KI-Ingenieure sind in der Lage, tückische Rückkopplungsschleifen zu konstruieren, in denen KI die Vorurteile der Vergangenheit verstärkt oder sogar potenziert. Insbesondere beim Thema Gerechtigkeit bei der Polizeiarbeit besteht die Gefahr, einen beim maschinellen Lernen recht häufigen Fehler zu machen: Menschen und KI Maschinen neigen dazu, Korrelation mit Kausalität zu verwechseln.

Im Bereich von Moral und Gerechtigkeit gibt es ganze 21 verschiedene mathematische Definitionen von Gerechtigkeit, die von der KI Community – the sea of white dudes – verwendet werden. Gerechtigkeit kann jedoch nicht über eine mathematische Definition verstanden werden. In Wirklichkeit hat Gerechtigkeit mehr mit dem zu tun, was der US-amerikanische Moral-Philosoph John Rawls "Gerechtigkeit als Fairness" nennt.

Fairness spielt auch bei KI-gesteuerter Spracherkennung eine Rolle. In heutigen Spracherkennungssystemen, wie sie beispielsweise von Amazon, Apple, Google, IBM und Microsoft entwickelt wurden, schneiden schwarz-afrikanische Sprecher deutlich schlechter ab als weiße US-Amerikaner.

Die durchschnittliche Wortfehlerrate der o.g. fünf Spracherkennungssysteme betrug 35 Prozent für schwarze US-Bürger, verglichen mit nur 19 Prozent für Weiße. Mit anderen Worten, KI–Systeme spiegeln die Vorurteile der Gesellschaft wider, in der sie vorhanden sind, sowie die Vorurteile derer, die diese Algorithmen entwickeln – the sea of white dudes.

Dies kann auch ein anderes wichtiges Thema für die – oft alleinstehenden – white KI dudes beeinflussen: das andere Geschlecht über das Internet kennenzulernen, mittlerweile die beliebteste Art der Partnerfindung in den USA. Apps wie Bumble, Tinder, OkCupid, Happn, Her, Match, eHarmony und Plenty of Fish sind nur einige nennenswerte Plattformen. Aber es gibt auch für fast jeden anderen Geschmack eine entsprechende App.

Probieren Sie "SaladMatch" aus, wenn Sie jemanden treffen möchten, der Ihren Geschmack für Salat teilt. Oder "Borsten", wenn Bärte dein Ding sind. "Glutenfreie Singles" für Menschen mit Zöliakie. Und "Amish-Dating" für die wenigen auserwählten Amish-Leute, die ein Smartphone benutzen.

In Zukunft wird unsere Gesellschaft zunehmend damit konfrontiert werden, dass immer mehr moralische Entscheidungen an Algorithmen abgegeben werden. Es ist offensichtlich, dass KI–Ingenieure – zumindest heute noch – keine moralischen Maschinen bauen können.

Der Zeitpunkt, an dem dies geschieht und KI den Menschen übertrifft, wird "KI-Singularität" genannt. Bis zu diesem Moment – wenn er jemals kommt – werden KI-Maschinen nicht in der Lage sein, menschliche und moralische Werte zu erfassen oder ihre Entscheidungen zu erklären – weder moralisch noch in anderweitigem Sinne.

In seinem kürzlich erschienenen Buch – Machines Behaving Badly: The Morality of AI – argumentiert einer der weltweit führenden KI-Experten, Toby Walsh, dass KI-Maschinen immer und immer nur Maschinen sein werden. Mit anderen Worten, menschliches KI ist – trotz aller sensationellen Behauptungen von Blake Lemoine – nirgendwo in Sicht.

Im Gegensatz zu uns haben KI-Maschinen keinen moralischen Kompass. Ein letzte moralische Frage bleibt jedoch bestehen. Wir wissen, dass Unternehmen – noch – keine moralischen KI-Maschinen bauen können. Trotzdem bleibt die Debatte, welche Entscheidungen KI-Maschinen überlassen werden sollten und welche nicht, in unserer Gesellschaft unumgänglich.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.