Die Moral der künstlichen Intelligenz

Seite 4: KI-Maschinen mit menschenähnlichem "Bewusstsein"?

Die Moralität von KI bringt uns schließlich zu einem Punkt, der uns zwar in der näheren Zukunft möglicherweise noch nicht allzu sehr beschäftigen wird, langfristig jedoch die Frage aufwirft, ob KI-Maschinen irgendwann menschenähnliches "Bewusstsein" entwickeln könnte.

An diesem Punkt haben wir möglicherweise eine ethische Verpflichtung auch gegenüber KI-Maschinen und wie wir mit KI-Robotern umzugehen haben. Eine der vielen moralischen Fragen könnte sein: "können wir sie einfach ausschalten?".

Damit verbunden ist die Unterscheidung zwischen uns und KI, wobei wir Emotionen haben, KI aber nicht. Viele KI-Leute glauben, dass es nur sechs grundlegende menschliche Emotionen gibt: Wut, Ekel, Angst, Glück, Traurigkeit und Überraschung. Seltsamerweise scheint das sehr menschliche Gefühl der Liebe für das "Meer weißer Typen" keine menschliche Empfindung zu sein.

Etwas ernster wird es dann aber doch, wenn zum Beispiel Googles "Translator" den Satz "He is pregnant" korrekt in das ebenso unsinnige Deutsch "Er ist schwanger" übersetzt.

Vielleicht liegt Unsinn wie dieser einfach daran, dass KI Emotionen wie Schmerz und Leiden nicht erleben kann. Daraus könnte folgen, dass – egal, wie intelligent KI ist oder sein wird – KI keine Menschenrechte braucht und dass wir KI und Roboter wie jede andere Maschine behandeln können. Ein Küchenmixer hat keine Rechte.

Aber wie gehen wir dann mit intelligenten Maschinen um? An diesem Punkt kommt das berühmte ethische Gesetz von Robotik und KI ins Spiel. Im Jahr 1942 veröffentlichte Isaac Asimov seine renommierten Gesetze der Robotik. Diese drei Gesetze verlangen von Robotern, sich selbst zu schützen – es sei denn, dies steht im Widerspruch zu einer Anweisung eines Menschen – und diesen Anweisungen zu folgen, es sei denn, sie könnten einer Person Schaden zufügen. Die drei Gesetze sind:

1. Gesetz: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Gesetz: Ein Roboter muss den ihm von einem Menschen gegebenen Anweisungen gehorchen, es sei denn, ein solcher Befehl würde mit dem 1. Gesetz kollidieren.

3. Gesetz: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Gesetz eins oder zwei kollidiert.

Neben solchen frühen Versuchen, ein ethisches Gesetz für Roboter zu formulieren, gibt es in jüngerer Zeit die folgenden Ethikkodizes für künstliche Intelligenz:

  • die drei Gesetze der verantwortungsvollen Robotik der Ohio State University;
  • EPSRC / AHRCs fünf Prinzipien der Robotik;
  • BS 8611 Roboter und Robotergeräte: Leitfaden für die ethische Gestaltung und Anwendung von Robotern und Robotersystemen;
  • 23 Asilomar KI-Prinzipien; und schließlich,
  • die sieben wichtigsten ethischen Voraussetzungen der Europäischen Union für den Einsatz vertrauenswürdiger künstlicher Intelligenz.

Sie alle verweisen darauf, dass KI und Moral besonders im Bereich der Medizin – wo Moral und KI mit besonders problematischen Aspekten verbunden sind – essenziell sind. Dies führt fast zwangsläufig zu dem, was Moralphilosophie "fairness" – Gerechtigkeit nennt.

Ein anschauliches Beispiel, um Gerechtigkeit im KI Bereich zu beleuchten, ist das britische "Ofqual-System" zur Regulierung von Qualifikationen, bei dem Schüler aus armen staatlichen Schulen mit größerer Wahrscheinlichkeit ihre Noten herabgesetzt bekamen als Schüler aus reichen Privatschulen.

Noch gravierendere Dinge sind im Bereich der Polizeiarbeit zu finden, wo etwa die Vorhersage eines zukünftigen Verbrechens unter Verwendung historischer Daten nur vergangene Vorurteile aufrechterhält. Eines der Hauptprobleme ist, dass diejenigen, die KI nutzen, um aus der Geschichte zu lernen, dazu verdammt sind, sie zu wiederholen.

In der Tat ist das Thema jedoch weitaus ernster als die simple Wiederholung von Fehlern der Vergangenheit. KI-Ingenieure sind in der Lage, tückische Rückkopplungsschleifen zu konstruieren, in denen KI die Vorurteile der Vergangenheit verstärkt oder sogar potenziert. Insbesondere beim Thema Gerechtigkeit bei der Polizeiarbeit besteht die Gefahr, einen beim maschinellen Lernen recht häufigen Fehler zu machen: Menschen und KI Maschinen neigen dazu, Korrelation mit Kausalität zu verwechseln.

Im Bereich von Moral und Gerechtigkeit gibt es ganze 21 verschiedene mathematische Definitionen von Gerechtigkeit, die von der KI Community – the sea of white dudes – verwendet werden. Gerechtigkeit kann jedoch nicht über eine mathematische Definition verstanden werden. In Wirklichkeit hat Gerechtigkeit mehr mit dem zu tun, was der US-amerikanische Moral-Philosoph John Rawls "Gerechtigkeit als Fairness" nennt.

Fairness spielt auch bei KI-gesteuerter Spracherkennung eine Rolle. In heutigen Spracherkennungssystemen, wie sie beispielsweise von Amazon, Apple, Google, IBM und Microsoft entwickelt wurden, schneiden schwarz-afrikanische Sprecher deutlich schlechter ab als weiße US-Amerikaner.

Die durchschnittliche Wortfehlerrate der o.g. fünf Spracherkennungssysteme betrug 35 Prozent für schwarze US-Bürger, verglichen mit nur 19 Prozent für Weiße. Mit anderen Worten, KI–Systeme spiegeln die Vorurteile der Gesellschaft wider, in der sie vorhanden sind, sowie die Vorurteile derer, die diese Algorithmen entwickeln – the sea of white dudes.

Dies kann auch ein anderes wichtiges Thema für die – oft alleinstehenden – white KI dudes beeinflussen: das andere Geschlecht über das Internet kennenzulernen, mittlerweile die beliebteste Art der Partnerfindung in den USA. Apps wie Bumble, Tinder, OkCupid, Happn, Her, Match, eHarmony und Plenty of Fish sind nur einige nennenswerte Plattformen. Aber es gibt auch für fast jeden anderen Geschmack eine entsprechende App.

Probieren Sie "SaladMatch" aus, wenn Sie jemanden treffen möchten, der Ihren Geschmack für Salat teilt. Oder "Borsten", wenn Bärte dein Ding sind. "Glutenfreie Singles" für Menschen mit Zöliakie. Und "Amish-Dating" für die wenigen auserwählten Amish-Leute, die ein Smartphone benutzen.

In Zukunft wird unsere Gesellschaft zunehmend damit konfrontiert werden, dass immer mehr moralische Entscheidungen an Algorithmen abgegeben werden. Es ist offensichtlich, dass KI–Ingenieure – zumindest heute noch – keine moralischen Maschinen bauen können.

Der Zeitpunkt, an dem dies geschieht und KI den Menschen übertrifft, wird "KI-Singularität" genannt. Bis zu diesem Moment – wenn er jemals kommt – werden KI-Maschinen nicht in der Lage sein, menschliche und moralische Werte zu erfassen oder ihre Entscheidungen zu erklären – weder moralisch noch in anderweitigem Sinne.

In seinem kürzlich erschienenen Buch – Machines Behaving Badly: The Morality of AI – argumentiert einer der weltweit führenden KI-Experten, Toby Walsh, dass KI-Maschinen immer und immer nur Maschinen sein werden. Mit anderen Worten, menschliches KI ist – trotz aller sensationellen Behauptungen von Blake Lemoine – nirgendwo in Sicht.

Im Gegensatz zu uns haben KI-Maschinen keinen moralischen Kompass. Ein letzte moralische Frage bleibt jedoch bestehen. Wir wissen, dass Unternehmen – noch – keine moralischen KI-Maschinen bauen können. Trotzdem bleibt die Debatte, welche Entscheidungen KI-Maschinen überlassen werden sollten und welche nicht, in unserer Gesellschaft unumgänglich.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.