Die Moral der künstlichen Intelligenz

Maschinen können den Menschen schon heute beeinflussen. Da helfen auch moralische Werte nicht. Welche Fragen sich im Umgang mit KI nun stellen. Ein Essay.

Moral und künstliche Intelligenz haben eine umstrittene und vielleicht sogar eine antagonistische Beziehung. Künstliche Intelligenz (KI) selbst kann jedoch keine Moral haben – es geht um Maschinen.

Andererseits hat die Erschaffung von Künstlicher Intelligenz (coding) und ihre Anwendung durchaus moralische Implikationen. Einfach ausgedrückt ist KI ein ausgeklügelter Computercode, bestehend aus sequentiellen Gleichungen, die als Algorithmus formuliert sind. Der Begriff "Algorithmus" geht auf den mittelalterlichen persischen Mathematiker Al-Khwarizmial-gha-rizm – zurück.

Trotzdem geht es in diesem Artikel weder um Mathematik, Codierung oder das Schreiben von Algorithmen, noch um die Rechenlogik der künstlichen Intelligenz. Es geht um den Punkt, an dem KI und Moral zusammentreffen.

In gewisser Weise geht es auch um Moralphilosophien wie die des Philosophen Immanuel Kant, Aristoteles Tugendethik und den britischen Utilitarismus. Ferner betrifft Moral diejenigen, die KI entwickeln, und ebenso die Unternehmen, die KI einsetzen, um Profite zu erzielen.

Insbesondere die moralische Frage der menschlichen Autonomie steht mit AI im engen Zusammenhang. Die menschliche Handlungsfähigkeit kann durch den Einsatz von KI und Algorithmen reduziert worden. Unsere Gesellschaft hat schon heute viele Entscheidungen an KI übergeben, zum Beispiel bei der Frage: wie finde ich dieses oder jenes neue Restaurant?

Mit Algorithmen, die mit GPS in unseren Autos verknüpft sind, ist es fast unnötig, echte Menschen nach dem Weg zu fragen. Menschliche Kommunikation ist überflüssig geworden. Diese "Abgabe" von Entscheidungen führt zu der "Mensch gegen Maschine" Frage und zu ethischen Regeln, die in der KI bereits verwendet werden. Damit verbunden sind zwei wichtige Themen für die KI:

  1. Fairness – ist KI fair? und
  2. Privatsphäre – dringt KI in unsere Privatsphäre ein, wenn jemand etwa Kondome kauft?

Obwohl es in diesem Artikel um die Moral der künstlichen Intelligenz, Fairness und Privatsphäre geht, wurde dieser Artikel "noch" nicht von einem KI Programm, wie z.B. der berühmt-berüchtigten ChatGPT-Website für algorithmische Essays geschrieben. Es geht hier schließlich nicht darum, wie kürzlich der AI-Experte Wolfram über ChatGPT gesagt hat, einen Artikel schreiben zu lassen, der nicht viel mehr ist als die bloße Fortsetzung von dem, was ChatGPT im Internet gefunden hat.

Eines sollte jedoch angemerkt werden. KI-Maschinen sind keine "bewussten und moralischen" Roboter. Bisher sind KI-Ingenieure nicht – oder besser gesagt, "noch nicht!" – in der Lage, so etwas herzustellen. Gegenwärtige KI-Maschinen haben etwa die Intelligenz eines Zweijährigen.

KI mit einem moralischen Bewusstsein vergleichsweise zum menschlichen Gehirn wird im KI-Jargon "AGI" – artificial general intelligence – genannt. Bisher sind jedoch Algorithmus-gesteuerten KI-Programme immer noch relativ eng geschnitten und sehr stark auf spezifische Themenbereiche beschränkt.

Genauso wie etwa eine herkömmliche Kaffeemaschine – ein technischer Apparat also – hat auch KI keine Moral. Dennoch verwendet jede Person, die Siri/Alexa eine Frage stellt, KI – und stellt sich damit in gewisser Weise den moralischen Problemen, die diese Technologie mit sich bringt.

Gleichzeitig basieren genau diese KI Programme auf maschinellen Lernalgorithmen. Solche KI Programme können beispielsweise vorhersagen, welche Kriminelle erneut straffällig werden. Für die Moralphilosophie ist so etwas höchst problematisch.

Trotzdem gibt es noch immer das weit verbreitete Missverständnis, dass KI "eine" einzige Sache ist. Genauso wie unsere Intelligenz eine Sammlung verschiedenster Fähigkeiten darstellt, ist die gegenwärtige KI eine Ansammlung verschiedener Technologien.

Überraschenderweise geben selbst anerkannte KI-Ingenieure, selbst nach jahrzehntelanger Forschung im Bereich von KI und wohl auch ganz zu Recht, zu, dass sie bei der Entwicklung von AGI, die eine Vielzahl von verschiedenen menschlichen Problemen lösen könnte, die über einfache Intelligenz hinausgehen, praktisch "keine Fortschritte" gemacht haben. Vielfach beschränkt sich KI noch immer eher darauf, wie man z.B. den richtigen Weg zu einem Restaurant findet oder einen – oft eher oberflächlichen – Schulaufsatz schreibt.

Dennoch hat all das große Auswirkungen auf unsere Gesellschaft. Im Bereich von Politik zum Beispiel bewegen wir uns schon jetzt in einem von KI gesteuerten Minenfeld. In großem Stil zeigte sich dies im Jahr 2016 beim Brexit Referendum in Großbritannien und dann bei der Wahl von Donald Trump in den USA.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.