12 Zukunftsszenarien: So könnte uns KI helfen – oder vernichten

KI-Chip begrenzt zum Licht

Der Physiker Max Tegmark analysiert mögliche Auswirkungen von KI auf die Menschheit – von der Utopie bis zur Dystopie. Wir stellen zwölf Szenarien vor. (Teil 1)

Spätestens mit ChatGPT und Large Language Modellen ist klar geworden, dass die KI unser aller Leben gravierend verändern wird. Doch wie genau – das ist alles andere als offensichtlich. In seinem Buch "Life 3.0: Being Human in the Age of Artificial Intelligence" beschreibt der Physiker und KI-Forscher Max Tegmark mögliche Entwicklungen, die uns mit einer immer klügeren KI erwarten könnten.

Die Zukunftsszenarien reichen von optimistischen Utopien bis hin zu düsteren Schreckensvisionen und spiegeln die Vielzahl der möglichen Auswirkungen wider, die KI auf Gesellschaft, Wirtschaft und das menschliche Dasein haben könnte.

Während einige Szenarien eine Welt skizzieren, in der KI als mächtiges Werkzeug eingesetzt wird, um die größten Herausforderungen der Menschheit zu bewältigen, thematisieren andere die Risiken und ethischen Dilemmata, die mit einer unkontrollierten oder zum Schaden der Menschheit eingesetzten KI einhergehen könnten.

Die hier vorgestellten zwölf Szenarien basieren auf Tegmarks Analysen und sind als Denkanstöße gedacht. Sie können uns helfen, die möglichen Pfade, die vor uns liegen, besser zu verstehen und kritisch zu überdenken. Wer sich die verschiedenen Möglichkeiten vor Augen führt, gewinnt ein Verständnis dafür, wie wir die Entwicklung der künstlichen Intelligenz gestalten wollen und welche Herausforderungen dabei zu bewältigen sind.

Gruppe 1 – Die Superintelligenz wird nicht erreicht

Eine erste Gruppe bilden Szenarien, in denen eine intelligente KI zwar möglich ist, aber aus unterschiedlichen Gründen nicht realisiert wird bzw. nicht an die Macht kommt.

Szenario 1: Die Menschheit löscht sich selbst aus

Eine superintelligente KI wird nie erreicht – denn die Menschheit wird ausgelöscht oder löscht sich selbst aus. Möglich wäre dies durch eine nukleare oder biotechnologische Katastrophe oder eine nicht bewältigte Klimakrise. Oder durch menschliche Dummheit.

Die Superintelligenz wird in diesem Szenario nie erschaffen, weil die Menschheit sich auf andere Weise selbst eliminiert. Dafür gibt es viele Möglichkeiten: Von Asteroideneinschlägen bis hin zu tödlichen Pandemien und dem Klimawandel – all diese Herausforderungen benötigen technologische Lösungen. Wenn wir diese nicht entwickeln, könnte die Natur uns vernichten.

Naturkatastrophen sind aber nur eine Option. Die Menschheit kann sich auch selbst, etwa durch kollektive Dummheit, zerstören. Menschen haben oft mit Fehleinschätzungen, Missverständnissen und Inkompetenz zu kämpfen. Unsere Geschichte ist voll von Unfällen, Kriegen und Katastrophen, die niemand beabsichtigt hat.

Aktuell gilt ein Atomkrieg als eine der größten Bedrohungen. Die Auswirkungen eines solchen globalen Kriegs wären verheerend – und könnten letztendlich zum Ende der Menschheit führen.

Bisher haben zahlreiche Zufälle und glückliche Umstände Katastrophen verhindert. Doch das muss nicht immer so sein. Die Menschheit könnte abrupt enden – und eine superschlaue KI damit erst gar nicht entstehen.

Szenario 2: Der technologische Fortschritt wird gestoppt

Der technologische Fortschritt hin zu einer Superintelligenz wird durch einen Rückfall in eine prätechnologische Gesellschaft verhindert.

Vielleicht kommt die Menschheit zum Schluss, dass ihr eine Superintelligenz gefährlich werden könnte. Dann könnte sie Forschung und Entwicklung stoppen und zu primitiver Technologie zurückkehren – sei es gezwungen oder freiwillig. Historisches Vorbild sind die Amish People, die sich jeglicher fortschrittlicher Technologie verweigern.

Die Rückkehr zu einem einfachen landwirtschaftlichen Lebensstil könnte beispielsweise notwendig werden, nachdem die Weltbevölkerung durch eine Pandemie drastisch reduziert wurde und fortschrittliche Technologie ausgelöscht wurde.

Alle Spuren früherer Technologien würden dann verschwinden, und die Menschheit frei von künstlicher Intelligenz oder Totalitarismus leben – in einfaches, aber vielleicht glückliches Leben.

Die Geschichte ist voller Beispiele für Rückfälle in primitivere Technologien. Zum Beispiel wurden einige Technologien, die sich im Römischen Reich etabliert haben und bis zu ihrem Zusammenbruch existierten, bis zu ihrer Wiederentdeckung in der Renaissance weitgehend vergessen.

Es ist jedoch unwahrscheinlich, dass dieses Umkehr-Szenario dauerhaft anhalten wird, ohne dass die Menschheit entweder Hochtechnologie entwickelt oder ausstirbt.

Szenario 3: 1984 – Ein Überwachungsstaat schränkt KI ein

Eine Superintelligenz wird durch einen von Menschen geführten Überwachungsstaat im Stil von Orwells 1984 dauerhaft eingeschränkt, indem bestimmte Arten von KI-Forschung verboten sind.

In diesem Szenario führt die staatliche Kontrolle dazu, dass die Menschheit auf einem bestimmten technologischen Niveau bleibt und keine Superintelligenz entwickelt wird. Notwendig dafür ist ein Überwachungsstaat im Stil von 1984. Dieser Staat überwacht und kontrolliert alle Aspekte der Gesellschaft und verbietet bestimmte Arten von KI-Forschung, um den technologischen Fortschritt einzuschränken.

Das Szenario basiert auf dem Gedanken, dass ein breiter Verzicht auf Technologie nur durch eine totalitäre Regierung durchsetzbar ist. Die Annahmen ist, dass nur eine solche Regierung in der Lage ist, den Verzicht auf transformative Technologien weltweit durchzusetzen.

Würden nämlich einige Länder oder Gruppen auf diese Technologien verzichten, während andere sie weiterentwickeln, könnten letztere genug Macht und Reichtum erlangen, um die Kontrolle zu übernehmen. Um dies zu verhindern, wird die technologische Entwicklung streng reguliert.

Historische Beispiele zeigen, dass Versuche, den technologischen Fortschritt aufzuhalten, eine lange Tradition haben. So leistete die ludditische Bewegung in Großbritannien während der industriellen Revolution Widerstand gegen die Einführung von Maschinen, die ihre Arbeitsplätze bedrohten.

Auch heute gibt es Bewegungen, die gegen bestimmte Technologien kämpfen, wie die Techlash- und Umweltbewegungen.

Die Zukunft der KI, Teil 2: Die KI übernimmt die Macht