Die Angst vor KI ist übertrieben – und hier ist der Grund dafür

Ein generatives KI-Selbstporträt von DALL-E. Bild: Dries Buytaert / CC BY-NC 4.0

Revolutioniert Künstliche Intelligenz unser Leben und führt zum Verlust von Millionen Arbeitsplätzen? Was steckt hinter dem Hype? Und warum sehen Kritiker in ChatGPT & Co. eine neue Banalität des Bösen entstehen?

Die beispiellose Popularität von ChatGPT hat die KI-Hype-Maschine in Schwung gebracht. Wir werden täglich mit Nachrichtenartikeln bombardiert, in denen die größte Erfindung der Menschheit angekündigt wird – die Künstliche Intelligenz (KI).

KI ist "qualitativ anders", "umwälzend", "revolutionär", "wird alles verändern", heißt es. OpenAI, das Unternehmen, das hinter ChatGPT steht, hat ein umfangreiches Upgrade der Technologie hinter ChatGPT namens GPT4 angekündigt. Microsoft-Forscher behaupten bereits, dass GPT4 "Elemente von künstlicher allgemeiner Intelligenz" oder menschenähnlicher Intelligenz zeigt – der heilige Gral der KI-Forschung.

Bappa Sinha ist Technologietheoretiker, der über die Auswirkungen von Technologie auf Gesellschaft und Politik forscht.

Es werden fantastische Behauptungen über das Erreichen des Punktes der "KI-Singularität" aufgestellt, an dem Maschinen der menschlichen Intelligenz ebenbürtig sind und diese dann übertreffen.

In der Wirtschaftspresse ist von Hunderten von Millionen von Arbeitsplätzen die Rede, die durch KI in einer ganzen Reihe von Berufen ersetzt würden. Andere befürchten eine Science-Fiction-ähnliche nahe Zukunft, in der die superintelligente KI ausbricht und die Menschheit vernichtet oder versklavt. Entsprechen diese Vorhersagen der Realität, oder handelt es sich nur um einen übertriebenen Hype, den die Tech-Industrie und das Marketing rund um Virtual Commissioning (virtuelle Inbetriebnahme) so gut verkaufen können?

Die aktuelle Generation von KI-Modellen basiert auf sogenannten "neuronalen Netzen". Während der Begriff "neuronal" Bilder eines künstlichen Gehirns heraufbeschwört, das mit Computerchips simuliert wird, ist die Realität der KI, dass neuronale Netze nichts damit zu tun haben, wie das menschliche Gehirn tatsächlich funktioniert.

Diese sogenannten neuronalen Netze haben keine Ähnlichkeit mit dem Netzwerk der Neuronen im Gehirn. Diese Terminologie war jedoch ein wichtiger Grund dafür, dass die Rede von künstlichen "neuronalen Netze" trotz ihrer gravierenden Einschränkungen und Mängel populär und weitverbreitet wurde.

Die derzeit verwendeten Algorithmen des "maschinellen Lernens" sind eine Erweiterung der statistischen Methoden, für die es keine theoretische Rechtfertigung gibt. Traditionelle statistische Methoden haben den Vorzug der Einfachheit. Es ist leicht zu verstehen, was sie tun, wann und warum sie funktionieren.

Sie sind mit der mathematischen Gewissheit verbunden, dass die Ergebnisse ihrer Analyse unter ganz bestimmten Bedingungen aussagekräftig sind. Da die reale Welt kompliziert ist, treffen diese Bedingungen nie zu, sodass statistische Vorhersagen nur selten zutreffend sind.

Wirtschaftswissenschaftler, Epidemiologen und Statistiker sind sich dessen bewusst und wenden die Statistik intuitiv an, um für bestimmte Zwecke und in bestimmten Kontexten eine ungefähre Orientierung zu erhalten. Diese Vorbehalte werden oft übersehen, was zum Missbrauch traditioneller statistischer Methoden mit manchmal katastrophalen Folgen führt, wie bei der großen Finanzkrise 2008 oder der Pleite des Hedge-Fonds Long-Term Capital Management im Jahr 1998, die fast zum Zusammenbruch des globalen Finanzsystems geführt hätte. Denken Sie an das berühmte Zitat von Mark Twain: "Lügen, verdammte Lügen und Statistik".

Das maschinelle Lernen beruht auf der völligen Abkehr von der Vorsicht, die mit der umsichtigen Anwendung statistischer Methoden verbunden sein sollte. Die reale Welt ist unübersichtlich und chaotisch und kann daher nicht mit herkömmlichen statistischen Methoden modelliert werden.

Die Antwort aus der Welt der KI besteht also darin, jeden Anspruch auf eine theoretische Begründung aufzugeben, warum und wie diese KI-Modelle, die um Größenordnungen komplizierter sind als herkömmliche statistische Methoden, funktionieren sollten. Die Freiheit von diesen prinzipiellen Beschränkungen macht das KI-Modell "leistungsfähiger". Sie sind in der Tat ausgeklügelte und komplizierte Kurvenanpassungsübungen, die empirisch auf beobachtete Daten passen, ohne dass wir die zugrunde liegenden Beziehungen verstehen.

Aber es stimmt auch, dass diese KI-Modelle manchmal Dinge erledigen können, die mit keiner anderen Technologie möglich sind. Manche Ergebnisse sind verblüffend, wie etwa die Texte, die ChatGPT generieren, oder die Bilder, die DALL-E erzeugen kann. Das ist fantastisch, um die Leute zu begeistern und einen Hype zu erzeugen.

Der Grund, warum sie "so gut" funktionieren, ist die unglaubliche Menge an Trainingsdaten – genug, um fast alle von Menschen erstellten Texte und Bilder abzudecken. Selbst mit dieser Menge an Trainingsdaten und Milliarden von Parametern funktionieren die KI-Modelle nicht spontan, sondern erfordern komplizierte Ad-hoc-Hilfskonstruktionen, um die gewünschten Ergebnisse zu erzielen.

Trotz all dieser Vorrichtungen entwickeln die Modelle oft falsche Korrelationen, d. h. sie funktionieren auf der Grundlage einer korrumpierten Basis. So wurde beispielsweise berichtet, dass viele Bildverarbeitungsmodelle Übereinstimmungen ausnutzen, die mit der Bildtextur, dem Hintergrund, dem Winkel des Fotos und bestimmten Merkmalen zusammenhängen.