Die Angst vor KI ist übertrieben – und hier ist der Grund dafür
Revolutioniert Künstliche Intelligenz unser Leben und führt zum Verlust von Millionen Arbeitsplätzen? Was steckt hinter dem Hype? Und warum sehen Kritiker in ChatGPT & Co. eine neue Banalität des Bösen entstehen?
Die beispiellose Popularität von ChatGPT hat die KI-Hype-Maschine in Schwung gebracht. Wir werden täglich mit Nachrichtenartikeln bombardiert, in denen die größte Erfindung der Menschheit angekündigt wird – die Künstliche Intelligenz (KI).
KI ist "qualitativ anders", "umwälzend", "revolutionär", "wird alles verändern", heißt es. OpenAI, das Unternehmen, das hinter ChatGPT steht, hat ein umfangreiches Upgrade der Technologie hinter ChatGPT namens GPT4 angekündigt. Microsoft-Forscher behaupten bereits, dass GPT4 "Elemente von künstlicher allgemeiner Intelligenz" oder menschenähnlicher Intelligenz zeigt – der heilige Gral der KI-Forschung.
Es werden fantastische Behauptungen über das Erreichen des Punktes der "KI-Singularität" aufgestellt, an dem Maschinen der menschlichen Intelligenz ebenbürtig sind und diese dann übertreffen.
In der Wirtschaftspresse ist von Hunderten von Millionen von Arbeitsplätzen die Rede, die durch KI in einer ganzen Reihe von Berufen ersetzt würden. Andere befürchten eine Science-Fiction-ähnliche nahe Zukunft, in der die superintelligente KI ausbricht und die Menschheit vernichtet oder versklavt. Entsprechen diese Vorhersagen der Realität, oder handelt es sich nur um einen übertriebenen Hype, den die Tech-Industrie und das Marketing rund um Virtual Commissioning (virtuelle Inbetriebnahme) so gut verkaufen können?
Die aktuelle Generation von KI-Modellen basiert auf sogenannten "neuronalen Netzen". Während der Begriff "neuronal" Bilder eines künstlichen Gehirns heraufbeschwört, das mit Computerchips simuliert wird, ist die Realität der KI, dass neuronale Netze nichts damit zu tun haben, wie das menschliche Gehirn tatsächlich funktioniert.
Diese sogenannten neuronalen Netze haben keine Ähnlichkeit mit dem Netzwerk der Neuronen im Gehirn. Diese Terminologie war jedoch ein wichtiger Grund dafür, dass die Rede von künstlichen "neuronalen Netze" trotz ihrer gravierenden Einschränkungen und Mängel populär und weitverbreitet wurde.
Die derzeit verwendeten Algorithmen des "maschinellen Lernens" sind eine Erweiterung der statistischen Methoden, für die es keine theoretische Rechtfertigung gibt. Traditionelle statistische Methoden haben den Vorzug der Einfachheit. Es ist leicht zu verstehen, was sie tun, wann und warum sie funktionieren.
Sie sind mit der mathematischen Gewissheit verbunden, dass die Ergebnisse ihrer Analyse unter ganz bestimmten Bedingungen aussagekräftig sind. Da die reale Welt kompliziert ist, treffen diese Bedingungen nie zu, sodass statistische Vorhersagen nur selten zutreffend sind.
Wirtschaftswissenschaftler, Epidemiologen und Statistiker sind sich dessen bewusst und wenden die Statistik intuitiv an, um für bestimmte Zwecke und in bestimmten Kontexten eine ungefähre Orientierung zu erhalten. Diese Vorbehalte werden oft übersehen, was zum Missbrauch traditioneller statistischer Methoden mit manchmal katastrophalen Folgen führt, wie bei der großen Finanzkrise 2008 oder der Pleite des Hedge-Fonds Long-Term Capital Management im Jahr 1998, die fast zum Zusammenbruch des globalen Finanzsystems geführt hätte. Denken Sie an das berühmte Zitat von Mark Twain: "Lügen, verdammte Lügen und Statistik".
Das maschinelle Lernen beruht auf der völligen Abkehr von der Vorsicht, die mit der umsichtigen Anwendung statistischer Methoden verbunden sein sollte. Die reale Welt ist unübersichtlich und chaotisch und kann daher nicht mit herkömmlichen statistischen Methoden modelliert werden.
Die Antwort aus der Welt der KI besteht also darin, jeden Anspruch auf eine theoretische Begründung aufzugeben, warum und wie diese KI-Modelle, die um Größenordnungen komplizierter sind als herkömmliche statistische Methoden, funktionieren sollten. Die Freiheit von diesen prinzipiellen Beschränkungen macht das KI-Modell "leistungsfähiger". Sie sind in der Tat ausgeklügelte und komplizierte Kurvenanpassungsübungen, die empirisch auf beobachtete Daten passen, ohne dass wir die zugrunde liegenden Beziehungen verstehen.
Aber es stimmt auch, dass diese KI-Modelle manchmal Dinge erledigen können, die mit keiner anderen Technologie möglich sind. Manche Ergebnisse sind verblüffend, wie etwa die Texte, die ChatGPT generieren, oder die Bilder, die DALL-E erzeugen kann. Das ist fantastisch, um die Leute zu begeistern und einen Hype zu erzeugen.
Der Grund, warum sie "so gut" funktionieren, ist die unglaubliche Menge an Trainingsdaten – genug, um fast alle von Menschen erstellten Texte und Bilder abzudecken. Selbst mit dieser Menge an Trainingsdaten und Milliarden von Parametern funktionieren die KI-Modelle nicht spontan, sondern erfordern komplizierte Ad-hoc-Hilfskonstruktionen, um die gewünschten Ergebnisse zu erzielen.
Trotz all dieser Vorrichtungen entwickeln die Modelle oft falsche Korrelationen, d. h. sie funktionieren auf der Grundlage einer korrumpierten Basis. So wurde beispielsweise berichtet, dass viele Bildverarbeitungsmodelle Übereinstimmungen ausnutzen, die mit der Bildtextur, dem Hintergrund, dem Winkel des Fotos und bestimmten Merkmalen zusammenhängen.
Der Mythos der Schaffung von Intelligenz
Diese KI-Modelle liefern dann in unkontrollierten Situationen schlechte Ergebnisse. Ein Sofa mit Leopardenmuster würde zum Beispiel als Leopard identifiziert werden; die Modelle funktionieren nicht, wenn den Bildern eine winzige Menge an festen, für den Menschen nicht erkennbaren Mustern hinzugefügt wird oder die Bilder gedreht werden, z. B. bei einem Auto, das nach einem Unfall auf dem Kopf steht.
ChatGPT ist trotz seiner beeindruckenden Prosa, Poesie und Essays nicht in der Lage, eine einfache Multiplikation zweier großer Zahlen durchzuführen, was ein Taschenrechner aus den 1970er-Jahren problemlos kann.
Die KI-Modelle verfügen über kein menschenähnliches Verständnis, sind aber sehr gut darin, Menschen zu imitieren und ihnen vorzugaukeln, sie seien intelligent, indem sie den riesigen Textschatz nachplappern, den sie aufgenommen haben. Deswegen bezeichnete die Computerlinguistin Emily Bender die großen Sprachmodelle wie ChatGPT und Googles BART und BERT in einem Papier aus dem Jahr 2021 als "stochastische Papageien", als Zufallsmaschinen. Ihre Google-Co-Autoren – Timnit Gebru und Margaret Mitchell – wurden aufgefordert, ihre Namen aus dem Papier zu entfernen. Als sie sich weigerten, wurden sie von Google gefeuert.
Diese Kritik richtet sich nicht nur gegen die aktuellen großen Sprachmodelle, sondern gegen das gesamte Paradigma, mit dem versucht wird, künstliche Intelligenz zu entwickeln. Wir werden nicht dadurch gut, dass wir über etwas lesen, sondern durch Übung, indem wir sehen, was funktioniert und was nicht.
Das gilt sogar für rein intellektuelle Aufgaben wie Lesen und Schreiben. Selbst in formalen Disziplinen wie Mathematik kann man nicht gut werden, ohne sie zu üben. Die KI-Modelle haben keinen ihnen eigenen Zweck. Sie können daher weder einen Sinn verstehen noch sinnvolle Texte oder Bilder produzieren. Viele KI-Kritiker haben argumentiert, dass echte Intelligenz soziale "Situiertheit" erfordert.
Physikalische Dinge in der realen Welt zu tun, erfordert den Umgang mit Komplexität, Nichtlinearität und Chaos. Dazu gehört auch die Übung, diese Dinge tatsächlich zu tun. Ebendarum ist der Fortschritt in der Robotik äußerst langsam: Aktuelle Roboter können nur feste, sich wiederholende Aufgaben mit identischen, starren Objekten erledigen, wie z. B. am Fließband. Selbst nach jahrelangem Hype um fahrerlose Autos und enormen Forschungsgeldern scheint voll automatisiertes Fahren in naher Zukunft noch immer nicht machbar zu sein.
Die derzeitige KI-Entwicklung, die auf der Erkennung statistischer Korrelationen mithilfe von "neuronalen Netzen" basiert, die als Blackboxes behandelt werden, fördert einen pseudowissenschaftlichen Mythos der Schaffung von Intelligenz auf Kosten der Entwicklung eines wissenschaftlichen Verständnisses dessen, wie und warum diese Netze funktionieren.
Stattdessen wird der Schwerpunkt auf Spektakel gelegt, wie z. B. die Erstellung beeindruckender Präsentationen und das Abschneiden in standardisierten Tests auf der Grundlage von auswendig gelernten Daten.
Die einzigen nennenswerten kommerziellen Anwendungsfälle der aktuellen Versionen der KI sind die Werbung: die gezielte Ansprache von Käufern für soziale Medien und Videostreaming-Plattformen. Das erfordert nicht das hohe Maß an Zuverlässigkeit, das von anderen technischen Lösungen verlangt wird. Sie müssen einfach nur "gut genug" sein. Und schlechte Ergebnisse, wie die Verbreitung von Fake News und die Schaffung von hasserfüllten Filterblasen, bleiben weitgehend unbestraft.
Ein Silberstreif am Horizont ist vielleicht, dass angesichts der schlechten Aussichten auf eine KI-Singularität die Angst vor superintelligenten, bösartigen KIs, die die Menschheit zerstören, übertrieben ist. Das ist jedoch ein schwacher Trost für diejenigen, die von "KI-Entscheidungssystemen" betroffen sind.
Es gibt bereits zahlreiche Beispiele dafür, dass KI-Entscheidungssysteme Menschen auf der ganzen Welt berechtigte Versicherungsansprüche, medizinische und Krankenhausleistungen sowie staatliche Sozialleistungen verweigern. In den Vereinigten Staaten sind KI-Systeme an der Inhaftierung von Minderheiten zu längeren Haftstrafen beteiligt.
Es gibt sogar Berichte über den Entzug der Sorgerechte für Kinder von Minderheiteneltern auf der Grundlage falscher statistischer Daten, die oft darauf hinauslaufen, dass sie nicht genug Geld haben, um ihre Kinder angemessen zu ernähren und zu versorgen. Und natürlich auf die Förderung von Hassreden in den sozialen Medien. Wie der bekannte Linguist Noam Chomsky kürzlich in einem Artikel schrieb, "zeigt ChatGPT so etwas wie die Banalität des Bösen: Plagiat, Apathie und Verharmlosung".
Der Artikel erscheint in Kooperation mit Globetrotter. Übersetzung: David Goeßmann