Die Angst vor KI ist übertrieben – und hier ist der Grund dafür

Seite 2: Der Mythos der Schaffung von Intelligenz

Diese KI-Modelle liefern dann in unkontrollierten Situationen schlechte Ergebnisse. Ein Sofa mit Leopardenmuster würde zum Beispiel als Leopard identifiziert werden; die Modelle funktionieren nicht, wenn den Bildern eine winzige Menge an festen, für den Menschen nicht erkennbaren Mustern hinzugefügt wird oder die Bilder gedreht werden, z. B. bei einem Auto, das nach einem Unfall auf dem Kopf steht.

ChatGPT ist trotz seiner beeindruckenden Prosa, Poesie und Essays nicht in der Lage, eine einfache Multiplikation zweier großer Zahlen durchzuführen, was ein Taschenrechner aus den 1970er-Jahren problemlos kann.

Die KI-Modelle verfügen über kein menschenähnliches Verständnis, sind aber sehr gut darin, Menschen zu imitieren und ihnen vorzugaukeln, sie seien intelligent, indem sie den riesigen Textschatz nachplappern, den sie aufgenommen haben. Deswegen bezeichnete die Computerlinguistin Emily Bender die großen Sprachmodelle wie ChatGPT und Googles BART und BERT in einem Papier aus dem Jahr 2021 als "stochastische Papageien", als Zufallsmaschinen. Ihre Google-Co-Autoren – Timnit Gebru und Margaret Mitchell – wurden aufgefordert, ihre Namen aus dem Papier zu entfernen. Als sie sich weigerten, wurden sie von Google gefeuert.

Diese Kritik richtet sich nicht nur gegen die aktuellen großen Sprachmodelle, sondern gegen das gesamte Paradigma, mit dem versucht wird, künstliche Intelligenz zu entwickeln. Wir werden nicht dadurch gut, dass wir über etwas lesen, sondern durch Übung, indem wir sehen, was funktioniert und was nicht.

Das gilt sogar für rein intellektuelle Aufgaben wie Lesen und Schreiben. Selbst in formalen Disziplinen wie Mathematik kann man nicht gut werden, ohne sie zu üben. Die KI-Modelle haben keinen ihnen eigenen Zweck. Sie können daher weder einen Sinn verstehen noch sinnvolle Texte oder Bilder produzieren. Viele KI-Kritiker haben argumentiert, dass echte Intelligenz soziale "Situiertheit" erfordert.

Physikalische Dinge in der realen Welt zu tun, erfordert den Umgang mit Komplexität, Nichtlinearität und Chaos. Dazu gehört auch die Übung, diese Dinge tatsächlich zu tun. Ebendarum ist der Fortschritt in der Robotik äußerst langsam: Aktuelle Roboter können nur feste, sich wiederholende Aufgaben mit identischen, starren Objekten erledigen, wie z. B. am Fließband. Selbst nach jahrelangem Hype um fahrerlose Autos und enormen Forschungsgeldern scheint voll automatisiertes Fahren in naher Zukunft noch immer nicht machbar zu sein.

Die derzeitige KI-Entwicklung, die auf der Erkennung statistischer Korrelationen mithilfe von "neuronalen Netzen" basiert, die als Blackboxes behandelt werden, fördert einen pseudowissenschaftlichen Mythos der Schaffung von Intelligenz auf Kosten der Entwicklung eines wissenschaftlichen Verständnisses dessen, wie und warum diese Netze funktionieren.

Stattdessen wird der Schwerpunkt auf Spektakel gelegt, wie z. B. die Erstellung beeindruckender Präsentationen und das Abschneiden in standardisierten Tests auf der Grundlage von auswendig gelernten Daten.

Die einzigen nennenswerten kommerziellen Anwendungsfälle der aktuellen Versionen der KI sind die Werbung: die gezielte Ansprache von Käufern für soziale Medien und Videostreaming-Plattformen. Das erfordert nicht das hohe Maß an Zuverlässigkeit, das von anderen technischen Lösungen verlangt wird. Sie müssen einfach nur "gut genug" sein. Und schlechte Ergebnisse, wie die Verbreitung von Fake News und die Schaffung von hasserfüllten Filterblasen, bleiben weitgehend unbestraft.

Ein Silberstreif am Horizont ist vielleicht, dass angesichts der schlechten Aussichten auf eine KI-Singularität die Angst vor superintelligenten, bösartigen KIs, die die Menschheit zerstören, übertrieben ist. Das ist jedoch ein schwacher Trost für diejenigen, die von "KI-Entscheidungssystemen" betroffen sind.

Es gibt bereits zahlreiche Beispiele dafür, dass KI-Entscheidungssysteme Menschen auf der ganzen Welt berechtigte Versicherungsansprüche, medizinische und Krankenhausleistungen sowie staatliche Sozialleistungen verweigern. In den Vereinigten Staaten sind KI-Systeme an der Inhaftierung von Minderheiten zu längeren Haftstrafen beteiligt.

Es gibt sogar Berichte über den Entzug der Sorgerechte für Kinder von Minderheiteneltern auf der Grundlage falscher statistischer Daten, die oft darauf hinauslaufen, dass sie nicht genug Geld haben, um ihre Kinder angemessen zu ernähren und zu versorgen. Und natürlich auf die Förderung von Hassreden in den sozialen Medien. Wie der bekannte Linguist Noam Chomsky kürzlich in einem Artikel schrieb, "zeigt ChatGPT so etwas wie die Banalität des Bösen: Plagiat, Apathie und Verharmlosung".

Der Artikel erscheint in Kooperation mit Globetrotter. Übersetzung: David Goeßmann