Irrsinn mit KI: Iss einen Stein am Tag und belege deine Pizza mit Klebstoff

Bild von deformierten Händen, von einer KI

Irgend etwas ist bei KI immer schräg. Und es wird vielleicht sogar noch schräger. (Bild KI-generiert)

Wie Googles KI den Bezug zur Realität verliert. Was das für unser Verhältnis zu der Technik bedeutet. Und wo die wirklichen Gefahren liegen.

Google hat seine neueste experimentelle Suchfunktion in Chrome, Firefox und dem Google-App-Browser für Hunderte von Millionen von Nutzern eingeführt. "AI Overviews" erspart Ihnen das Klicken auf Links, indem es generative KI verwendet – dieselbe Technologie, die auch das Konkurrenzprodukt ChatGPT antreibt –, um Zusammenfassungen von Suchergebnissen zu liefern.

Bei der Frage, wie man Bananen länger frisch hält, generiert die KI eine nützliche Zusammenfassung mit Tipps, wie Bananen an einem kühlen, dunklen Ort und nicht in der Nähe anderer Früchte wie Äpfel zu lagern.

Stellt man jedoch eine Frage, die aus dem Rahmen fällt, können die Ergebnisse katastrophal oder sogar gefährlich sein. Google versucht derzeit, diese Probleme nach und nach zu beheben, aber es ist ein PR-Desaster für den Suchgiganten und ein herausforderndes Whack-A-Mole-Spiel.

AI Overviews erklärt, und das ist durchaus richtig und hilfreich: "Whack-A-Mole ist ein klassisches Arcade-Spiel, bei dem der Spieler mit einem Hammer zufällig auftauchende Maulwürfe trifft, um Punkte zu sammeln. Das Spiel wurde 1975 in Japan von der Unterhaltungsfirma Togo erfunden und hieß ursprünglich Mogura Taiji oder Mogura Tataki".

Aber AI Overviews sagt auch: "Astronauten auf dem Mond haben Katzen getroffen, mit ihnen gespielt und sich um sie gekümmert. Noch beunruhigender ist die Empfehlung, "mindestens einen kleinen Stein pro Tag zu essen", da "Steine eine lebenswichtige Quelle von Mineralien und Vitaminen sind", und es wird vorgeschlagen, Pizza mit Kleber zu bestreichen.

Wie kommt es zu den skurrilen Ergebnissen?

Ein grundlegendes Problem ist, dass generative KI-Werkzeuge nicht wissen, was wahr ist, sondern nur, was populär ist. Zwar gibt es nicht viele Artikel im Internet über das Essen von Steinen – weil es offensichtlich eine schlechte Idee ist.

Aber es gibt einen viel gelesenen satirischen Artikel von dem Portal The Onion über den Verzehr von Steinen. Die KI von Google stützte ihre Zusammenfassung also darauf, was populär war, und nicht darauf, was wahr war.

Ein weiteres Problem ist, dass generative KI-Werkzeuge unsere Werte nicht teilen. Sie sind auf die Datenmasse des Netzes ausgerichtet.

Und obwohl ausgefeilte Techniken (mit so exotischen Namen wie "Reinforcement Learning from Human Feedback" oder RLHF) eingesetzt werden, um die schlimmsten Auswüchse zu vermeiden, ist es nicht überraschend, dass sie einige der Vorurteile, Verschwörungstheorien und Schlimmeres widerspiegeln, die im Netz zu finden sind. Tatsächlich bin ich immer wieder erstaunt, wie höflich und brav KI-Chatbots sind, wenn man bedenkt, worauf sie trainiert wurden.

Ist das die Zukunft der Websuche?

Wenn wir hier also wirklich die Zukunft der Websuche sehen, dann steht uns eine holprige Fahrt bevor. Zumal Google ist im Begriff ist, OpenAI und Microsoft einzuholen.

Die finanziellen Anreize, das KI-Rennen zu gewinnen, sind immens. Google ist daher weniger vorsichtig als in der Vergangenheit, wenn es darum geht, die Technologie in die Hände der Nutzer zu legen. Im Jahr 2023 sagte Google-Chef Sundar Pichai:

Wir waren vorsichtig. Es gibt Bereiche, in denen wir uns entschieden haben, nicht der Erste zu sein, der ein Produkt auf den Markt bringt. Wir haben gute Strukturen für eine verantwortungsvolle KI geschaffen. Sie werden sehen, dass wir uns weiterhin Zeit lassen.

Das scheint nicht mehr der Fall zu sein, denn Google reagiert auf die Kritik, zu einem großen und lethargischen Player geworden zu sein.

Googles riskanter Schritt

Aber die Strategie von Google ist riskant. Der Konzern setzt das Vertrauen der User aufs Spiel, die bisher davon ausgehen konnten, bei Google die (richtige) Antworten auf ihre Fragen zu erhalten.

Google riskiert aber auch, sein eigenes milliardenschweres Geschäftsmodell zu untergraben. Wenn wir nicht mehr auf Links klicken, sondern nur noch deren Zusammenfassung lesen, wie kann Google dann noch Geld verdienen?

Die Risiken beschränken sich nicht auf Google. Ich befürchte, dass ein solcher Einsatz von KI der Gesellschaft insgesamt schaden könnte. Wahrheit ist bereits ein umstrittener und umkämpfter Begriff. KI-Unwahrheiten werden dies wahrscheinlich noch verschlimmern.

In zehn Jahren werden wir vielleicht auf das Jahr 2024 als das goldene Zeitalter des Internets zurückblicken, in dem die meisten Inhalte von Menschen erstellt wurden, bevor die Bots das Ruder übernahmen und das Web mit synthetischen und zunehmend minderwertigen KI-generierten Inhalten füllten.

Befindet sich die KI in einer Abwärtsspirale?

Die zweite Generation großer Sprachmodelle wird wahrscheinlich und unbeabsichtigt auf einigen der Ergebnisse der ersten Generation trainiert. Und viele KI-Startups preisen die Vorteile des Trainings mit synthetischen, von KI generierten Daten an.

Das Training mit den Absonderungen aktueller KI-Modelle birgt jedoch die Gefahr, dass selbst kleine Verzerrungen und Fehler verstärkt werden. So wie das Einatmen von Abgasen schlecht für den Menschen ist, ist es auch schlecht für die KI.

Diese Bedenken sind Teil eines viel größeren Bildes. Jeden Tag werden weltweit mehr als 400 Millionen US-Dollar (360 Millionen Euro) in KI investiert. Und erst jetzt begreifen die Regierungen, dass wir angesichts dieser Investitionsflut Leitplanken und Regeln brauchen, um einen verantwortungsvollen Umgang mit dieser Technik zu gewährleisten.

Pharmaunternehmen dürfen keine Medikamente auf den Markt bringen, die schädlich sind. Das gilt auch für Autohersteller. Aber bisher können Technologieunternehmen weitgehend machen, was sie wollen.

Toby Walsh ist Professor für KI und Forschungsgruppenleiter an der UNSW Sydney. Dieser Artikel erschien zuerst auf Englisch auf der Seite The Conversation.