Ansicht umschalten
Avatar von
  • unbekannter Benutzer

358 Beiträge seit 31.07.2023

Garbage in, Garbage out.

Wenn die verschiedenen KI-Bots an den Fragen trainieren, die ihnen gestellt werden, wundert mich nicht, dass ChatGPT immer dümmer wird: "Garbage in, Garbage out."

Als Gamer kenne ich das Prinzip sehr gut: man versucht, das System (Spiel) an die Grenzen zu bringen und sucht beispielsweise Ecken, an denen man aus der Spielgeometrie ausbrechen kann. Spielt man mehrfach ein Rollenspiel durch, macht man sich irgendwann bewusst "Murks-Charaktere" und spielt die unmöglichsten Szenarien durch, nur um eine Situation zu erzeugen, die die Programmierer nicht vorhergesehen haben. Erlaubt das Spiel hohe Freiheitsgrade, wird diese Freiheit maximal ausgetestet und drüber hinaus - siehe z.B. Speedruns, die effektiv auf "erlaubten" Exploits basieren.
Und bei MMOGs wird bewusst auf Edge-Cases hingearbeitet. Der Klassiker? Das Spiel ist "lagfrei" bei Normalverteilung der Spielercharaktere auf der Karte. Aber die Normalverteilung ist nicht der Standardfall, wenn es auf der Karte ein oder mehrere Social Hubs gibt. Es können sich also ALLE Spieler auf der Karte an einem Ort knubbeln. Und nun darf jeder Spieler einen Companion haben und ein Pet. Dazu kommen Klassen, die auch ein Combat-Pet spawnen können. Edge Case? Alle Spieler haben eine Klasse, die ein Combat-Pet spawnen können, bringen ihr Pet + Companion mit und treffen sich an einem Ort -> Lags, Desyncs, Server Crash.

Bei den Chat-Bots dürfte das so ähnlich sein: viele Nutzer probieren aus, wie man den Bot "kaputtmachen" kann. Es wird jede Menge Müll in den Bot gepumpt und wenn er anhand der Fragen und den gegebenen Antworten trainiert, dann gilt halt: "Garbage in, Garbage out". Der Bot wird immer "dümmer", weil er schlichtweg nicht mit sinnvollen Daten trainiert wird und sogar das bereits Erlernte wieder vergessen kann. Ich meine, nix hindert mich daran zu behaupten "9" sei eine Primzahl. Wenn das genügend andere machen, wird der Bot vermutlich irgendwann eine Primzahlreihe ausgeben, die dann wie folgt lautet: "1, 2, 3, 5, 7, 9, 13, 17, ..." auch wenn 9, das wissen wir, eben gar keine Primzahl ist. Auch andere Zahlenreihen lassen sich manipulieren, wenn das jemand will.

Und woran liegts? Chat-Bots sind halt doch keine echte KI. Sondern einfach nur weit entwickelte Expertenprogramme mit "Lernfunktion". Aber sie haben keinerlei Verständnis von dem, was sie da lernen - und filtern auch nichts. Da ist nichts dahinter, kein heller Verstand, der Unsinn von Sinnvollem trennen kann. Das Wissen (sinnvoll) ist nicht geschützt, anders als bei einer echten Intelligenz. Dass mancher von uns stur auf seiner Meinung beharrt, mag erstmal dickköpfig erscheinen, ist aber im Vergleich zum Chat-Bot sehr viel intelligenter. Und Sturheit kann auch ein gewisser Schutzmechanismus des bereits Erlernten sein, nicht nur eine Verweigerungshaltung, Neues zu erlernen.

Wäre also toll, wenn ChatGPT beim nächsten Gespräch antworten würde: "Nein, 9 ist keine Primzahl, denn sie lässt sich durch 1, 3 und 9 teilen."

Bewerten
- +
Ansicht umschalten