Genau so schaut es aus.
Einfaches Beispiel
"Ich bin Albert ..."
Um diesen Satz zu vervollständigen macht die LLM quasi nur eine wahrscheinlichkeitsrechnung für alle ihr bekannten Worte.
Worte wie "Einstein" haben dann einfach nur eine hohe Wahrscheinlichkeit und Worte wie "Hut" eine geringe Wahrscheinlichkeit, aufgrund der Texte mit der die LLM trainiert wurde.
So kommt zwar ein richtiger und sinniger Satz dabei heraus, aber von wirklichen Verständniss kann man dabei nicht reden, wir projezieren das einfach nur auf die LLM.