Egal ob Large Language oder Generative Pretrained Transformer Modell, die Modelle "haluzinieren" ein Ergebnis anhand von Wahrscheinlichkeiten herbei. Das ist zwar sehr oft frappierend gut, aber nicht fehlerfrei. Fängt man an, mit künstlich erzeugten Daten oder gar mit KI-Output die Modelle zu trainieren kommt Bullshit raus.