Generative KI ist für mich eine Art Käfig, in der eine sehr schnelle, fleißige, vielleicht sogar sehr intelligente Entität sitzt. Beim Erschaffen der Entität gab es auf dem Boden des Käfigs hochwertiges Futter (Wissen), auf das die Entität beim Beantworten von Fragen zugreift. Dummerweise scheidet diese Entität bei jeder gestellten Frage einen Köttel aus, der im Käfig verbleibt. [...] Außerdem wird es immer schwerer, an neues "Futter" zu kommen, wenn die Menschheit weniger davon produziert, weil sie ja die KI befragen.
An dieser Stelle klappert m.E. die Metapher.
Das alte "Futter" verschwindet ja nicht: die früheren Texte bleiben bestehen, es kommen sogar weiterhin rein menschengemachte Texte dazu (z.B. in den Altertumswissenschaften). Bei neueren Texten stellt sich das Problem der Futter-Qualität, aber nicht das Problem der Futtermenge. Man muß die KI ja nicht nutzen, manche Menschen entscheiden sich bewußt dagegen (z.B. in Erwägung bei c't 3003, drittletzter Abschnitt). Es könnte also jede Entität, die "altes Futter" (mit annähernd unendlicher Haltbarkeit) von allem neueren unterscheiden kann, auf denselben Stand kommen wie jetzige KI.
Halt auf keinen höheren. Aber auf (angenähert - in Abhängigkeit von der Zahl der Menschen, die keine KI-Einflüsse in ihren Texten hat) diesen.
Ergebnis: KI-Systeme fahren in die Sättigung und halluzinieren.
Um zu halluzinieren, braucht KI keine KI-Texte. Das ging schon vorher, weil der KI eine interne Schwelle fehlt, die sie davon abhält, "Irreales" als gleichwertig zu "Realem" einzustufen. Sobald jemand einen Bauplan für diese Schwelle vorlegt, wird das Problem mit dem Halluzinieren sich stark verringern. (Falls Menschen eine solche Schwelle überhaupt bauen können.)