Die Einleitung dieses Artikels „Ohne frische Daten droht Degeneration der Ergebnisse. Experten befürchten verheerende Folgen für Information im Netz. Was das Problem ist und was wir machen können. Nur wenn generative KI-Modelle riesige Mengen an Bildern, Texten oder anderen Formen verschlingen, können sie ihre eigenen Interpretationen hervorbringen. Aber was, wenn die Inspirationsvorräte ‒ also die von Menschen generierten Daten ‒ aufgebraucht sind? Wie eine Handvoll gestrandeter Matrosen sind diese Form von KIs dann auf sich selbst gestellt, um digitale Nahrung zu finden. Wenn sie dabei kannibalistisch auf die von ihnen selbst generierten Daten zurückgreifen, hat das ziemlich beunruhigende Folgen.“ geht von fragwürdigen Voraussetzung aus. Doch der Reihe nach:
1. Ob „Inspirationsvorräte“ „aufgebraucht“ sind, hängt nicht von den Vorräten ab, sondern wird durch die „selektive Wahrnehmung“ der „Programmierer“ bewirkt. Die Möglichkeiten, Bilder, Texte etc. zu generieren, sind unendlich. Nur, wenn man einen bestimmten perspektivischen Ausschnitt favorisiert, kann ein Engpass entstehen.
2. Ob von diesem Engpass aber eine Gefahr ausgeht, hängt davon ab, wie die KI programmiert wurde, wenn sie mit Fragen und Inhalten konfrontiert wird, bei denen sie nicht auf ihr Basic-Repertoire zurückgreifen kann. Passiert mir bei Co-Pilot immer wieder: wenn die KI mit solchen Inhalten konfrontiert wird, bricht sie einfach den Kontakt ab, während Chat-GPT in dieser Hinsicht offener und assoziativ wesentlich vielfältiger ausgestattet wurde.
3. Ob eine KI „kannibalistisch“ agiert, ist allein eine Frage der Programmierung. Wenn die Programmierer „Kannibalismus“ programmieren, wird die KI zum Kannibalen. Von sich aus trifft eine KI keinerlei Entscheidungen.