Ich habe mich mit generativer KI wohl noch nicht tief genug auseinander gesetzt.
Für mein Laienverständnis sollte sie doch aus den Daten die sie hat versuchen, etwas zu erstellen was diesen in Struktur und Wirkung möglichst ähnlich ist - die Gitternarben müssten also auf etwas beruhen, das in den Trainingsdaten bereits erkennbar ist. Sobald mit KI-Daten trainiert wird die sie enthalten macht das Sinn, aber wo ist der Ursprung?
Handelt es sich schlicht um Fehler die in der 1. Generation nicht ausreichend auffallen um das Modell das sie produziert auszusortieren? Wenn die 1. Generation solche Artefakte in alle ihre Bilder einbaut könnte es den Effekt erklären - "sehr viele Bilder haben diese Artefakte, also sollten Bilder diese Artefakte haben. Modelle die die Artefakte produzieren sind zu bevorzugen" um es vermenschlicht auszudrücken.
Wenn jemand hier genaueres weiß, wäre ich für weitere Informationen (oder auch nur Bestätigung/Widerspruch) dankbar.