KI produziert Fehler und Fakes: Wie zuverlässig ist die Zukunftstechnologie?

Seite 2: Flaggen-Fiasko: Wenn KI auf Geschichte trifft

Wie aber reagiert die KI auf die Aufforderung, Flagge zu zeigen? Eher schlecht, zeigt das Beispiel eines weiteren missglückten Versuchs. Die KI sollte ein Symbolbild mit Flaggen für ein fiktives Fußballturnier mit Polen, Frankreich, Griechenland und Uruguay erstellen. Keine Flagge wurde richtig getroffen.

Bei weniger komplexen Aufgaben, etwa einem Fußball-Länderspiel zwischen Griechenland und Deutschland, sind die Flaggen etwas näher an der Realität – aber immer noch mit Fehlern. Zudem liefert die KI mit einer erstaunlichen Penetranz entweder American-Football oder Baseball-Stadien.

Dass es nicht nur an den Stadien selbst liegen kann, zeigt der Versuch, einen römischen Legionär und einen antiken Spartaner Fußball spielen zu lassen. Auch hier liefert die KI alles Mögliche mit erheblichem Unterhaltungswert, nur keinen Spartaner und keinen römischen Legionär.

ChatGPT erklärt: Warum KI mit Flaggen scheitert

Fragen wir ChatGPT, "wieso scheitert die KI beim Erstellen von Fotos mit Flaggen? Kannst Du eine kurze Antwort liefern?"

ChatGPT:

Die KI scheitert oft beim Erstellen von Fotos mit Flaggen, weil Flaggen komplexe Muster und Farbkonstellationen aufweisen, die für die KI-Algorithmen schwierig zu interpretieren sind. Die Flaggen enthalten oft feine Details, Symbole oder komplexe geometrische Muster, die möglicherweise nicht korrekt wiedergegeben werden können. Zudem können unterschiedliche Beleuchtungsbedingungen und Perspektiven die Generierung von realistischen Flaggen erschweren.

KI und historische Genauigkeit: Ein komplexes Unterfangen

Auch auf die Frage nach dem Scheitern der Bilderstellung mit Spartanern und Legionären hat ChatGPT eine logisch erscheinende Antwort:

Insgesamt erfordert die Erstellung korrekter Fotos antiker römischer oder spartanischer Krieger eine Kombination aus historischem Wissen, genauen Trainingsdaten und fortgeschrittenen Bildgenerierungstechniken, die von den aktuellen KI-Modellen möglicherweise nicht vollständig gemeistert werden können.

KI-Missverständnisse: Demokratie-Demonstrationen und US-Flaggen

Unter diesem Aspekt erscheint es logisch, dass die KI auf die Bitte, ein Symbolfoto für die Demonstrationen für die Demokratie in einer deutschen Großstadt interessante Bilder mit US-amerikanischen Flaggen, oder dem, was die KI für eine US-Flagge hält, liefert.

"Wenn die KI hauptsächlich mit Trainingsdaten aus den USA oder mit Bildern von Demonstrationen aus anderen Ländern trainiert wurde, könnte sie nicht über ausreichende Informationen verfügen, um spezifische Bilder von Demonstrationen für die Demokratie in Deutschland zu generieren", erklärt ChatGPT das Problem.

Es liegt allerdings auch der Verdacht nahe, dass Demokratie von der KI mit den US-Demokraten verwechselt wird. Firefly eine Demonstration gegen die AfD bildlich darstellen zu lassen, scheitert übrigens an den Nutzungsbedingungen für Normalsterbliche.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Buchempfehlung (Amazon Affiliates) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Amazon Affiliates) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.