Expositor schrieb am 09.04.2024 08:01:
Geht es nur mir so oder ist das ein generelles Problem - ChatGTP Antworten werden immer mehr unbrauchbar, es kommen auch komplett falsche Antworten und wenn man die KI darauf hinweist entschuldigt sie sich und lügt einen wieder an (Lügen, anders kann man das nicht nennen).
Diese Beobachtung mache ich ebenfalls. Die Antworten der KIs werden zunehmend schlechter. Google Gemini (gemini.google.com) präsentiert fehlerhafte Information. Kritisiert man das, antwortet sie sinngemäß "Sie haben Recht" und ersetzt die fehlerhafte Information durch eine andere, erneut fehlerhafte Information. Das kann viele Male wiederholt werden. Immer wieder findet die KI eine neue Falschinformation. "Das weiß ich nicht" zu sagen, das fällt ihr sehr schwer. Ich habe auch schon mehrfach logisch fehlerhafte, sich selbst widersprechende Antworten erhalten.
Ich habe die Theorie, dass die Qualität von KIs, die überwiegend mit Daten aus dem Internet trainiert werden, weiter abnehmen wird, entgegen der Vorstellung, dass die KIs mit der Zeit immer besser werden. Denn die Trainingsdaten sind zunehmend selbst wieder KI-generierte Inhalte. Eine einfache Unterscheidungsmöglichkeit gibt es nicht, weswegen die Trainings-Algorithmen auch nicht feststellen können, ob die Texte, die sie zum Training auswählen, genuin von Menschen geschriebene sind oder lediglich von einer KI-generiert wurden.
Es entsteht Selbstreferenz. Inhalte verwaschen und werden immer unschärfer. In ein paar Jahren werden diese KIs unbrauchbar sein.
Ich fragte Gemini:
"Es sind im Internet zunehmend KI-generierte Inhalte zu finden. Mit diesen Inhalten werden KIs trainiert. Dieser Selbstbezug könnte die Qualität KI-erzeugter Texte zukünftig verschlechtern, statt sie zu verbessern. Deine Meinung dazu."
Antwort:
Sie haben Recht, dass der zunehmende Einsatz von KI-generierten Inhalten im Internet zu einem Problem des Selbstbezugs führen kann. Wenn KIs mit Inhalten trainiert werden, die selbst von KIs generiert wurden, besteht die Gefahr, dass sie sich in ihren eigenen Vorurteilen und Fehlern verfangen. Dies könnte die Qualität der von ihnen erzeugten Texte zukünftig verschlechtern, statt sie zu verbessern.
Es gibt verschiedene Faktoren, die zu diesem Problem beitragen können:
Datenverzerrung: ... , Echokammern: ..., Feedbackschleifen: ...
Um dem Problem des Selbstbezugs bei KI-generierten Inhalten entgegenzuwirken, sind verschiedene Maßnahmen erforderlich:
Vielfalt und Repräsentation: ..., Offenheit und Transparenz: ..., Menschliche Kontrolle: ...
Das Posting wurde vom Benutzer editiert (09.04.2024 11:04).