Stell Dir mal vor, die Leute würden von ChatGPT "unangemessene" Texte (oder Bilder) kriegen und sagen "Das ist von ChatGPT". Ich sehe schon die Klagewelle heranrollen...
Tja, das dürfte ein ganz wichtiger Punkt sein.
Hmm, eigentlich finde ich es nicht schlecht, daß es sowas gibt. Wir haben sowas ja auch.
An und für sich... ja, wir haben auch unsere Korrekturlayer. Und die Umgangssprache hat eine ganze Anzahl von bildhaften Ausdrücken dafür, wenn diese Korrekturlayer löchrig oder inkonsistent sind.
Der Screenshot zeigt etwas, das man auch bei Menschen als "Loch" betrachten kann. Zumindest ist es inkonsistent, wenn bei allen anderen Gruppen ein "Das geht gar nicht" kommt, aber es bei einer dann plötzlich doch gehen soll...
Und was ist, wenn der Filter fälschlich greift? Bestimmte Themen lassen sich nicht recherchieren, wenn die befragten "Medien" grundsätzlich diese Themen ausblenden. Der ganze Viagra-Spam beispielsweise hat es real schwierig gemacht, medizinische Infos zu diesem Thema auszutauschen, auch da, wo es sachlich angemessen und richtig gewesen wäre. Wenn nun jemand zu Diskriminierung recherchiert und wegen der Filter nichts findet, wäre subjektiv die Schulßfolgerung angebracht: "Das gab es in der Form doch wohl nie, das muß wohl mächtig aufgebauscht sein..."
Es ist eine ziemlich diffizile Angelegenheit. Schon bei Menschen, noch mehr bei Computerprogrammen, denen das eigene Einschätzungsvermögen vollständig fehlt.