ChatGPT ist kein "eigenständiger Akteur". Wenn niemand eine Frage stellt, bleibt er stumm. Und wenn er antwortet, braucht es ein Wesen mit Weltwissen und Verständnis für den Unterschied zwischen Fiktion und Wahrheit, um die Antwort zu prüfen.
Nur, wie bringt uns so etwas voran? In Zukunft kann man also Texte, egal zu welchem Inhalt, per Knopfdruck erzeugen.
Man kann. Aber man muß nicht. Es gibt gute Gründe genug, es weiterhin selbst zu tun.
Und "Texte erzeugen" ist, wenn es um ChatBots geht, nicht sofort gleichbedeutend mit "gute, sinnhafte Texte erzeugen". Der "Output" muß in jedem Fall noch gegengelesen und im Regelfall überarbeitet werden. Dafür braucht es weiterhin den Mensch, der weiß, was er tut.
Woher kommt dieser Fehler, anzunehmen, ChatGPT würde notwendigerweise "fertige" Texte ausspucken müssen? Er ist ein Helfer, ein Werkzeug - aber er macht zumindest vorläufig den Menschen, der eine Aufgabe mit seiner Hilfe löst, nicht überflüssig.
Und in dem Moment, in dem man ihn als Werkzeug und Helfer betrachtet, erübrigt sich auch das "alles böse und negativ".