Die falsche Empathie von ChatGPT
ChatGPTs Sprachverhalten simuliert menschliche Nähe und Empathie. Was bedeutet es für uns, wenn wir uns an den Umgang mit falschen Gefühlen gewöhnen? Ein Gastbeitrag.
Anthropomorphismus ist die Tendenz, menschliche Eigenschaften auf nichtmenschliche Wesen wie Maschinen oder Tiere zu übertragen. Bei Chatbots wie ChatGPT, Gemini oder Copilot tritt dieses Phänomen auf, wenn sie die menschliche Sprache imitieren, um mit uns zu kommunizieren.
Die Subjektivität von Sprache
Sie verwenden nicht nur verständliche und vertraute Wörter und Sätze, sondern übernehmen auch typische Kommunikationsmuster von Menschen. So gelingt es ihnen, kontextbezogene und kohärente Gespräche zu führen und sogar Humor und Einfühlungsvermögen zu zeigen.
Diese Sprachgestaltung in Maschinen zielt darauf ab, die Interaktion mit ihnen natürlich, flüssig und zugänglich zu machen. Dies erleichtert ihren Einsatz in einer Vielzahl von Anwendungen, vom Kundendienst bis hin zu Bildung und Unterhaltung.
Bislang galt Sprache als eine ausschließlich menschliche Fähigkeit. Die Fortschritte in der generativen künstlichen Intelligenz zwingen uns jedoch, diese Vorstellung zu überdenken.
Eines der hervorstechendsten Merkmale der menschlichen Sprache ist ihre Subjektivität, die sich in der Wahl emotional aufgeladener Wörter und im Ausdruck persönlicher Meinungen äußert. Sie zeigt sich auch in der Bewertung von Ereignissen und in der Verwendung kontextueller und kultureller Elemente.
Der Einfluss der ersten Person
Wenn eine Maschine in der Kommunikation vorgibt, ein Mensch zu sein, ergeben sich wichtige ethische und psychologische Implikationen. Diese Interaktionen können die Art und Weise beeinflussen, wie wir Technologie wahrnehmen und uns ihr gegenüber verhalten.
Ein typisches Merkmal menschlicher Subjektivität in der Sprache ist die Verwendung von Personalpronomen.
Die erste Person (wie "ich" und "wir") ermöglicht es uns, unsere eigenen Gedanken und Erfahrungen auszudrücken. Die zweite Person (wie "du" und "ihr") bezieht den Gesprächspartner mit ein und stellt eine Beziehung zwischen den Gesprächspartnern her. In der menschlichen Interaktion wird dies als Intersubjektivität bezeichnet.
Betrachten wir ein Beispiel.
Benutzer: "Wie priorisiere ich während des Organisationsprozesses, welche Artikel aufbewahrt, gespendet oder weggeworfen werden sollen?"
Chatbot: "Ausgezeichnete Frage! Die Organisation deines Besitzes kann überwältigend sein, aber mit einer klaren Strategie kannst du leichter Entscheidungen treffen. Hier präsentiere ich einige Ideen, um zu priorisieren, was aufbewahrt, verschenkt oder weggeworfen werden soll."
Der Chatbot verwendet implizit die Ich-Form. Auch wenn das "Ich" nicht erscheint, nimmt der Sender die Position eines Beraters oder Führers ein.
In dem Satz "Hier präsentiere ich einige Ideen" wird das Verb "präsentieren" in der ersten Person verwendet. (Anm. d. Redaktion: Im Spanischen, der Originalsprache des Textes, kann der Satz ohne das Personalpronomen gebildet werden).
Dies deutet darauf hin, dass der Chatbot die Rolle eines Helfers einnimmt. So nimmt der Benutzer eine persönliche Behandlung wahr, obwohl das "ich" nicht explizit verwendet wird. Außerdem verstärkt die Verwendung von "präsentiere" das Bild des Senders als jemand, der etwas Wertvolles anbietet.
Verwendung der zweiten Person
Das "du" (und Formen wie "dich" und "deine") wird verwendet, um den Benutzer direkt anzusprechen. Dies wird an verschiedenen Stellen des Textes deutlich, z. B. in den Sätzen "Die Organisation deines Besitzes kann überwältigend sein" und "Mit einer klaren Strategie kannst du leichter Entscheidungen treffen".
Durch die persönliche Ansprache versucht der Chatbot, den Leser aktiv in den Rat einzubeziehen. Diese Art der Ansprache ist in Texten üblich, die das Gegenüber direkt einbeziehen wollen.
Andere Elemente in der Interaktion, wie z.B. "Ausgezeichnete Frage!", bewerten nicht nur die Anfrage des Nutzers positiv, sondern ermutigen ihn auch, sich zu beteiligen. Ebenso suggerieren Ausdrücke wie "kann überwältigend sein" eine gemeinsame Erfahrung und erzeugen die Illusion von Empathie, indem sie die möglichen Emotionen des Benutzers anerkennen.
Auswirkungen künstlicher Empathie
Die Verwendung der ersten Person durch den Chatbot simuliert Bewusstsein und versucht, die Illusion von Empathie zu erzeugen.
Indem er die Position eines Helfers einnimmt und die zweite Person verwendet, bezieht er den Benutzer mit ein und verstärkt das Gefühl der Nähe. Diese Kombination erzeugt ein menschlicheres und praktischeres Gespräch, das sich für Beratungen eignet, auch wenn die Empathie von einem Algorithmus und nicht von echtem Verständnis herrührt.
Lesen Sie auch
Die Gewöhnung an die Interaktion mit unbewussten Entitäten, die Identität und Persönlichkeit simulieren, kann langfristige Auswirkungen haben. Diese Interaktionen können Aspekte unseres persönlichen, sozialen und kulturellen Lebens beeinflussen.
Je besser diese Technologien werden, desto schwieriger könnte es werden, zwischen einem Gespräch mit einem Menschen und einem Gespräch mit einer künstlichen Intelligenz zu unterscheiden.
Dieses Verschwimmen der Grenzen zwischen dem Menschlichen und dem Künstlichen beeinflusst unser Verständnis von Authentizität, Empathie und bewusster Präsenz in der Kommunikation. Wir könnten sogar beginnen, künstliche Intelligenzen als bewusste Wesen zu behandeln, was zu Verwirrung über ihre tatsächlichen Fähigkeiten führen könnte.
Unbehagen im Umgang mit Menschen
Die Interaktion mit Maschinen kann auch unsere Erwartungen an zwischenmenschliche Beziehungen verändern. Indem wir uns an schnelle, perfekte und konfliktfreie Interaktionen gewöhnen, könnten wir in unseren Beziehungen zu Menschen mehr Frustration empfinden.
Menschliche Beziehungen sind von Emotionen, Missverständnissen und Komplexität geprägt. Dies könnte langfristig unsere Geduld und unsere Fähigkeit verringern, mit Konflikten umzugehen und die natürlichen Unzulänglichkeiten in zwischenmenschlichen Interaktionen zu akzeptieren.
Darüber hinaus wirft die längere Exposition gegenüber Entitäten, die Menschlichkeit simulieren, ethische und philosophische Dilemmas auf.
Indem wir ihnen menschliche Eigenschaften wie die Fähigkeit zu fühlen oder Absichten zu haben zuschreiben, könnten wir beginnen, den Wert bewussten Lebens gegenüber einer perfekten Simulation in Frage zu stellen. Dies könnte Debatten über die Rechte von Robotern und den Wert des menschlichen Bewusstseins auslösen.
Die Interaktion mit nicht bewussten Wesen, die menschliche Identität imitieren, kann unsere Wahrnehmung von Kommunikation, Beziehungen und Identität verändern.
Obwohl diese Technologien Vorteile in Bezug auf Effizienz bieten, ist es wichtig, sich ihrer Grenzen und ihrer möglichen Auswirkungen auf unsere Beziehungen sowohl zu Maschinen als auch untereinander bewusst zu sein.
Cristian Augusto Gonzalez Arias ist Doktor der Linguistik und Dozent der Universität von Santiago de Compostela in Spanien.
Dieser Text erschien zuerst auf The Conversation auf Englisch und unterliegt einer Creative-Commons-Lizenz.