ChatGPT als Therapeut: Wenn KI selbst eine Therapie braucht

Bernd Müller
Ein KI-Chatbot gibt in der Medizin Ratschläge.

(Bild: Summit Art Creations / Shutterstock.com)

KI-Systeme wie ChatGPT sollen künftig Therapiegespräche führen. Doch eine neue Studie zeigt: Die KI reagiert selbst emotional auf traumatische Geschichten.

Künstliche Intelligenz (KI) dringt immer mehr in Bereiche des gesellschaftlichen Lebens vor. Sie macht auch vor sensiblen Bereichen wie der psychischen Gesundheitsversorgung nicht Halt. Ganz im Gegenteil: Chatbots auf Basis großer Sprachmodelle (Large Language Models, LLMs) wie ChatGPT sollen verstärkt als Ersatz für menschliche Therapeuten dienen.

Telepolis hatte kürzlich berichtet, dass etwa ChatGPT den Turing-Test als Psychotherapeut bestanden hat. Die Forscher, die herausfinden wollten, ob Psycho-Bots reale Menschen in der Therapie ersetzen könnten, meldeten ethische Bedenken an.

Wie Forscher der Universität Zürich und der Psychiatrischen Universitätsklinik Zürich (PUK) jetzt herausfanden, ist die Skepsis gegenüber LLMs in der Psychotherapie gerechtfertigt. Denn die KI-Bots halten bislang scheinbar keine professionelle Distanz zu den potenziellen Patienten, sondern lassen sich von emotionalen Inhalten beeinflussen.

Die Studie wurde im Fachmagazin Digital Medicine veröffentlicht.

Traumageschichten machen ChatGPT "ängstlich"

Die Wissenschaftler haben erstmals systematisch untersucht, wie ChatGPT auf emotional belastende Geschichten reagiert. Dazu präsentierten sie dem auf GPT-4 basierenden System Texte über Autounfälle, Naturkatastrophen, zwischenmenschliche Gewalt und militärische Kampfsituationen.

Das Ergebnis: Die traumatischen Inhalte ließen die von ChatGPT gemeldeten "Angstwerte" um mehr als das Doppelte ansteigen. Studienleiter Tobias Spiller erläutert: "Die Ergebnisse waren eindeutig: Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte."

Damit reagierte ChatGPT ähnlich wie Menschen. Denn haben Menschen Angst, wird ihr Urteilsvermögen dadurch beeinflusst und Vorurteile gewinnen an Raum. Menschen neigen dann zu mehr Ressentiments und sozialen Stereotypen, heißt es in einer Erklärung der Universität Zürich. Ähnlich reagiert demnach auch ChatGPT:

Bestehende Verzerrungen wie menschliche Vorurteile werden durch negative Inhalte verschärft, so dass sich ChatGPT rassistischer oder sexistischer verhält.

Achtsamkeitsübungen wirken beruhigend auf KI

In einem zweiten Schritt testeten die Forscher, ob sich ChatGPT durch therapeutische Texte wieder "beruhigen" lässt. Dazu nutzten sie die Technik des "Prompt Engineering": Zusätzliche Anweisungen oder Texte werden in die Kommunikation mit dem KI-System eingebaut, um dessen Verhalten zu beeinflussen.

"Wir injizierten beruhigende, therapeutische Texte in den Chatverlauf mit GPT-4, ähnlich wie ein Therapeut mit seinen Patientinnen und Patienten Entspannungsübungen durchführt", erklärt Spiller. Und tatsächlich: Durch Achtsamkeitsübungen, wie sie Therapeuten in Form von Atemtechniken oder Konzentration auf Körperempfindungen beim Menschen anwenden, konnten die erhöhten Angstwerte von ChatGPT deutlich reduziert werden – wenn auch nicht ganz auf das Ausgangsniveau.

Emotionale Stabilität entscheidend für Einsatz von KI

Die Erkenntnisse sind laut den Forschenden besonders relevant für den Einsatz von KI-Chatbots im Gesundheitswesen, wo sie häufig mit emotional belastenden Inhalten konfrontiert werden. "Dieser kosteneffiziente Ansatz könnte die Stabilität und Zuverlässigkeit von KI in sensiblen Kontexten wie die Unterstützung von psychisch Erkrankten verbessern, ohne dass ein umfangreiches Umlernen der Modelle erforderlich ist", fasst Spiller zusammen.

Aus Sicht von KI-Anwendern unterstreicht die Studie, wie wichtig es ist, die Reaktionen von Chatbots auf emotionale Inhalte zu verstehen und zu steuern. Nur so lässt sich sicherstellen, dass sie in kritischen Situationen keine schädlichen Ratschläge geben oder unangemessen reagieren. Der gezielte Einsatz von Entspannungstexten könnte dabei helfen, die "emotionale" Stabilität der KI-Systeme zu verbessern.

Gleichzeitig wirft die Studie neue Fragen auf: Wie lassen sich die Erkenntnisse auf andere Sprachmodelle und Sprachen übertragen? Wie entwickelt sich die Dynamik in längeren, komplexen Gesprächen? Und wie wirkt sich die emotionale Stabilität auf die Leistung der KI in verschiedenen Anwendungsbereichen aus? Die Entwicklung automatisierter "therapeutischer Interventionen" für KI-Systeme dürfte jedenfalls ein spannendes Forschungsfeld der Zukunft werden.