Psycho-Bots: Wenn Algorithmen Therapeuten werden
KI übernimmt immer mehr Aufgaben – auch in der Psychotherapie. Eine Studie zeigt: Chatbots bestehen den Turing-Test als Therapeuten. Können Maschinen Menschen wirklich ersetzen?
Am 18. Februar streikten die Journalisten Griechenlands. Zu ihren Forderungen gehörte unter anderem auch, dass bindende Regeln für die Nutzung von künstlicher Intelligenz im Journalismus eingeführt werden. Die Angst um den Job scheint berechtigt zu sein.
Die KI übernimmt in den Medien immer mehr Aufgaben. Sie ist in der Lage, Agenturmeldungen in kurze Nachrichtenartikel umzuformulieren. Dass die Deutsche Gesellschaft für Personalwesen der KI bescheinigt, dumm wie ein Pferd zu sein, ändert daran nichts.
Turing-Tests für Chatbots als Psychotherapeuten
Die DGP kam vor knapp einem Jahr zum Schluss, dass ChatGPT den Turing-Test nicht besteht. Zu Ehren des britischen Mathematikers Alan Turing wird ein in den Fünfzigern des vergangenen Jahrhunderts konzipierter Test, mit dem eine künstliche Intelligenz ihren Gesprächspartnern gegenüber Menschlichkeit beweisen soll, Turing-Test genannt.
Turings Genie ist es zu verdanken, dass die deutsche Enigma-Verschlüsselung im Zweiten Weltkrieg geknackt werden konnte. Seine Homosexualität brachte ihm jedoch die Strafverfolgung im eigenen Land und schließlich nach erzwungener Kastration den Tod ein. Auch das 2017 zur Rehabilitation der verfolgten Homosexuellen erlassene britische Gesetz ist daher unter seinem Namen bekannt.
Über den Sinn des Turing-Tests in Zeiten von ChatGPT und Co wird kontrovers diskutiert. Einer aktuellen, am 12. Februar im Fachjournal PLOS Mental Health erschienenen Studie zufolge hat ChatGPT den Turing-Test als Psychotherapeut bestanden.
Bei Paartherapie-Teststunden konnten die Probanden die Antworten von ChatGPT nicht von denen realer Therapeutinnen und Therapeuten unterscheiden. Die Autoren der Studie, die sich die Frage stellten, ob Maschinen als Therapeuten tätig sein könnten, ließ die eigene Studie mit mehr Fragen als Antworten zurück. Sie meldeten ethische Bedenken an.
Können Maschinen humane Therapeuten ersetzen?
Reale Psychotherapeuten wie Johanna Löchner, Professorin für Klinische Psychologie und Psychotherapie des Kindes- und Jugendalters an der Friedrich-Alexander-Universität Erlangen-Nürnberg, relativieren die Ergebnisse der Studie.
Sie sieht ein Potenzial von Chatbots für die Verbesserung der mentalen Gesundheit, insbesondere bei depressiven Störungen, schränkt jedoch ein, dass es noch diverse Hürden gäbe. Chatbots hätten damit noch einen eher längeren Weg hin zur Implementierung und Integration in das Gesundheitssystem.
"Das Potenzial, welches digitale Technologien seit Langem bieten, wird in der regelversorgenden Praxis noch nicht ausgeschöpft", meint sie und ordnet die Studienergebnisse ein, "in der Studie wurden nur Vignetten und keine echte Paartherapie untersucht".
Für eine Paartherapie wären drei Parteien nötig, was den Versuchsaufbau und die Möglichkeiten der Reaktion des Chatbots vergrößert oder verkompliziert. Dann könnte ein Chatbot aber zum Beispiel die Paarinteraktion beobachten, was in der Einzeltherapie nicht möglich ist.
Löchner schlägt weitere Studien vor. Aus ihrer Sicht wäre es wissenschaftlich gesehen "spannend, einen Therapieverlauf einer klinischen Population – Patienten mit depressiven Störungen – durch LLMs mit dem einer Therapeutengruppe – zum Beispiel ausgebildet in Kognitiver Verhaltenstherapie – zu vergleichen." Dazu müssten jedoch ethische Fragen im Vorfeld geklärt werden. Ob es vertretbar sei, eine Gruppe "nur" mit einem Chatbot zu konfrontieren, fragt sie sich.
Löchners Kollege Markus Langer, Leiter der Abteilung Arbeits- und Organisationspsychologie, Institut für Psychologie an der Albert-Ludwigs-Universität Freiburg, sieht die Wissenschaft "noch am Anfang davon, zu verstehen, ob und wie KI in der Psychotherapie wirksam sein kann."
Er sieht die Aussagekräftigkeit der Studie skeptisch. Es wäre lediglich untersucht worden, "ob Menschen unterscheiden können, ob ein kurzer Text von menschlichen TherapeutInnen oder einer KI kommt."
Langner verweist darauf, dass es laut KI-Verordnung der EU eine Aufklärung der Patienten darüber geben müsse, ob sie mit einem Menschen oder einer KI im Dialog sind. "Auch die Aussagekraft zur ‚therapeutischen Allianz‘ ist sehr schwach, da hierfür nur gefragt wurde, ob die TeilnehmerInnen denken, dass der ‚Therapeut sie versteht‘", erklärt er und bemängelt, dass die Studie keine Aussage über die Effektivität von KI in der Psychotherapie treffen könne, weil sie dafür zu viel Schwächen aufweise.
Auch er sieht Potenzial für den Einsatz der KI in der Psychotherapie. Allerdings "eher in der Unterstützung von Therapeuten im Alltag für beispielsweise administrative Tätigkeiten" und zur Überbrückung von Wartezeiten, sowie der Vor- und Nachbereitung bei Therapien.
KI-Testate für Wissenschaftler
Zweifelsohne erschließen sich der KI immer mehr Einsatzgebiete. Nicht alle sind so hochwissenschaftlich zu betrachten wie die Psychotherapie. So stellt sich bei der KI-gestützten Erstellung von generierten Porträtfotos neben der Geschmacksfrage das Problem, wie überzeugend die gefakten Aufnahmen letztlich sind.
Fotografen durch Maschinen zu ersetzen, wirft jedoch weniger ethische Fragen auf, als der Einsatz von KI in der Psychotherapie.
Den umgekehrten Weg, nicht die KI als Professor einzustellen, sondern Lehrkräfte in der Anwendung der KI zu testieren, geht die Universität Patras. In einem für Griechenland einzigartigen und für Europa seltenen Projekt hat sich die Uni auf die Fahnen geschrieben, verschiedenen Wissenschaftlern und Berufsgruppen die ihnen nützlichen KI-Werkzeuge zu vermitteln und ihre Kompetenz in der Anwendung künstlicher Intelligenz zu erweitern.
So werden neben Mathematikern und Philologen und Philosophen auch die Mitarbeiter in den Tourismusbetrieben des Landes entsprechend geschult und testiert.
Für die Uni ergibt sich somit ein neues Betätigungs- und Lehrgebiet, das entsprechend dem Zeitgeist auch im Fernstudium angeboten werden kann.