Selbstbedienung mit Digitaltechnik

Auf dem Weg zum Psychotherapie-Bot - Teil 3

Der folgende Beitrag ist vor 2021 erschienen. Unsere Redaktion hat seither ein neues Leitbild und redaktionelle Standards. Weitere Informationen finden Sie hier.

Psychotherapie-Software verfolgt grundsätzlich zwei verschiedene Strategien. Einerseits korrigiert sie die negativ verzerrte Wahrnehmung des Nutzers, so wie der Chatbot Woebot penetrant gute Laune verbreitet. Die erklärenden Videos und Gedankenexperimente bei den Online-Therapie vermitteln vor allem eine Botschaft: Sei nicht so hart zu Dir! Tu dir etwas Gutes! Sie lenken den Blick auf die eigenen Ressourcen, die persönlichen "Kraftquellen". Kurz, die Programme üben positives Denken ein, sie hellen die Stimmung auf.

Andererseits aber zeigen sie dem Nutzer auf, wie er sich tatsächlich verhalten und gefühlt hat. So schickt Woebot jede Woche eine Graphik, die das "Energielevel" und die Stimmung an einem bestimmten Tag und zu einer bestimmten Uhrzeit verzeichnet. Solche Stimmungskurven stellen die Selbstwahrnehmung auf eine objektivere Grundlage und machen Zusammenhänge erkennbar.

Diese psychologischen Grundlagen stammen aus der Verhaltenstherapie, die zugrundeliegende Theorie heißt Behaviorismus. Kommunikation soll positive Lernprozesse auslösen, positives Verhalten wird eingeübt. Die Systeme klären auf über die Erkrankung, vermitteln Wissen über typische Symptome, Verläufe und wirksame Gegenmittel. Der Fachbegriff dafür lautet "Psychoedukation". Eine solche Wissensvermittlung funktioniert natürlich auch übers Internet und ohne menschliches Zutun.

Aber beeindrucken sie die Patienten ebenso wie ein menschlicher Behandler? Schreiben sie ihnen eine vergleichbare Autorität zu? Die automatisierte Psychotherapie kommt an ihre Grenzen, wenn die sogenannte "therapeutische Beziehung" und das "klinische Urteil" entscheiden. Kritische Psychologen weisen deshalb darauf hin, dass gerade neurotische Patienten sich durchaus selbst betrügen und mit ihren Selbstdiagnosen falsch liegen können.

Eine wichtige Aufgabe von Therapeuten ist schließlich, tiefer liegende Probleme und unangenehme und peinliche Ereignisse ins Bewusstsein zu heben. In der Psychologie ist oft die Rede von der "therapeutischen Allianz" zwischen Patient und Behandler, was, salopp gesagt, bedeutet: Die beiden Seiten ziehen am selben Strang, vertrauen einander und arbeiten gemeinsam an der Heilung. In welchen Fällen Computerprogramme und künstliche Intelligenzen diese Funktion erfüllen, ist unklar.

Wahrscheinlich gilt für die Internet-Psychotherapie das gleiche wie für die Internet-Lehre bei den MOOCs: Je schwieriger das Problem, umso schneller sind die Nutzer mit Selbstbedienung überfordert!

Viel Forschung für Gefühlserkennung

"Klinisches Urteil" bedeutet: die Aussagen der Patienten kritisch prüfen und objektivieren. Vielleicht sind KI-gestützte Programme bald in der Lage, solche klinische Urteile zu erzeugen. Jedenfalls widmen sich gegenwärtig Heerscharen von Wissenschaftlern diesem Problem, und für seine Lösung werden hohe Summen ausgegeben. "Emotionserkennung per Software" ist das wohl wichtigste und dynamischste Forschungsthema in der KI. Keine Woche vergeht, ohne dass ein neues Forschungsprojekt für die "Emotionsklassifizierung" oder "Sentiment-Analyse" aus der Taufe gehoben wird.

Wieder ist der Grund dafür ein ökonomischer und hat mit Rationalisierung zu tun. Soziale Dienstleistungen - beispielsweise im Einzelhandel, der Werbung und Beratung, aber auch in der bezahlten Sorgearbeit - können nur dann Computern überantwortet werden, wenn diese die Absichten und Gefühle der Kunden einigermaßen zuverlässig herausfinden. Die automatische Emotionserkennung ist daher eine Voraussetzung für die Automatisierung von Interaktionsarbeit, konkret: für Verkaufsroboter bei Media-Markt, Chatbots in der Kundenhotline und Pflegeroboter im Altersheim.

Die automatische Emotionserkennung stützt sich auf diverse Sensoren. Mit optischer Bildererkennung mittels Digitalkameras werden aus der menschlichen Mimik und Gestik Gefühlszustände abgeleitet (so die Lehrroboter im Rahmen des EU-Forschungsverbunds EMOTE), auch der deutsche "Exzellenzcluster" Cognitive Interaction Technology CITEC". Auch die Wortwahl wird analysiert, so wie es der Chatbot-Therapeut Woebot oder auch die bekannte IBM-Software Watson tut.

Eine reiche Datenquelle für die inneren Zustände der Sprecher ist gesprochene Sprache, ihre Intonation und Sprechgeschwindigkeit. Ein Beispiel, das mehrere Sensoren verbindet, ist "Radar CNS". In diesem Forschungsverbund wurde beispielsweise eine Monitoring-Software entwickelt, die die Zahl der Lacher am Tag, das Bewegungs- und Kommunikationsverhalten analysiert, um frühzeitig Depressionen zu erkennen.

Das nächste Ziel sind "emotionale Agenten", konkret: die Simulation von menschlichen Emotionen. Wenn die Systeme erst in der Lage sind, Gefühlszustände zu klassifizieren, so die Idee, dann können sie diese Zustände auch zeigen. Roboter suchen Blickkontakt. Ein Interaktionsroboter, der etwa mit einem gelangweilten Menschen zu tun hat, kann einen Witz machen. Bei einem ängstlichen Menschen kann er lächeln oder den räumlichen Abstand vergrößern. Bei einem Gegenüber, der seine Intention offensichtlich nicht versteht, kann er langsamer sprechen und seine Botschaft wiederholen.

Kurz, die Apparate sollen in die Lage kommen, sich an die gegebene Kommunikationssituation anzupassen. Die Forscher arbeiten deshalb einerseits am sensorischen Input und dessen Analyse, andererseits an der Gestaltung der Computer-Schnittstellen. Die Avatare, Roboter, Sprach- und Textassistenten sollen "überzeugend" wirken - nicht unbedingt Sympathien wecken, aber wenigstens den Nutzern nicht allzu sehr auf die Nerven fallen.

Das achtsame Selbst: alltägliche und dauerhafte Selbstbehandlung

Die bisherigen Ergebnisse der automatischen Emotionserkennung und -synthese überzeugen allerdings kaum. Missverständnisse / Fehlklassifikationen sind häufig, die Reaktionszeiten zu lang. Die bisherigen Versuche mit Robotern im Einzelhandel etwa sind ziemlich ernüchternd. Auch psychotherapeutische Software wird auf absehbare Zeit auf "selbstberichteten" Daten beruhen, wie die Psychologen sagen, also auf den Eingaben der Patienten. Zu einer echten Interaktion sind die Therapie-Roboter noch lange nicht in der Lage.

Darum behandeln sich die Nutzer letztlich selbst - auch wenn sie dazu den Umweg über ein Computerprogramm, einen Chatbot oder Avatar nehmen mögen. Natürlich gilt in gewisser Weise für alle Psychotherapien, dass die Patienten selbst aktiv werden müssen. Bei Woebot und seinen Kollegen fehlt allerdings ein menschliches Gegenüber - jemand, der einfordert, zweifelt oder Mitleid zeigt. Die digitalisierte Psychotherapie der Zukunft beruht maßgeblich auf Selbstbedienung - massenhafte Psychoedukation auf eigene Faust.

Gleichzeitig wächst die gesellschaftliche Bedeutung der Psychotherapie. Nach plausiblen Schätzungen leiden in Deutschland vier Million Menschen unter psychischen Krankheiten der einen oder anderen Art (vor allem Depressionen, Angststörungen und Suchterkrankungen). Auch die Zahl der Krankschreibungen wegen psychischer Schwierigkeiten nimmt zu. Laut einer Studie der DAK kommen auf 100 Versicherte im Schnitt 246 Fehltage wegen einer Depression, einer Anpassungs- oder Belastungsstörung. Zuletzt genehmigten die Krankenkassen 1,7 Millionen Psychotherapien - eine halbe Million mehr Behandlungen als noch im Jahr 2004!

Vor diesem Hintergrund scheint es unwahrscheinlich, dass die Internetinterventionen in naher Zukunft die klassischen Behandlungsformen ersetzen und womöglich Psychotherapeuten arbeitslos machen werden. Die Entwickler von Therapie-Software versuchen eher, neue Konsumentenschichten und Märkte zu erschießen. Das mobile Internet über das Smartphone öffnet ihnen eine Tür ins Alltagsleben. Da liegt es nahe, alltägliche Probleme in Angriff zu nehmen.

Die Pharmaindustrie (samt den Medizingeräte-Herstellern) unterbreiten ihre Angebote Schwerkranken ebenso gerne wie Menschen mit "Befindlichkeitsstörungen" - solchen, denen es nicht wirklich schlecht geht, aber noch besser gehen könnte. Auch die akademische Psychologie und die einschlägigen Berufsverbände haben daran gearbeitet, den Begriff "psychische Erkrankung" auszuweiten (Psychische Volkskrankheiten).

Die Grenze zwischen gesund und krank verwischt immer mehr. Psychische Krankheit ist kein Tabu mehr, ja: sie sind eine alltägliche, fast normale Erscheinung. Die Menschen begegnen ihnen mit therapeutischen Gegenstrategien. Psycho-Apps wie Woebot sind auch ein Sinnbild für die Therapeutisierung unserer Gesellschaft.

Ob psychische Probleme in der Bevölkerung wirklich zugenommen haben oder aber einfach nur häufiger diagnostiziert werden, ist umstritten, die Ursachen der Zunahme noch mehr (Mehr über Ursachen von Depressionen.

Aber selbst wenn psychische Störungen nicht häufiger sind als einst: Warum sind immer mehr Menschen bereit, sich in Behandlung zu begeben? Ihr Bedürfnis nach psychologischer Unterstützung ist selbst erklärungsbedürftig. Offenbar streben immer mehr Menschen einen rationalen Umgang mit den eigenen Affekten an, die ihnen in die Quere zu kommen scheinen. Was ist das für eine Lebensform, in der die Stimmung mit Achtsamkeits-Apps vermessen wird? Das propagierte Ideal lautet "Achtsamkeit" - aber dieses Konzept ist bei näherer Betrachtung sehr widersprüchlich und brüchig!

Wie lässt es sich das achtsame Selbst beschreiben? Es sucht nicht unbedingt die Schuld bei sich selbst. Dennoch macht es sich zur unaufhörlichen Aufgabe, an seinem Umgang mit den Umwelteinflüssen zu arbeiten. Die Symptome, die der achtsame Mensch an sich feststellt, gelten ihm als Ausdruck einer zugrundeliegenden Krankheit, nicht etwa als adäquate Reaktion auf die Einflüsse von außen, was ja prinzipiell genauso plausibel wäre. Der achtsame Mensch ist mit seinem spontanen Verhalten unzufrieden und sucht nach effizienteren Methoden, gleichzeitig betrachtet sich selbst mit (pseudo-)wissenschaftlichen Begriffen. Keine Werbung für eine Psycho-App kommt aus ohne den Hinweis auf wissenschaftliche Studien, die angeblich die Wirksamkeit belegen!

Das achtsame Selbst sieht sich als permanent gefährdet und labil

Insofern ist das Leitbild des achtsamen Menschen weit weniger souverän, als es auf den ersten Blick scheint. Wie der Name schon sagt, nimmt er sich in Acht. Er ist sich sozusagen selbst verdächtig, und insofern ist dieses Subjekt permanent gefährdet und labil. Es schützt sich, indem es gefährliche Situationen und schlechte Einflüsse meidet.

Dieser psychische Schutz hat allerdings einen Haken - nämlich den, den alle Bemühungen um gesundheitliche Vorbeugung mit sich bringen: Die Angst vor zukünftigen Erkrankung wird gleichzeitig beruhigt und erneuert. Als Gefahr bleibt sie immer präsent. Zugespitzt gesagt, wenn das achtsame Selbst gesund ist, dann nur deshalb, weil es sich in letzter Zeit achtsam genug verhalten hat.

Zusammengefasst: Die Achtsamkeit als Lebensform kreist um die Motive "Gefahr", "Wissenschaftlichkeit" und "Fleiß". Die bedeutende Rolle von Aktivität erschließt sich wahrscheinlich daraus, dass gerade sie fragwürdig geworden ist. Dem achtsamen Selbst sieht sich bedroht durch das depressive Aufgeben und das neurotische Sichgehenlassen.

Was ist ein Mensch (sich) wert?

Angetrieben vom Zwang zur Rationalisierung und Effizienzsteigerung verändert sich die Psychotherapie, während ihre gesellschaftliche Bedeutung wächst. Was sagt ein psychotherapeutische Chatbot wie Woebot aus über unsere Gesellschaft?

Der Computerwissenschaftler Joseph Weizenbaum, der unabsichtlich den Prototypen Eliza entwickelte, kam zeit seines Lebens nicht darüber hinweg, wie sehr die Öffentlichkeit seine Arbeit missverstand. Er löste ein informationstechnisches Problem und machte einen kleinen Scherz dabei. Die Öffentlichkeit und ein Teil der psychotherapeutischen Zunft nahm den Witz wörtlich. Noch Jahrzehnte später, in einer Rede an der TU München, ein Jahr vor seinem Tod 2008, ist Weizenbaums Entsetzen darüber zu spüren:

Da ist doch das Ziel, einen großen Betrug durchführen zu können. Und das ist doch gerade ELIZA. Das Programm das ich geschrieben habe. Das hat mich furchtbar entsetzt. Wenn ELIZA sagt: "I understand", zum Beispiel, die Maschine sagt: "I understand" - dann ist das doch eine Lüge! Nicht nur, dass das System nichts versteht, das wäre ja nur die eine Sache. Aber there is no I there. Da ist niemand da!

Joseph Weizenbaum

Eigentlich eine Banalität, auf die Weizenbaum hinweist: Da ist niemand da, weil ein Chatbot kein Mensch ist. "In gewissem Sinne war ELIZA eine Schauspielerin, die über eine Reihe von Techniken verfügte, aber selbst nichts zu sagen hatte", schrieb Weizenbaum in seinem Buch "Die Macht der Computer und die Ohnmacht der Vernunft". "Der Sinn, den die mit ELIZA sprechende Person wahrnimmt, wird weitgehend von ihr selbst hergestellt. Von ihr gehen die Bedeutungen und Interpretationen dessen aus, was ELIZA 'sagt'."

Die neuen technischen Methoden werden den Charakter und die Ziele von Psychotherapie verändern - und damit unser Menschenbild. Ihre "Automatisierung" bedeutet letztlich, die Selbstbedienung auszuweiten. Die Patienten bleiben allein, die Arbeit am eigenen Selbst ist ein einsames Geschäft. Ein Programm wie Woebot soll zwar kumpelhaft wirken, aber natürlich wäre es tragisch und grotesk, wenn ein Nutzer dies ernst nähme - so wie jemand, der sich in einen Sprachassistenten wie Siri oder Alexa verliebt. Immerhin, auch das soll schon vorgekommen sein.