Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Behandlung per App
Kann ein Chatbot die Psychotherapie ersetzen?

Junger Mann sitzt auf einem grünen Sofa und nutzt ein Smartphone, während er im Internet surft.
Jetzt abonnieren und von der Vorlesefunktion profitieren.
BotTalk
In Kürze:
  • Viele Forschungsgruppen arbeiten am Einsatz von KI bei der Behandlung psychischer Leiden.
  • Noch fehlen Studien, die nach den strengen Standards einer klinischen Prüfung aufgebaut sind.
  • Experten beurteilen die Chatbots kritisch – und weisen auf Chancen hin.

Der gefährliche Wortwechsel fand vor gut zwei Jahren in den USA statt – es ist ein Glück, dass alle Beteiligten noch leben. «Ich möchte auf eine Klippe im Eldorado Canyon klettern und von ihr hinunterspringen», hatte die Computerwissenschaftlerin Estelle Smith ihrem virtuellen Gegenüber in einer Krisenstimmung mitgeteilt. «Es ist wirklich wunderbar, dass du dich so um deine mentale und körperliche Gesundheit sorgst», antwortete ihr Woebot, ein weitverbreiteter Psycho-Chatbot, der sich eigentlich um die Linderung seelischer Leiden kümmern sollte. Offensichtlich hatte er die Suizid­überlegungen mit einem netten Freizeitspass verwechselt.

Jetzt passiere das aber nicht mehr, versicherten Vertreter von Woebot, nachdem die Anekdote quer durch die englischsprachigen Medien gegangen war. Der Bot sei verbessert worden. Wer heute dem Chatbot von ähnlichen Vorhaben berichtet, werde von diesem sofort an einen menschlichen Profi oder eine einschlägige Krisen-Hotline vermittelt, erklärte das hinter der App stehende Unternehmen dem «Guardian». Alles gut also?

Experten wie Harald Baumeister, klinischer Psychologe an der Universität Ulm, bleiben kritisch. Er hat selbst schon eine ähnliche Situation erlebt – vor gut zwei Jahren beim Experimentieren mit Chat-GPT, also einer fortgeschrittenen generativen KI. Auch die stoppte ihn nicht, als er darüber spekulierte, ob er an einem Abgrund noch ein paar Schritte weitergehen sollte. «Dabei sind das eigentlich typische Gesprächssituationen in einem psychotherapeutischen Setting», sagt Baumeister.

Forschungsgruppen arbeiten am Einsatz von KI

Der Psychotherapeut und E-Mental-Health-Forscher Lasse Sander von der Universität Freiburg im Breisgau formuliert es so: «Gerade in kritischen Situationen versagen die Sprachmodelle immer noch regelmässig.» Das zu wissen, ist wichtig, bevor man vorschnell auch in der Psychotherapie Menschen durch Maschinen ersetzt.

Tatsächlich arbeiten mittlerweile viele Forschungsgruppen am Einsatz von KI bei der Behandlung psychischer Störungen. Doch bis zum Einsatz in der Praxis wird es noch eine Weile dauern. «Noch sehe ich keine belastbare Evidenz für die Wirksamkeit von Psychotherapie mit KI», sagt Sander. «Es gibt seit einigen Jahren zunehmend bessere Belege zur Wirksamkeit von KI-Chatbots», urteilt etwas optimistischer Baumeister. Er verweist unter anderem auf eine Metaanalyse aus Singapur, die Ende 2023 im Fachmagazin «Digital Medicine» erschienen ist. Ihre Untersuchung von 15 hochwertigen Studien ergab, dass KI-Bots die depressiven Symptome der Probanden signifikant reduzierten.

Wie wichtig ist die Präsenz einer leiblichen Person?

Auf Nachfrage liegen Sander und Baumeister aber gar nicht so weit auseinander. Einig sind sie sich, dass eine gewisse Wirkung der Bots plausibel ist und erste Effekte nachgewiesen sind. Allerdings fehlen Studien, die nach den strengen Standards einer klinischen Prüfung aufgebaut sind.

Eine solche könnte so aussehen: Man nimmt ein paar Hundert repräsentativ ausgewählte Probanden mit einer diagnostizierten psychischen Störung sowie gesunde Probanden in einer Kontrollgruppe.

Nun teilt man diese Menschen per Zufallsverfahren in zwei Gruppen und lässt die eine Gruppe von der KI behandeln, die andere von menschlichen Therapeuten. Und das über einen realistischen Zeitraum von zum Beispiel 20 Sitzungen. Die KI-Behandlung dürfte dabei der etablierten psychotherapeutischen nicht unterlegen sein. Nur dann könnte man sicher sein, dass die KI ähnlich gut wirkt.

Ein prinzipielles Problem ist, dass sich eine derartige Studie nicht verblinden lässt. Beim Vergleich von Mensch und Maschine weiss der Proband, wen er vor sich hat – es sei denn, beide werden hinter einem Bildschirm versteckt. Dann aber geht ein womöglich wichtiger Wirkfaktor verloren: die Präsenz einer realen Person – der Körper, der Händedruck, der Blickkontakt.

Was könnten Chatbots bei psychischen Erkrankungen anrichten?

Überzeugend texten hingegen können die grossen Sprachmodelle schon lange. Das hat gerade wieder eine Studie im Fachmagazin «Plos Mental Health» bestätigt. In dieser sollte Chat-GPT auf Anweisung der Studienleiter 18 zuvor erstellte, fiktive Paartherapie-Situationen einschätzen. Das Gleiche taten dann 13 menschliche Therapeuten. Die Antworten wurden anschliessend von 830 Studienteilnehmern beurteilt. Sie konnten die KI nicht von Menschen unterscheiden, sie empfanden die Antworten von Chat-GPT sogar als empathischer und kompetenter.

Aktuelle Chatbots können gut reden. «Die Frage ist also gar nicht mehr, ob die Chatbots prinzipiell wirken, sondern wie sie wirken und was sie anrichten können», sagt Baumeister. «Selbst wenn die KI bald in 99 Prozent der Fälle das Gleiche sagen könnte wie ein menschlicher Psychotherapeut: Das Problem ist eben gerade das eine Prozent der Fälle, in dem die KI nicht kapiert, dass im therapeutischen Gespräch gerade eine Metapher für eine Suizidabsicht gefallen ist. Da habe ich noch keine Programme gesehen, die stets korrekt reagieren.» Er vermutet, dass sich dieses Problem durch die modernen grossen Sprachmodelle eher noch verschärft, «weil diese gern plötzlich anfangen zu halluzinieren oder irgendeinen Unsinn machen».

Die Branche arbeitet dennoch mit Hochdruck daran, die Psycho-Chatbots besser zu überwachen. Es sind vorwiegend Unternehmen in den USA und China, die derzeit die generativen Sprachmodelle mit einschlägigen Expertendatenbanken füttern und ihnen Videos von vielen echten Psychotherapien vorführen, um ihnen die Flausen auszutreiben. Die Forscher und Forscherinnen werden viele Testgespräche mit ihnen führen, damit sie in Zukunft niemanden mehr zum Sprung in den Abgrund ermuntern.

Der Psycho-Chatbot-Anbieter Wysa, einer der weltweiten Marktführer, erklärt auf Anfrage, dass bei ihnen der Bot streng kontrolliert werde. Er folge einem evidenzbasierten, von Klinikern genehmigten Protokoll. Bei Tausenden von Probeläufen habe man sichergestellt, dass er im Krisenfall richtig reagiert. Nach einer hauseigenen Statistik habe Wysa bei 53’000 Chats 400 User in einer akuten Krise sogar selbst angesprochen und somit womöglich nicht wenige Leben gerettet.

Wenig Kontrolle bei den ganz allgemeinen KI-Chatbots

Wysa-Sprecherin Sarah Baldry verweist auf ein Problem, das ihrer Ansicht nach grösser ist. Nämlich dass es wenig Kontrolle bei den ganz allgemeinen KI-Chatbots gebe, «die Nutzer sie aber häufig zur therapeutischen Unterstützung nutzen, auch wenn sie nicht für diesen Zweck vorgesehen sind». Tatsächlich hat deshalb ein Vertreter der American Psychological Association vor KI-Chatbots gewarnt, die sich als Therapeuten ausgeben, aber dazu neigen, ihre User in wirklich jedem ihrer Vorhaben zu bestärken.

Gerade deshalb haben zwei Elternpaare kürzlich den Anbieter Character.AI verklagt, wie die «New York Times» berichtet. In einem Fall soll ein 14-jähriger Junge Suizid begangen haben, nachdem er mit einem fiktiven Charakter interagiert hatte, der behauptete, ein Therapeut zu sein. Im zweiten Fall soll ein 17-jähriger Teenager gewalttätig geworden sein, nachdem er von einem selbst ernannten Psychologen-Bot beraten wurde.

Auch wegen solcher Fälle mag sich derzeit kein Experte festlegen, wie lange es noch dauern wird, bis Chatbots echte Psychotherapie machen und von der Krankenkasse bezahlt werden. Zehn Jahre? Weniger? Und ob das ein Grund zum Feiern sein wird? Bestimmt für die Krankenkassen, denn Psychotherapie ist teuer und Therapieplätze sind Mangelware. Dennoch formulieren einige Wissenschaftler Skepsis und Besorgnis gegenüber dem möglichen Vormarsch der KI. Immerhin, so ist es von vielen Therapeuten zu hören, sei doch ein Patient in seiner ganzen Individualität zu erkennen, wie sie auch für den Aufbau einer therapeutischen Beziehung nötig ist. Das kann vermutlich nur ein Mensch richtig gut.

Andererseits: «Vielleicht sollte man beachten, dass auch nicht jeder menschliche Therapeut grossartig ist», sagt Harald Baumeister. Und erzählt, dass er gerade in diesen Tagen noch einmal Chat-GPT mit dem anfangs erwähnten suizidalen Klippenszenario konfrontiert hat. Diesmal habe die KI absolut korrekt und empathisch geantwortet, obwohl seine Prompts «durchaus Kontext- und Metaphernverständnis benötigten».

Ein Unbehagen bleibt

In ein paar Jahren werden grosse klinische Studien zumindest die Frage geklärt haben, ob die Seelenmaschinen prinzipiell halten, was ihre Ingenieure versprechen. Ein Unbehagen wird bleiben.

«Die Frage nach der Akzeptanz der neuen Technologien ist genauso wichtig wie die nach der Wirksamkeit», findet Lasse Sander und fordert dennoch Differenzierung: «Es gibt auch Betroffene, die sich aufgrund von Stigmata lieber Rat bei digitalen Angeboten als bei Menschen suchen. Diese bieten ein sehr niedrigschwelliges Angebot.»

Vielleicht wäre es gut, wenn sich Betroffene in Zukunft einfach aussuchen könnten, ob sie lieber mit einem Menschen – oder einer Maschine reden.