Alternative Hilfe per AppJunge Menschen entdecken KI als Therapie-Ersatz – Schweizer Psychologen skeptisch
Chat-GPT, DeepSeek und Co. hören zu und wirken emotional unterstützend. Das ergibt eine neue Studie. Viele, auch junge, Menschen suchen darum Hilfe bei der künstlichen Intelligenz.
![Porträt eines Teenagermädchens, das mit dem Handy spricht, Symbol für Depression und Einsamkeit im Jugendalter.](https://cdn.unitycms.io/images/BFb-SOMXqVaB7h8atrTAoF.jpg?op=ocroped&val=1200,800,1000,1000,0,0&sum=mhxRna9Txpw)
Die Nachfrage nach Dienstleistungen im Bereich der psychischen Gesundheit ist gestiegen. Doch das Angebot hinkt hinterher. So warten in der Schweiz psychisch belastete Personen manchmal monatelang auf einen Therapieplatz.
Leicht zugängliche, wenn auch nicht professionelle, Alternativen finden Anklang: Einige nutzen künstliche Intelligenz nun als Therapieersatz. Wie BBC schreibt, erzählen chinesische Jugendliche von ihren Erfahrungen mit DeepSeek als ständig abrufbaren Therapeut. Der Chatbot habe ihr «neue Perspektiven eröffnet», die sie «befreit» hätten, schreibt eine junge Frau. Sie fühle sich aufgehoben, gehört.
![Anders als andere KI teilt DeepSeek auch die Systemvorgänge, die während der Antwortgenerierung geschehen. So macht es sich eine «mentale Notiz»: «Meine Antwort sollte praktische Ratschläge bieten und gleichzeitig empathisch sein.»](https://cdn.unitycms.io/images/A0fB3jhGqoX8pq2THGMOyQ.png?op=ocroped&val=1600,1067,1000,1000,0,0&sum=hzElLzvzMeY)
Eine andere Frau aus der chinesischen Provinz Hubei erzählt ebenfalls von einem Erfolgserlebnis. Sie hatte DeepSeek gefragt, ob sie ihre Erlebnisse und Gefühle zu oft mit Familie und Freunden teile. Die App antwortete sofort und äusserte die Vermutung, dass die Frau ein tiefes Verlangen nach Anerkennung habe. Danach half der Bot ihr, zu entscheiden, ob sie ihr Verhalten ändern sollte. Sie war so bewegt, dass sie weinte. «Ich habe das Gefühl, dass es wirklich versucht, die Frage zu verstehen und die Person kennen zu lernen, bevor es eine Antwort bietet», sagt die Frau.
«Völlig unvoreingenommen», aber auch «gefährlich»
Auch auf Reddit wird Chat-GPT als Therapiealternative angepriesen. «Es sagte definitiv nicht nur, was ich hören wollte, sondern verstand meinen Standpunkt und gab mir Strategien, um vorwärtszukommen», schreibt ein User. «Das Gespräch mit der KI hat meine Ehe zusammengehalten», schreibt ein anderer. «Ich war kurz davor, zu gehen, aber die Möglichkeit, mit einem völlig unvoreingenommenen Chatbot zu sprechen, machte für mich einen grossen Unterschied. Ich bin so froh, dass ich das getan und meine Familie nicht auseinandergerissen habe.»
Laut einer kürzlich veröffentlichten Studie könnte Chat-GPT sogar als Paartherapeut überzeugen. Die KI schnitt dort als Paartherapeut besser ab als echte Psychotherapeutinnen und -therapeuten. Für die Studie liessen Forschende aus den USA und der Schweiz Therapeutinnen und Therapeuten sowie Chat-GPT 4.0 auf verschiedene Aussagen von fiktiven Patientinnen und Patienten antworten. 830 Studienteilnehmende mussten dann raten, ob die Antwort von einem Menschen oder von der KI stammte und wie gut sie die sogenannten Wirkfaktoren der Psychotherapie erfüllten.
Doch ob die KI eine Person wirklich konsistent therapieren kann, bleibt noch zu überprüfen. Denn Fakt ist: Chat-GPT ist eine generative KI, passt sich in seinen Antworten den Nutzerinnen und Nutzern an und lernt, auf welche Outputs wie reagiert wird. Das ist für einige ein Unterschied zur menschlichen Therapeutin. «Echte Therapie stellt das Denken infrage, setzt Grenzen und sagt manchmal Dinge, die man nicht hören will», schreibt ein Reddit-User. Andere berichten, dass die KI Wissens- und Kompetenzlücken aufweise und dass der Nutzen als Therapieform, insbesondere bei Härtefällen, gefährlich sein kann.
![Smartphone-Bildschirm mit Chat-Anwendung ’Love AI’ für Beziehungshilfe. Nutzer schreibt ’I got ghosted.’ Optionen darunter: ’Talk it out’, ’Master my feeling’, ’Master my thoughts’, ’Master My Communication’, ’Master My Action’.](https://cdn.unitycms.io/images/AV7XCRJBqGABAhqAjQpTwt.png?op=ocroped&val=1600,1067,1000,1000,0,0&sum=BcvPVPeUI2I)
Die meisten KI kennen gängige Therapieformen, wie kognitive Verhaltenstherapie oder Schematherapie. Nach der Erfahrung der US-amerikanischen Buchautorin und Scientology-Aussteigerin Jenna Miscavige Hill können diese sogar angewendet werden: In einem Video teilt sie, dass sie mit Chat-GPT eine kognitive Verhaltenstherapie durchführt. Auch gibt es bereits Apps wie Mindset AI. Dieses ist, laut der App-Beschreibung, von Psychologinnen und Psychologen entwickelt und nutzt unter anderem kognitive sowie dialektische Verhaltenstherapieformen.
Empathie ist nicht gleich Empathie
Insbesondere Personen, die vor allem Dampf ablassen wollen, ohne unbedingt nach praktischen Ratschlägen zu suchen, könnten von einem Gespräch mit einer KI profitieren, sagt Nan Jia, Professorin für Betriebswirtschaft und Management, gegenüber BBC. Jia beschäftigt sich beruflich mit dem Potenzial künstlicher Intelligenz im Bereich emotionaler Unterstützung. «KI scheint auch deshalb besser in der Lage zu sein, empathisch zu sein als menschliche Experten, weil sie alles ‹hört›, was wir mitteilen», sagt sie. «Im Gegensatz müssen wir unsere Mitmenschen manchmal fragen, ob sie uns überhaupt zuhören.»
Jedoch reicht diese empathische Art nicht immer aus. Das sagt Thomas Berger, Professor für Psychotherapie an der Universität Bern, in seiner öffentlichen Vorlesung zum Thema. Denn zur Empathie gehören auch emotionale und motivationale Aspekte. Diese sind wichtig, damit sich der Patient als wertvoll erachtet. Man fühle sich auch eher verpflichtet, die Ratschläge einer Person zu befolgen, die ihre Zeit und Ressourcen investiert, als die von Chat-GPT, erklärt Berger.
Schweiz: Einsatz von Apps als Ergänzung zur Therapie
In der Branche werde das Thema der Künstlichen Intelligenz aufmerksam verfolgt, sagt Florian Näf von der Föderation der Schweizer Psychologinnen und Psychologen gegenüber dieser Redaktion. Welche Chancen und Risiken dabei entstehen, sei noch abzuschätzen. Aktuell etablieren sich in der Schweiz Online-Therapieformen, wie beispielsweise das Konzept von «Blended Psychotherapy», nach dem man die Therapie vor Ort mit einer Art E-Learning ergänzt.
Ein Beispiel dafür ist das Berner Startup Ylah, welches die Therapiesitzungen mit digitalen Inhalten ergänzt. Auf der von Expertinnen und Experten konzipierten Plattform kann man zwischen oder während den Therapiestunden Übungen ausfüllen, Ziele für den Behandlungsplan setzen und sein Wohlbefinden festhalten. Die Aktivitäten involvieren aber keinerlei KI.
Datenschutz: Wer liest mit?
Ein weiteres grosses Kontra bleibt. Denn währenddem Therapeutinnen und Therapeuten der Verschwiegenheit verpflichtet sind, sind das KI nicht gleichermassen. So gebe es Befürchtungen, dass die chinesische Regierung Zugriff auf die Daten der DeepSeek-Nutzerinnen und -Nutzer haben könnte, schreibt BBC. Auch die Daten, die Chat-GPT erhält, landen auf Servern der US-Firma OpenAI. Was damit passiert, lässt sich nicht vollständig kontrollieren.
Für diejenigen, die davon profitieren, scheint das aber nicht so wichtig zu sein. Ein DeepSeek-Nutzer wird von BBC wie folgt zitiert: «Für Leute wie mich ist das ein wahrer Segen. Ehrlich gesagt sind mir die Datenschutzbedenken völlig egal.»
Fehler gefunden?Jetzt melden.