4. August 2025. Mit diesem Thema überraschte mich der NZZ Podcast "NZZ Akzent" am 4. August 2025. Nadine Landert schreibt "Wenn KI-Chatbots wie Chat-GPT den Therapeuten ersetzen. Immer mehr Menschen holen sich emotionale Hilfe bei künstlicher Intelligenz. Laut einer Studie können Chatbots bei psychischen Problemen messbar helfen. Doch das kann auch gefährlich sein. - Sie führt in dem Podcast ein 16-minütiges Gespräch mit Malin Hunziker.
Mehr und mehr Menschen suchen bei psychischen Problemen Rat bei ihrem "Therapie-Bot". Menschen mit Angststörungen z.B. fühlen sich dort verstanden. Und das Schöne: Diese Bots können tatsächlich messbar helfen! In dem Gespräch geht es um eine Studie der University of Dartmouth (eine der bedeutenden US-Universitäten), in der wissenschaftlich exakt über Ergebnisse mit Bots berichtet wird. Dieser Therapie-Bot ist nicht ChatGPT, sondern ein Chatbot, der vorher speziell trainiert wurde. Das Ergebnis war, dass dieser Bot Menschen mit psychischen Problemen wie Depressionen, Angststörungen oder Essstörungen tatsächlich helfen kann. Allerdings war es eine kleine Studie mit nur 210 Teilnehmern. Nach 4 und 8 Wochen wurden die Menschen gefragt, und nur die Testpersonen mit Therapie-Bot-Zugang fühlten sich danach besser, während die anderen es nicht waren. Erstaunlich war, dass die Testpersonen den Kontakt zu ihrem Chatbot ebenso gut einschätzten, wie zu einem menschlichen Therapeuten! Viele erkannten die Vorteile, die der Bot zu bieten hat. Er ist z.B. immer erreichbar. Das Smartphone schafft den Zugang mit Leichtigkeit. Die Privatsphäre ist schnell herstellbar, z.B. auch morgens in der Frühe um 2:00 Uhr. Die Autoren weisen nachdrücklich darauf hin, dass die Therapie mittels KI-gestütztem Chatbot nur zusätzlich zu der üblichen, menschlichen Behandlung gesehen werden kann. Chatbots können - wie allgemein bekannt ist - auch Fehler machen! Man denke nur an Suizid-gefährdete Patienten. - In dem Podcast ist auch von einem mittels Spracheingabe gesteuerten Chatbot die Rede. Großes Lob, wenn man den Text nicht mittels Tastatur eingeben muss, sondern im Dialog!... Hören Sie sich am besten den Podcast gern an; ich will hier nicht alles wiederholen.
Nachdem ich von der NZZ auf das Thema aufmerksam gemacht wurde, bat ich meinen (allgemeinen, nicht speziell medizinisch ausgerichteten) Chatbot ChatGPT um eine Ausarbeitung zu diesem Thema, und nach kurzer Überlegung bekam ich folgenden Beitrag:
Die am Dartmouth College (Geisel School of Medicine) durchgeführte Studie (veröffentlicht März 2025 in NEJM AI) war die erste randomisierte klinische Untersuchung eines generativen KI-Chatbots zur Behandlung psychischer Erkrankungen. Insgesamt nahmen 210 Erwachsene mit diagnostizierten Symptomen von Major Depression (MDD), generalisierter Angststörung (GAD) oder klinisch hohem Risiko für Essstörungen (CHR-FED) teil. Die Teilnehmenden wurden nach dem Zufallsprinzip auf zwei Gruppen verteilt: 106 erhielten für vier Wochen Zugang zur Therabot-App, einem von den Forschenden entwickelten generativen KI-Chatbot, 104 kamen in eine Wartelisten-Kontrollgruppe ohne Behandlung für diesen Zeitraum. Danach folgte eine vierwöchige Nachbeobachtungsphase (Gesamtstudienzeit acht Wochen). Primäre Endpunkte waren Symptomveränderungen von der Baseline bis nach vier und acht Wochen. Sekundäre Endpunkte umfassten Nutzungsintensität, Nutzerzufriedenheit und Behandlungsallianz (therapeutische Beziehung).
Im Mittelpunkt der Studie stand Therabot, ein speziell von Dartmouth entwickelter, KI-basierter Therapie-Chatbot. Therabot basiert auf einem großen Sprachmodell (LLM), das mit von Fachleuten verfassten Psychotherapiedialogen (hauptsächlich kognitiv-verhaltenstherapeutisch) feinjustiert wurde. Anders als bekannte Chatbots wie ChatGPT, Woebot oder Wysa handelte es sich bei Therabot nicht um ein generisches Large-Language-Modell, sondern um eine eigens entworfene App. Die Studie untersuchte ausschließlich diesen einen Chatbot; ChatGPT, Woebot oder Wysa wurden nicht aktiv eingesetzt, sondern nur als Beispiele für bestehende Systeme im Hintergrund erwähnt. Therabot führte mit den Nutzer*innen offene, mehrschichtige Gespräche über Gefühle und Probleme und bot gezielte Interventionen, Fragen und affirmierende Antworten an. Bei Gefahrensignalen (z. B. Suizidgedanken) kann Therabot automatisch Notfallkontakte auslösen. Die Kontrollgruppe nutzte keinen Chatbot während der ersten acht Wochen (später erhielten auch sie Therabot).
Die Studie zeigte deutliche Verbesserungen bei den Therabot-Nutzern gegenüber der Kontrollgruppe. Innerhalb von vier bis acht Wochen erfuhren Therabot-Anwender bei Depression im Schnitt eine 51 %ige Reduktion der Symptome, bei generalisierter Angst 31 % und bei Essstörungen (Körperbild-/Gewichtsängste) 19 %. Diese Verringerungen waren im Mittel statistisch signifikant größer als in der Kontrollgruppe. Der Effekt war vergleichbar mit dem erwarteten Rückgang bei herkömmlicher ambulanter Psychotherapie.
Auch die Nutzungsdaten waren vielversprechend: Teilnehmer*innen verwendeten Therabot im Mittel an 24 von 30 Tagen und schrieben etwa 260 Nachrichten (ca. 6,2 Stunden Interaktion) im Untersuchungszeitraum. Fast 75 % der Nutzer*innen befanden sich zum Zeitpunkt der Studie in keiner parallelen Psychotherapie oder medikamentösen Behandlung. Die Teilnehmenden bewerteten Therabot als leicht erlernbar, intuitiv und hilfreich, und berichteten, sich nach den Chats besser zu fühlen. Erstaunlicherweise gaben viele an, dass die therapeutische Beziehung (Allianz) zum Chatbot der zu einem menschlichen Therapeuten nahekomme. Insgesamt zeigt die Studie, dass der KI-Chatbot Therabot in kurzer Zeit klinisch relevante Symptomverbesserungen bewirkte (Depression, Angst, Essstörungen), was auf einen hohen Behandlungseffekt hinweist.
Die Autor*innen betonen jedoch umfassende Risiken und Grenzen dieser Technologie. Generative Modelle können „halluzinieren“ oder ungeeignete, sogar schädliche Antworten liefern. In der Studie wurde deshalb eine enge Aufsicht eingeplant: Reaktionen von Therabot wurden kontinuierlich von Clinicians überwacht. Bei etwa 15 Fällen (z. B. Suizidalität) mussten Betreuer eingreifen und Nutzern Ressourcen an die Hand geben. Die Forschenden warnen, dass kein KI-System ohne menschliche Kontrolle auskommen kann; Therabot ist nicht als eigenständiger Ersatz für Therapie gedacht.
Beispielsweise weist Co-Autor Tor Wager Heinz darauf hin, dass „keine generative KI-Agent bereit ist, vollständig autonom in der psychischen Gesundheitsfürsorge zu agieren“. Die Studie hatte einige methodische Beschränkungen: Auswahl der Teilnehmenden per Online-Anzeige könnte junge, technikaffine Personen bevorzugen und so Verzerrungen erzeugen. Die Dauer (4–8 Wochen) war kurz; langfristige Effekte sind unklar. Zudem erhielten nur Patienten ohne gleichzeitige Therapie/Medikamente Zugang, wodurch die Übertragbarkeit auf alle Betroffenen limitiert ist. Schließlich warnen die Autor*innen vor „psychischen Iatrogenesen“ durch KI: Etwaige Fehlinformationen oder übermäßig bestärkende Antworten könnten negative Folgen haben.
Die Hauptschlussfolgerung der Forscher*innen lautet: Generative KI-Chatbots können vielversprechend sein, um psychotherapeutische Unterstützung zugänglicher zu machen, aber sie benötigen strenge klinische Aufsicht. So schreibt die Studie selbst: „Feinjustierte genAI-Chatbots bieten einen praktikablen Ansatz, maßgeschneiderte Interventionen in großem Umfang zu liefern, aber weitere Forschung mit größeren Stichproben ist erforderlich, um Wirksamkeit und Generalisierbarkeit zu bestätigen“. Dr. Nicholas Jacobson betont, dass Therabot denjenigen helfen könnte, die keinen Zugang zu herkömmlicher Therapie haben, aber „es kann kein Ersatz für persönliche Versorgung sein“. Die Autoren empfehlen, zukünftig die Einsatzbereiche zu erweitern (z. B. Notaufnahmen, weitere Diagnosen) und Mindestnutzdosen für Effektivität zu definieren. Generell sollte Therabot als ergänzendes Werkzeug verstanden werden – etwa zur Förderung der Selbsthilfe oder als Brückentherapie – nicht als alleinige Behandlung.
Die Studie erlangte breite mediale Aufmerksamkeit. Neben der offiziellen Pressemitteilung der Dartmouth-Universität wurden in internationalen Medien darüber berichtet. Beispiele sind Psychology Today, Fachportale wie eWeek und Fierce Healthcare sowie regionale Nachrichten wie PhillyVoice. Diese Artikel heben ähnlich wie die Studie die symptomatische Verbesserung hervor (z. B. 51 % weniger Depressionssymptome) und verweisen auf die Notwendigkeit weiterer Forschung. Auch technische Blogs diskutieren ethische Aspekte und zitieren Experten wie Heinz und Jacobson, die vor vorschnellem Alleingang mahnen. Insgesamt lobten Fachmedien das Potenzial von Therabot („vergleichbar mit ambulanter Therapie“) und berichteten gleichzeitig über die Risiken (z. B. APA-Warnungen). Die Originalstudie erschien in NEJM AI (2025) und wurde dort wie in den Medien als wegweisend für KI-gestützte Psychotherapie gewürdigt.