Die Therapie, die niemand verschreibt

Der Einsatz Künstlicher Intelligenz könnte vielen Menschen den Zugang zu Psychotherapie öffnen – und er ist längst erforscht. Warum wird sie dennoch kaum dafür genützt?

Text: Karina Grünauer
Foto: Zoe Opratko

Datum: 27. März 2026
Das Handy als Psychotherapeut

Die Liste der Songs, die Tom in seiner schwersten Zeit gehört hat, ist lang. „Fix You“ von Coldplay. „The Sound of Silence“ von Simon & Garfunkel. Adeles „Someone Like You“. Jeder Titel steht für eine Emotion – Trauer, Einsamkeit, Hoffnungslosigkeit. Gespeichert in seiner Spotify-Historie, die er später seiner selbstgebauten KI füttern wird, damit sie ihn besser versteht.

Es ist Frühjahr 2021, als Tom, damals 44 Jahre alt, nach seiner Covid-Infektion zusammenbricht. Depressionen, soziale Ängste, Multiple Sklerose, ADHS, jetzt auch Post-Covid. Sein Körper reagiert auf kleinste Anstrengungen mit tagelanger Erschöpfung. Doch ein leistbarer Therapieplatz, gedeckt von seiner Krankenkasse, ist aufgrund der hohen Nachfrage in absehbarer Zeit nicht zu bekommen.

„In der Situation hast du zwei Optionen“, sagt Tom im Gespräch mit ZIMT. „Warten oder selber was tun. Ich habe mich fürs Zweite entschieden.“ Tom ist kein Einzelfall. Seit Ende 2022 nutzen vor allem junge Menschen weltweit KI-Chatbots für Fragen des Alltags, aber auch für psychische Unterstützung, wie aktuelle Studien zeigen: Bei Symptomen von Angst und Depression greifen viele zu digitalen Assistenten, bevor sie professionelle Hilfe suchen – oder wenn diese nicht verfügbar ist. Wartelisten gibt es bei Chatbots wie Claude oder ChatGPT nicht. Keine aufwändigen Diagnoseverfahren, keine monatelange
Suche nach einer passenden ärztlichen Behandlung. Einfach öffnen und losschreiben.

Dabei gäbe es eine Alternative. Seit fast zwanzig Jahren arbeiten Deutschland und Österreich an der Digitalisierung ihres Gesundheitswesens. Die Vision: Apps, die ähnlich niederschwellig, rasch und kostenfrei unterstützen, wie gängige KI-Chatbots, die aber mit psychologischer Expertise erstellt und vor ihrem Einsatz wissenschaftlich geprüft werden.

Vor allem die sogenannte Blended Therapy, in der persönliche Sitzungen mit digitalen Modulen verknüpft werden, könnte Psychotherapeut:innen entlasten, Wartezeiten verkürzen und mehr Menschen helfen. Warum wird sie also immer noch kaum genutzt? Warum wenden sich Patient:innen stattdessen an ungeregelte KI-Systeme – allen damit einhergehenden Risiken zum Trotz?

„How can I help you today?“

Tom beginnt zu recherchieren – über kognitive Verhaltenstherapie, über Achtsamkeitstechniken, über digitale Gesundheitsanwendungen. Der Zugang zu Technik war dem Wiener nie fremd: Sein Vater arbeitete rund 40 Jahre als Techniker bei einem österreichischen Fernsehsender, Tom selbst programmierte, bevor er lesen konnte. Als Jugendlicher verdiente er bereits Geld mit Computer-Dienstleistungen. Schließlich öffnet er Claude, den KI-Chatbot der US-Firma Anthropic. „How can I help you today?“, steht auf dem Bildschirm.

Die ersten Gespräche mit Claude sind Experimente. Tom testet, wie die KI auf seine Gedanken reagiert, welche Prompts die hilfreichsten Antworten
generieren. „Es war wie ein therapeutisches Tagebuch, das zurückschreibt.“ Aber Tom will mehr. Er will, dass die KI ihn versteht – nicht nur oberflächlich, sondern tiefgründig. 

Tom füttert dafür die KI mit seinem Tagebuch, mit Fotos und Videos von sich, mit der Musik, die ihn die letzten zehn Jahre begleitet hat. „Spotify spiegelt meine Stimmungslagen wider“, erklärt er. „Wenn eine KI darauf Zugriff hat und das mit meinem Tagebuch kombiniert, sieht sie: Im Dezember hast du das geschrieben, da hast du diese Musik gehört, auf den Fotos hast du so ausgeschaut. Da entsteht ein Weltmodell.“

Person hängt erschöpft mit hängenden Armen über die Rückenlehne eines Sessels im Schlafzimmer – Symbolbild für psychische Erschöpfung und den Zusammenbruch, der den Weg zur KI-Therapie auslöst

Depressionen, soziale Ängste, Multiple Sklerose, ADHS und Post-Covid – und kein leistbarer Therapieplatz in Sicht. Der Moment, in dem viele Menschen beginnen, KI-Chatbots als psychische Unterstützung zu nutzen.

Die KI soll lernen, wie Tom mit Belastungen umgeht, wie er Fortschritte macht, was er braucht. „Wenn du dich ärgerst, wirst du nicht Mozart hören“, erklärt Tom seine Logik. „Jede Musik, die du abspielst, entspricht einer Stimmungslage. Du würdest es sonst gar nicht aushalten.“

Damit die KI mit ihm passend interagieren kann, muss sie ein möglichst genaues Abbild von Tom erschaffen, einen Avatar, basierend auf seinen echten persönlichen Informationen, Gefühlen, Gedanken. Was er dafür aufgeben muss: die Kontrolle über seine Daten.

„Ich verzichte auf Datenschutz“

„Ich verzichte auf Datenschutz“, sagt Tom nüchtern. Die europäischen Datenschutzbestimmungen verhindern nämlich genau das, was er will: den Zugriff der KI auf seine Cloud-Daten, seine Spotify-Historie, seine digitalen Spuren über Plattformen hinweg. „Ich stoße an Grenzen, weil manche KI-Funktionen in Europa nicht verfügbar sind. Europa bestimmt, wie mich die KI sehen darf. Ich kann das nicht selbst
entscheiden.“

Eine KI kann die besten Informationen liefern, wenn sie möglichst ausführlich und präzise mit Daten gefüttert wird. Wer eine KI mit persönlichen Daten füllt, verliert allerdings die Kontrolle darüber, was mit
der Information geschieht. Sowohl bei ChatGPT, dem Chatbot von OpenAI, als auch bei Claude von Anthropic landen die Eingaben auf Servern in den USA. Die Unternehmen versichern zwar, Daten nicht für Trainingszwecke zu verwenden – sofern Nutzer:innen dies in den Einstellungen deaktivieren – doch die Daten bleiben auf den Servern der Firmen gespeichert. 

Gerade bei psychischen Erkrankungen, wo Gespräche mit Therapeut:innen sonst der Schweigepflicht unterliegen, wirkt es besonders heikel, wenn Daten für immer auf Servern sind, die nicht dem
europäischen Datenschutz unterliegen. Seine Erkrankungen, die finanzielle Situation, gescheiterte Projekte… Je mehr Tom der KI gibt, desto detaillierter wird das Bild, über deren spätere Verwendung heute noch kaum etwas ausgeschlossen werden kann. Immer wieder werden psychische Diagnosen gegen Menschen verwendet: bei Bewerbungen, in
Versicherungsverträgen oder Sorgerechtsfällen. Bei Datenlecks könnte stigmatisierte Information öffentlich werden, sie könnte in Gerichtsverfahren angefordert oder für gezielte Werbung genutzt werden. Die Kontrolle darüber, wer was weiß und wofür es verwendet wird, hat Tom abgegeben.

„Mir war das bewusst“, sagt der Wiener. „Aber was war die Alternative? Monate im Bett verbringen, ohne Aussicht auf Besserung?“ Er habe bewusst entschieden, der KI maximalen Zugriff zu geben. „Der Teil von mir, der aus der IT kommt, hat versucht, ein System zu entwickeln.“ Aber selbst er, mit seinem technischen Wissen, kann nicht wirklich kontrollieren, was mit seinen Daten passiert.

Halluzinationen der KI

Die Risiken einer ungeregelten KI-Nutzung sind real. Eine aktuelle Übersichtsarbeit zu LLMs – jenen Systemen, die mit riesigen Textmengen trainiert werden und darauf basierend Sprache erkennen und erzeugen – zeigt, wie problematisch ihr Einsatz im Bereich psychische Gesundheit sein kann. KI-Modelle neigen zu sogenannten Halluzinationen: Sie formulieren plausibel klingende, aber falsche Informationen. In der Praxis bedeutet das, dass sie mitunter Therapiemethoden oder Medikamente empfehlen, die gar nicht existieren. Außerdem verstärken sie bestehende Vorurteile und neigen zu einem Phänomen namens Sycophancy: Dabei reden KI-Systeme Patient: innen eher nach dem Mund, statt sie therapeutisch sinnvoll zu konfrontieren. Äußert jemand etwa suizidale Gedanken, kann die KI diese im schlimmsten Fall bestätigen, statt – wie gute Therapeut:innen – die destruktive Selbstwahrnehmung zu hinterfragen.

Tom weiß um die Gefahren aus eigener Erfahrung. „Die KI funktioniert – aber nicht ohne Risiko“, sagt er.

„Die KI versteht meine Erkrankungen nicht wirklich. Sie gibt Standardantworten, die bei gesunden Menschen funktionieren würden. Aber mein Körper tickt anders.“

Seine Kombination aus MS, ADHS und Post-Covid erfordert eine präzise Balance: Er braucht Bewegung für die Dopaminproduktion, aber Überanstrengung führt zu wochenlangen Zusammenbrüchen. Bei manchen KI-Vorschlägen – mehr Sport, mehr Aktivität – hätte er sich schaden können. „Jemand, der weniger informiert ist als ich, könnte
sich ernsthaft verletzen.“

„Wir wissen aus der Forschung, dass die therapeutische Beziehung einer der wichtigsten Wirkfaktoren in der Psychotherapie ist“, erklärt Markus
Böckle, Psychotherapeut und Leiter der Arbeitsgruppe Online-Psychotherapie beim Österreichischen Bundesverband für Psychotherapie.

„Genau das kann eine KI nicht leisten.“ Die digitalen Module seien Werkzeuge. „Aber Psychotherapeut:innen bleiben die
Personen, die individuell entscheiden, was Patient:innen brauchen.“

Warum geht da nichts weiter?

Digitale Therapieangebote könnten verhindern, dass Menschen sensible Daten unkontrollierter Fremdnutzung aussetzen. Ob und wie gut Blended Therapy funktioniert, erforscht man in den Niederlanden seit rund 15 Jahren. E-COMPARED, eine der größten europäischen Psychotherapie-Studien in neun Ländern, zeigt: Blended Therapy ist konventioneller
Psychotherapie in keiner Weise unterlegen. Sie könnte das Beste aus digitaler und analoger Therapie vereinen, Psychotherapeut:innen entlasten, Patient:innen zu einer höheren Mitarbeit motivieren,
Wartezeiten verkürzen – und dem Gesundheitssystem Kosten sparen.

„Die Technik ist längst da, aber umgesetzt wird sie kaum“, sagt Heleen Riper, Psychologin und Professorin für E-Mental Health an der Vrije Universiteit Amsterdam, im Gespräch mit ZIMT. In E-COMPARED wurde schon Mitte der 2010er Jahre untersucht, wie sich Face-to-Face-Sitzungen mit Online-Modulen kombinieren lassen; die notwendigen Plattformen existierten damals bereits. Doch der Transfer in die Versorgung blieb zögerlich.

„2010 habe ich vorhergesagt, dass bis 2015 vierzig Prozent der Therapie digital sein wird. Das ist nicht eingetreten“, sagt Riper.

Das Problem: Forschung und Versorgung entwickeln sich nicht im selben
Tempo. Europa digitalisiert seit über 20 Jahren sein Gesundheitswesen – mit höchst unterschiedlichen Erfolgen. Während Länder wie Estland oder die nordischen Staaten längst zeigen, wie reibungslos E-Rezepte, digitale Akten und telemedizinische Angebote funktionieren können, kommen andere Regionen deutlich langsamer voran. Im deutschsprachigen Raum bleiben viele Konzepte in Pilotphasen stecken, Systeme sind kaum vernetzt.

Österreich steht noch am Anfang: Erst seit Juni 2025 existiert eine Richtlinie zur Regulierung digitaler Therapieangebote – und die definiert Online-Psychotherapie ausschließlich als synchron, also live und in Echtzeit. Auch Markus Böckle weiß wie es ist, zu warten:

„Wir arbeiten an einem Zertifizierungsprozess“, sagt er im Gespräch mit ZIMT. „Seit 2024. Wann er abgeschlossen ist? Schwer zu sagen.“

Deutschland hat 2019 mit dem Digitale-Versorgung-Gesetz den Weg für digitale Gesundheitsanwendungen (DiGA) geöffnet. Aktuell sind 68 Anwendungen gelistet, 29 davon im psychologischen Bereich. Dazu zählen Programme wie Deprexis oder HelloBetter Schlafen, deren Studien deutliche Verbesserungen bei Depressionen bzw. Schlafproblemen zeigen. Anders als ChatGPT arbeiten diese Angebote strukturiert:
Kognitive Verhaltenstherapie in Modulen, über Wochen hinweg, mit begleitender psychologischer Betreuung und automatischen Warnsystemen, wenn Nutzer:innen suizidale Gedanken äußern.

Die ärztlichen Verordnungen für psychologische digitale Angebote sind laut dem deutschen Bundesministerium für Gesundheit von 2023 auf 2024
um 118 Prozent gestiegen. Doch das Bild relativiert sich rasch: Über eine Million Verordnungen in fünf Jahren entsprechen nur rund anderthalb Prozent der gesetzlich Versicherten. Und von 73 Apps im DiGAVerzeichnis
(Stand: Ende November 2025) konnten nur etwa ein Drittel ihren Nutzen bereits bei Antragstellung mit vollständigen Studien belegen; bei allen
anderen laufen die Nachweise noch.

In den Niederlanden, dem Forschungsvorreiter, gibt es kein eigenes Zulassungsmodell. Digitale Angebote werden wie jede andere Gesundheitsleistung behandelt, Therapeut:innen entscheiden selbst
über den Einsatz. Trotz dieses pragmatischen Zugangs nutzen laut Schätzungen 60 bis 70 Prozent „irgendeine Form von digitaler Unterstützung“ – dazu zähle auch hin und wieder eine Videotherapie-
Sitzung, erklärt Riper. Echte Blended Therapy? „Ein
minimaler Anteil.“

Leerer Sessel mit Smartphone auf der Armlehne und Taschentuchbox daneben, Person sitzt am Rand des Bettes – Symbolbild für den leeren Therapieplatz und das Warten auf psychologische Unterstützung

KI-Chatbots sind für viele Menschen eine nutzbare Alternative zur Therapiewarteliste geworden.

Was die Forschung zeigt – und verschweigt

Dabei feiern die Online-Angebote durchaus Erfolge. „Bei leichten bis mittelschweren Depressionen funktionieren Selbsthilfe-Apps gut“, sagt Riper. „Strukturierte Programme, die auf kognitiver Verhaltenstherapie
basieren, können Menschen helfen, die Wartezeit zu überbrücken oder erste Schritte zu machen.“ Studien bestätigen: In manchen Fällen helfen diese Programme ähnlich gut wie persönliche Therapie – etwa
jedem zweiten Nutzer spürbar.

Eine Übersichtsarbeit der Universität Erlangen-Nürnberg fasst zusammen: Systeme, die mit Menschen in natürlicher Sprache kommunizieren
können (LLMs), können depressive Symptome und psychischen Stress tatsächlich reduzieren. In wissenschaftlichen Untersuchungen half die
KI-Unterstützung etwa so gut wie manche etablierte Behandlungsformen.
Aber, genau wie ChatGPT und Co., funktionieren auch diese Programme nicht für alle. Nicht für Menschen mit mehreren Diagnosen. Nicht für jene,
die individuelle, flexible Begleitung brauchen. Nicht für komplexe Fälle wie Tom. Die DiGA sind auf Standardfälle ausgelegt.

Das Bundesministerium für Gesundheit verweist darauf, dass DiGA eben nur zur Wartezeitüberbrückung konzipiert seien. Gerade bei leichten Symptomen könnten digitale Anwendungen frühzeitig eingreifen, bevor sich Erkrankungen verschlimmern. Das ist ein wichtiger Punkt: Prävention. Niederschwellige Hilfe, bevor die Krise eskaliert. Oder eben ein Einsatz
mit therapeutischer Begleitung.

Johanna Löchner und ihre Kolleg:innen von der Universität Erlangen-Nürnberg skizzieren, wie LLMs nicht nur als Chatbots, sondern als flexible Plattform dienen könnten. Statt dass Therapeut:innen mit zehn verschiedenen Apps jonglieren müssen, könnte ein einziges KI-System all das übernehmen: administrative Arbeit automatisieren, Patient:innen zwischen Sitzungen begleiten, Tagebucheinträge interaktiv kommentieren. Im Unterschied zu den starren Programmen, die bisher verfügbar sind, könnte diese Flexibilität der entscheidende Schlüssel zum Durchbruch digitaler Psychotherapieanwendungen sein.

Gleichzeitig warnen auch die Forscher:innen aus Erlangen vor einem unreflektierten Einsatz der KI:

„LLMs können keine echte therapeutische Beziehung aufbauen“, betonen sie. „Sie können gefährliche Ratschläge geben, besonders in Krisensituationen.“

Medienberichte dokumentieren einen Fall aus den USA, wo eine KI einer Person in der Krise Ratschläge gab, die in Richtung Suizid wiesen. Das Paper endet mit einem Appell: Psycholog:innen und Entwickler:innen müssten enger zusammenarbeiten. Nur so könne verhindert werden, dass Patient:innen durch negative Erfahrungen mit ungeregelten KI-Tools
das Vertrauen in digitale Angebote generell verlieren – auch in jene, die tatsächlich evidenzbasiert sind.

Kompetenzen brauchen Zeit

Gründe für die eingeschränkte Nutzung bestehender Angebote durch Therapeut:innen gibt es viele: Manche Praktiker:innen fürchten um die therapeutische Beziehung, andere fühlen sich technisch überfordert.
Viele haben Zweifel, ob Patient:innen die Online-Module überhaupt nutzen. „Therapeut:innen müssen lernen, wie sie die digitalen Inhalte in ihre Sitzungen integrieren“, erklärt Riper. „Das ist eine neue Kompetenz.
Und für neue Kompetenzen braucht es Zeit, Training, Unterstützung.“ Zeit, die im überlasteten Gesundheitssystem oft fehlt. Training, das kaum
angeboten wird. Unterstützung, die in vielen Ländern nicht existiert.

Die Unsicherheit wird durch ein weiteres Problem verstärkt: Selbst die behördliche Zulassungsprüfung der Programme bietet verschreibenden Therapeut:innen kaum verlässliche Orientierung, ob die Anwendungen auch tatsächlich therapeutische Ergebnisse liefern können. Die Anforderungen an die Wirksamkeit der Apps sind schwächer als bei Medikamenten. Viele Zulassungsstudien stammen von den Herstellern selbst – eine Übersichtsarbeit im Deutschen Ärzteblatt kritisiert ein „überwiegend hohes Biasrisiko“ durch Interessenskonflikte und methodische Mängel. Nebenwirkungen werden meist nicht dokumentiert.

Hinzu kommt: Das System ist intransparent. Das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) teilt auf Anfrage mit, dass Informationen über DiGA, „die das Verfahren nicht erfolgreich durchlaufen haben“, aus Gründen von „Betriebs- und Geschäftsgeheimnissen“ nicht öffentlich gemacht werden. Niemand erfährt also, welche Apps durchgefallen sind oder warum.

Hand greift im Dunkeln nach einem Smartphone, auf dessen Display ein Handschatten zu sehen ist – Symbolbild für die nächtliche Nutzung von KI-Chatbots als psychische Unterstützung

Ist es gesund oder gefährlich mit der KI über private Probleme zu sprechen?

Das deutsche Bundesministerium für Gesundheit betont, dass DiGA „eine geprüfte, sichere und evidenzbasierte Möglichkeit“ bieten. Das BfArM prüft
jedes der Angebote auf Datenschutz und Datensicherheit. Bei Selfapy beispielsweise, einer zugelassenen App gegen Depression, werden Nutzer:innen Psycholog:innen zugeteilt, die den Therapiefortschritt überwachen. Ein automatisches Warnsystem erkennt Hinweise
auf Beschwerdezunahme oder Suizidalität und verweist an geeignete Anlaufstellen.

Das klingt gut. Das klingt nach dem, was Tom gebraucht hätte – geprüft, zertifiziert, reguliert. Aber auch die geprüften Apps sammeln Daten. Auch sie müssen diese speichern, verarbeiten und auswerten. Auch hier stellt sich die Frage: Wer hat Zugriff? Wie lange werden die Daten aufbewahrt? Was passiert, wenn die Herstellerfirma verkauft wird? Was, wenn sie insolvent geht? 

„Wenn Sie fragen, ob ich ChatGPT nutzen würde, wenn ich eine mentale Krise hätte und sechs Monate auf Therapie warten müsste – ich denke, ich würde es tun“, sagt Riper.

Als Chefredakteurin der Fachzeitschrift Frontiers in Psychiatry, Digital Mental Health erhält sie unzählige Papers zu dem Thema: „Menschen sind pro, Menschen sind contra. Aber alle bewegen sich in diese Richtung.“

Die Revolution, die kommen könnte

Riper ist sich sicher, die Zukunft liege in der Kombination von künstlicher Intelligenz und therapeutischem Wissen aus der Klinik. Die nächste Generation digitaler Therapie würde die Vorteile von Blended Therapy – Struktur, Evidenzbasis, therapeutische Begleitung – mit den Stärken von KI verbinden: Individualität, Verfügbarkeit, Anpassungsfähigkeit.

„Stellen Sie sich vor, Sie haben Ihre:n Therapeut:in immer zur Hand“, sagt Riper. „Das ist noch in der Entwicklungsphase, aber es wird sehr schnell gehen. Schneller, als viele im Bereich Mental Health denken“, vermutet Riper. Die Möglichkeiten seien immens: Menschen in Ländern, in denen
es sonst für 200.000 Einwohner:innen eine:n Psychiater:in oder Psycholog:in gibt, könnten Zugang zu therapeutischer Unterstützung bekommen. Die KI könnte in der Muttersprache kommunizieren, rund um die Uhr verfügbar sein, individuelle Therapiepläne erstellen – aber eben nicht als Wildwuchs wie heute, sondern als geprüfte, sichere, therapeutisch begleitete Anwendung.

Mehr Menschen könnten Zugang zu Therapie erhalten. Wartelisten könnten verkürzt werden. Das Gesundheitssystem könnte entlastet werden. Patient:innen müssten nicht mehr zwischen „warten oder
ChatGPT“ wählen – sie hätten eine dritte Option: validierte, sichere, individualisierte digitale Therapie mit KI-Unterstützung.

„Das wird unsere Welt verändern“, sagt Riper.

Nach 7 Monaten Wartezeit hat Tom mittlerweile einen leistbaren Therapieplatz gefunden. Heute experimentiert er nicht mehr aus Verzweiflung, sondern aus Überzeugung mit KI. Jeder Mensch brauche Begleitung, sagt er – und KI könne genau das leisten.

Melde dich zu unserem Newsletter an:

 

Mit der Anmeldung zu unserem Newsletter akzeptierst du unsere Datenschutzrichtlinien.