Die Therapie, die niemand verschreibt
Text: Karina Grünauer
Foto: Zoe Opratko
Die Liste der Songs, die Tom in seiner schwersten Zeit gehört hat, ist lang. „Fix You“ von Coldplay. „The Sound of Silence“ von Simon & Garfunkel. Adeles „Someone Like You“. Jeder Titel steht für eine Emotion – Trauer, Einsamkeit, Hoffnungslosigkeit. Gespeichert in seiner Spotify-Historie, die er später seiner selbstgebauten KI füttern wird, damit sie ihn besser versteht.
Es ist Frühjahr 2021, als Tom, damals 44 Jahre alt, nach seiner Covid-Infektion zusammenbricht. Depressionen, soziale Ängste, Multiple Sklerose, ADHS, jetzt auch Post-Covid. Sein Körper reagiert auf kleinste Anstrengungen mit tagelanger Erschöpfung. Doch ein leistbarer Therapieplatz, gedeckt von seiner Krankenkasse, ist aufgrund der hohen Nachfrage in absehbarer Zeit nicht zu bekommen.
„In der Situation hast du zwei Optionen“, sagt Tom im Gespräch mit ZIMT. „Warten oder selber was tun. Ich habe mich fürs Zweite entschieden.“ Tom ist kein Einzelfall. Seit Ende 2022 nutzen vor allem junge Menschen weltweit KI-Chatbots für Fragen des Alltags, aber auch für psychische Unterstützung, wie aktuelle Studien zeigen: Bei Symptomen von Angst und Depression greifen viele zu digitalen Assistenten, bevor sie professionelle Hilfe suchen – oder wenn diese nicht verfügbar ist. Wartelisten gibt es bei Chatbots wie Claude oder ChatGPT nicht. Keine aufwändigen Diagnoseverfahren, keine monatelange
Suche nach einer passenden ärztlichen Behandlung. Einfach öffnen und losschreiben.
Dabei gäbe es eine Alternative. Seit fast zwanzig Jahren arbeiten Deutschland und Österreich an der Digitalisierung ihres Gesundheitswesens. Die Vision: Apps, die ähnlich niederschwellig, rasch und kostenfrei unterstützen, wie gängige KI-Chatbots, die aber mit psychologischer Expertise erstellt und vor ihrem Einsatz wissenschaftlich geprüft werden.
Vor allem die sogenannte Blended Therapy, in der persönliche Sitzungen mit digitalen Modulen verknüpft werden, könnte Psychotherapeut:innen entlasten, Wartezeiten verkürzen und mehr Menschen helfen. Warum wird sie also immer noch kaum genutzt? Warum wenden sich Patient:innen stattdessen an ungeregelte KI-Systeme – allen damit einhergehenden Risiken zum Trotz?
