KI ersetzt keine therapeutische Beziehung. Eine kritische Einordnung zur Illusion von KI-Therapie.
Digitale Nähe statt echter Beziehung
Was, wenn du nachts nicht schlafen kannst – und niemanden erreichst außer ChatGPT? Die Idee klingt verlockend: Eine KI, die immer verfügbar ist, niemals urteilt, keine Termine braucht und dich sofort versteht. Tausende Menschen weltweit tippen längst intime Gedanken in Dialogfenster. Sie berichten von Ängsten, von Einsamkeit, von innerem Schmerz – und erwarten Antworten, manchmal sogar Trost. Doch was passiert da eigentlich?
Die Nutzung von KI-Tools wie ChatGPT in einem therapeutischen Kontext nimmt rasant zu. Plattformen werben mit „emotionaler Unterstützung“, Nutzerinnen und Nutzer schwärmen von „echten Gesprächen“. Die Grenze zwischen psychologischer Hilfe und digitaler Simulation verschwimmt. Doch genau darin liegt das Problem: Was wie Therapie aussieht, ist keine. Was empathisch klingt, ist programmiert. Und was hilfreich erscheint, kann in die Irre führen – im schlimmsten Fall sogar schaden.
ChatGPT ist kein Therapeut. Punkt.
Psychotherapie ist kein Frage-Antwort-Spiel. Sie ist ein intersubjektiver Prozess, in dem Beziehung, Vertrauen und psychische Dynamik eine zentrale Rolle spielen. Es geht um das Unaussprechliche, um Wiederholungen, um Widerstände – und um das, was zwischen zwei Menschen entsteht, auch in der Stille.
Eine KI wie ChatGPT hat davon nichts:
Sie fühlt nichts.
Sie erinnert sich nicht wie ein Mensch.
Sie erkennt keine subtilen Signale.
Sie kennt keine Biografie, keine Übertragung, keine echte Resonanz.
Selbst wenn der Text einfühlsam wirkt, bleibt er Fassade – generiert aus Wahrscheinlichkeiten, nicht aus Mitgefühl. Wer sich mit einer KI öffnet, projiziert oft menschliche Eigenschaften in ein System, das darauf nicht antworten kann. Der Dialog bleibt asymmetrisch. Und genau das macht ihn so gefährlich.
Warum es dennoch funktioniert – scheinbar
KI wirkt oft beeindruckend: Die Sprache ist glatt, die Antworten schnell, die Oberfläche freundlich. Wer emotional aufgewühlt ist, kann in dieser Berechenbarkeit vermeintliche Sicherheit finden. ChatGPT gibt keine verurteilenden Blicke, keine Schweigepausen, kein „Darüber müssen wir in der nächsten Sitzung sprechen“. Für viele ist das erleichternd – gerade wenn Scham oder Angst vor echter Nähe im Spiel ist.
Doch was dabei übersehen wird: Therapie lebt gerade von diesen Reibungen. Von der Unsicherheit. Vom Nicht-Wissen. Vom gemeinsamen Ringen um Bedeutung. Wenn alles sofort beantwortet wird, bleibt kein Raum für Ambivalenz – ein zentrales Moment psychischer Entwicklung.
KI-Therapie ist daher nicht neutral, sondern strukturell vermeidend. Sie stärkt eher vorhandene Muster, statt sie zu durchbrechen.
Zwischenmenschliche Kompetenzen und die Generation Z
Ein oft übersehener Aspekt: Viele junge Menschen nutzen KI-Tools nicht nur aus Neugier oder Bequemlichkeit, sondern weil ihnen grundlegende zwischenmenschliche Kompetenzen fehlen. Aufgewachsen in digitalen Räumen, fehlt es ihnen oft an Gelegenheiten zur emotionalen Reifung und zum Erlernen sozialer Interaktionen. Die Folge: Unsicherheit im Umgang mit anderen, Angst vor echter Nähe und Überforderung mit Ambivalenz.
In diesem Kontext erscheint die Interaktion mit einer KI als sichere Alternative. Keine Bewertung, keine Zurückweisung, keine Komplexität. Doch genau das verstärkt die bestehenden Defizite. Statt soziale Fähigkeiten zu fördern, wird die Vermeidung belohnt. Eine gefährliche Entwicklung, die langfristig zu einer weiteren Entfremdung führen kann.
Verantwortung und Grenzen – auch für KI-Nutzerinnen
Ein weiterer, oft unterschätzter Aspekt: Wer ist verantwortlich, wenn etwas schiefgeht? Wenn sich jemand nach einem Gespräch mit einer KI schlechter fühlt – oder gar in eine Krise rutscht? Anbieter schreiben in ihre AGBs, dass ihre Tools keine Therapie ersetzen. Doch wer liest das wirklich?
In der Realität überschreiten viele Nutzerinnen und Nutzer genau diese Linie – aus Not, aus Unwissenheit, aus der Hoffnung auf Hilfe. Und sie bleiben dabei oft allein. Denn eine KI erkennt keine akute Suizidalität. Sie kann keine Notfallkette aktivieren. Sie kann keine Angehörigen informieren.
Wer glaubt, sich mit KI selbst therapieren zu können, übernimmt eine Verantwortung, die in der Tiefe nicht tragbar ist – zumindest nicht allein.
Psychische Gesundheit ist keine Tech-Spielwiese
Große Tech-Unternehmen drängen längst in den mental health market. Ob Meta mit virtuellen Meditationsräumen, Google mit Gesundheitsdaten oder Apple mit Mood-Tracking – psychisches Wohlbefinden wird zum Business. Die Grenze zwischen Unterstützung und Kommerz verschwimmt dabei genauso wie die zwischen Tool und Therapie.
ChatGPT ist Teil dieses Trends. Nicht, weil es dafür entwickelt wurde – sondern weil es in der Praxis so genutzt wird. Doch der Markt schreit nach Regeln. Denn wo es um verwundbare Menschen geht, braucht es Schutz, klare Ethik und transparente Kommunikation.
Der Versuch, Psychotherapie zu automatisieren, ist nicht nur technisch fragwürdig. Er ist ethisch problematisch. Wer menschliches Leiden an Algorithmen delegiert, verliert nicht nur Tiefe – sondern auch Verantwortung.
Warum echte Therapie (derzeit) unersetzlich bleibt
Was leistet eine Therapeutin oder ein Therapeut, das eine KI bislang nicht leisten kann?
- Halten: Die Präsenz eines realen Gegenübers kann stabilisieren – auch jenseits der Worte.
- Verstehen: Menschen nehmen Zwischentöne wahr. Sie spüren, wenn etwas nicht gesagt werden kann – und fragen nach.
- Beziehungsgestaltung: In der therapeutischen Beziehung spiegeln sich oft alte Muster. Das zu erkennen und zu bearbeiten, ist ein Schlüssel zur Veränderung.
- Rahmen: Regelmäßigkeit, Vertraulichkeit und therapeutische Ethik schaffen einen Raum, in dem Entwicklung möglich wird.
- Notfallmanagement: Therapeutinnen und Therapeuten wissen, wie sie in Krisen reagieren müssen – und übernehmen Verantwortung.
All das gehört zu den zentralen Elementen von Psychotherapie – und kann durch heutige KI-Modelle nicht abgebildet werden. Auch wenn technische Entwicklungen rasant voranschreiten: Es gibt derzeit keine künstliche Intelligenz, die menschliches Einfühlungsvermögen, Beziehungsdynamiken und psychologische Prozesse in vergleichbarer Tiefe verstehen oder gestalten kann.
Aber was ist mit niedrigschwelligen Angeboten?
Natürlich braucht es mehr Zugänge zur psychischen Versorgung. Wartezeiten auf Therapieplätze sind oft unerträglich lang, besonders in ländlichen Regionen. Und nicht jeder Mensch ist sofort bereit, eine klassische Psychotherapie zu beginnen.
Hier können digitale Tools eine Brücke sein – etwa als erste Anlaufstelle, als Psychoedukation, als Tagebuch oder zum Reflektieren einfacher Gedanken. Auch Programme wie iFightDepression oder MoodGym, die evidenzbasiert und strukturiert arbeiten, haben ihren Platz.
Aber: Der Unterschied zwischen digitaler Unterstützung und echter Psychotherapie muss klar benannt werden. Sonst täuschen wir uns selbst – und lassen Menschen mit ernsthaften Problemen allein.
Fazit: Was wie Hilfe aussieht, kann schaden
ChatGPT ist kein Therapeut. Und sollte keiner sein. Die Illusion, mit einer KI echte seelische Heilung zu erreichen, ist gefährlich – weil sie Nähe simuliert, aber keine bietet. Weil sie Antworten liefert, aber kein Verständnis. Und weil sie Verantwortung suggeriert, die sie nicht übernehmen kann.
Psychische Gesundheit ist zu wertvoll, um sie an Algorithmen zu delegieren. Wer leidet, braucht menschliche Verbindung – nicht nur Datenmodelle. Und wer helfen will, sollte Grenzen kennen – gerade im Digitalen. Was denkst du: Wo kann KI bei psychischen Krisen helfen – und wo liegt die rote Linie? Teile deine Meinung auf Bluesky, Instagram, TikTok oder X und bring dich in die Diskussion ein.
Quelle: MEEON #13
Text: Psychotherapie mit ChatGPT – Warum das gar keine gute Idee ist
Foto: MEEON