Immer mehr Menschen schreiben in Social Media: „Ich nutze ChatGPT wie einen Therapeuten.“ Die Begründungen klingen nachvollziehbar:

  • Niemand versteht mich.
  • Meine Thematik ist zu komplex.
  • Es ist fast unmöglich, einen freien Therapieplatz zu finden.
  • Therapeutinnen und Therapeuten haben ihre eigene Agenda.

Und tatsächlich: Eine KI ist rund um die Uhr verfügbar. Sie wirkt geduldig, freundlich, einfühlsam. Doch kann sie jemals das ersetzen, was ein echter Mensch gibt?

Die trügerische Nähe von KI

KI kann Sätze formulieren, die wie Trost klingen. Sie kann Fragen stellen, die zum Nachdenken bringen. Aber sie fühlt nichtsversteht nichts und übernimmt keine Verantwortung, wenn es kritisch wird.

Dieser Effekt ist bekannt als Eliza-Effekt: Menschen schreiben Computern Gefühle zu, wenn sie plausible Antworten liefern. Schon in den 1960er-Jahren passierte das. Heute ist die Simulation perfektioniert – doch Nähe bleibt Illusion.

Wo KI tatsächlich helfen kann

Ganz nutzlos ist KI nicht. Sie kann:

  • Gedanken ordnen: Wenn der Kopf voll ist, hilft es, Gefühle und Probleme in Worte zu fassen.
  • Selbstreflexion anstoßen: KI kann Fragen stellen, die beim Sortieren helfen.
  • Informationen bündeln: Sie kann erklären, welche Therapieformen es gibt oder wie man erste Schritte einleitet.

Aber: KI ist ein Werkzeug, kein Gegenüber. Sie kann Prozesse begleiten – aber keine Wunden heilen.

Die Risiken von „Therapie durch Chatbot“

Wer KI als Ersatz für Therapie nutzt, läuft Gefahr:

  • Probleme zu verschleppen, statt sie zu bearbeiten
  • Symptome zu verstärken, wenn keine echte Rückmeldung erfolgt
  • Krisen zu übersehen, weil KI nicht eingreifen kann

Besonders gefährlich ist das bei Depressionen, Traumata oder Suizidgedanken. Hier braucht es Menschen, die handeln können – keine Textsimulation.

Bessere Alternativen zur KI

Wer akut Unterstützung braucht, findet reale Alternativen:

  • Hausärztin oder Hausarzt als erster Schritt, um professionelle Hilfe einzuleiten
  • Krisendienste und Hotlines wie Telefonseelsorge oder lokale Notfallnummern
  • Selbsthilfegruppen für Austausch und Stabilität
  • Psychotherapeutische Fachkräfte – auch wenn Wartezeiten nerven, die Arbeit lohnt sich
  • Freundschaften und soziale Kontakte, die Vertrauen und echtes Zuhören ermöglichen

Diese Wege erfordern Mut und Geduld. Aber sie führen zu echter Resonanz, die KI niemals liefern kann.

KI als Werkzeug, nicht als Rettung

KI kann dich auf dem Weg begleiten, aber sie ersetzt keine Menschen.
Sie ist gut, um Gedanken zu sortieren oder erste Worte zu finden.
Doch wenn es ernst wird, braucht dein Leben echte Beziehungen, keine Codezeilen.

Wie stehst du dazu? Hast du KI schon als Hilfe in schweren Phasen genutzt – oder vertraust du nur auf echte Menschen? Teile deine Gedanken.

Quelle: MEEON #95
Titel: ChatGPT tröstet dich nicht – Es tut nur so
Bild: MEEON
Video: MEEON