Immer mehr junge Menschen nutzen künstliche Intelligenz, um über persönliche Krisen zu sprechen. Statt Freund:innen oder Therapeut:innen wenden sie sich an Programme wie ChatGPT. Eine Nutzerin aus Berlin beschreibt, wie sich dadurch ihr Umgang mit belastenden Situationen verändert hat. Doch Fachleute warnen vor möglichen Gefahren.
Inhaltsverzeichnis:
- Sam aus Treptow-Köpenick spricht mit ChatGPT über persönliche Probleme
- Tanja Schneeberger warnt vor unkritischer Nutzung
- Eva-Maria Schweitzer-Köhn berichtet von Risiken bei psychischen Erkrankungen
- Forschung zeigt hohe Zustimmung zu KI-Antworten bei psychischen Themen
Sam aus Treptow-Köpenick spricht mit ChatGPT über persönliche Probleme
Die 26-jährige Studentin Sam aus dem Berliner Bezirk Treptow-Köpenick wandte sich in einer emotional belastenden Situation an ChatGPT. Zunächst hatte sie die KI nur für Studienfragen genutzt. Als sie jedoch in einen Konflikt mit einer nahestehenden Person geriet, begann sie, dem Programm auch persönliche Gedanken anzuvertrauen. Sie beschrieb die Situation, erhielt Rückmeldungen und Ratschläge, unter anderem für mögliche WhatsApp-Antworten. Das Besondere für sie: Die Antworten wirkten empathisch und unterstützend.
Ihre Freundinnen wollte Sam in dieser Phase nicht einweihen. Sie hielt deren Reaktionen für zu parteiisch. Die KI erschien ihr dagegen neutral. Auf körperliche Beschwerden reagierte das Programm mit konkreten Tipps zur Atmungsregulation – eine Anleitung, die Sam beruhigte. Trotzdem war sie sich der Grenzen bewusst: KI-Bots können fehlerhafte oder unpassende Aussagen erzeugen.
Tanja Schneeberger warnt vor unkritischer Nutzung
Tanja Schneeberger vom Deutschen Forschungszentrum für Künstliche Intelligenz mahnt zur Vorsicht bei der Nutzung von Sprachmodellen in psychologischen Kontexten. Die Programme seien nicht mit spezialisiertem Fachwissen trainiert, sondern mit allgemeinen Daten aus dem Internet. Daher fehlten ihnen therapeutische Standards. Besonders problematisch sei, dass sie selten widersprechen und meist die Perspektive der Nutzer:innen verstärken.
Ein Problem sieht Schneeberger auch darin, dass KI-Systeme nicht erkennen, wenn eine Situation eskaliert. Wer wirklich Hilfe braucht, müsse gezielt nach unterschiedlichen Sichtweisen fragen. Ein KI-Modell reagiert nicht wie ein Mensch, sondern simuliert nur menschliche Kommunikation.
Eva-Maria Schweitzer-Köhn berichtet von Risiken bei psychischen Erkrankungen
Die Präsidentin der Psychotherapeutenkammer Berlin, Eva-Maria Schweitzer-Köhn, berichtet von einem Fall, in dem ein psychotischer Mensch nachts stundenlang mit einem Chatbot sprach. Das führte zu einer Verstärkung der manischen Symptome. Solche Beispiele zeigen: Eine KI kann eine kritische Situation nicht erkennen oder unterbrechen. Therapeutische Prozesse sind zeitlich begrenzt und bieten Raum zur Reflexion – eine Eigenschaft, die KI nicht besitzt.
Außerdem verfolgen Therapeut:innen langfristige Behandlungsziele. Sie kennen die Krankengeschichte und passen ihre Methoden individuell an. Bei einem Chatbot fehlt dieser Kontext vollständig. Die ständige Verfügbarkeit eines Programms ist verführerisch, ersetzt aber keine qualifizierte Betreuung.
Forschung zeigt hohe Zustimmung zu KI-Antworten bei psychischen Themen
Eine Untersuchung der Ohio State University verglich die Reaktionen von über 800 Teilnehmer:innen auf Antworten von ChatGPT und professionellen Therapeut:innen. Die KI schnitt überraschend gut ab: Viele bewerteten die KI-Antworten höher als die der Fachkräfte. Das zeigt, dass Nutzer:innen sich von der sprachlichen Kompetenz der Programme angesprochen fühlen.
Sam, die inzwischen wieder primär für ihr Studium auf ChatGPT zurückgreift, zieht ein klares Fazit: Die KI kann kurzfristig helfen, Belastungen abzubauen. Für tiefergehende Probleme sei sie jedoch kein Ersatz für eine Therapie. Sie hat festgestellt, dass viele Antworten sich wiederholen – ein Hinweis auf die begrenzten Möglichkeiten der künstlichen Intelligenz.
Quelle: RBB24