Therapieplätze fehlen: Teenies suchen psychischen Rat bei KI-Bots

Elena Hatebur
Elena Hatebur

Bern,

KI-Chatbots werden für Jugendliche zum Gesprächspartner bei Sorgen. Experten erklären, warum das nachvollziehbar ist – und warum Vorsicht geboten bleibt.

KI-Chatbots bei Jugendlichen
Viele Jugendliche sehen KI-Chatbots zunehmend als digitalen «Freund». (Symbolbild) - keystone

Das Wichtigste in Kürze

  • Immer mehr Jugendliche nutzen KI-Chatbots als Ansprechpartnerin für psychische Themen.
  • Experten warnen vor der unkritischen Nutzung.
  • Doch: digitale Selbsthilfeprogramme können auch eine unterstützende Rolle einnehmen.

Rund ein Viertel der 13- bis 17-Jährigen nutzt KI-Chatbots zur Unterstützung bei psychischen Belangen. Das zeigt eine Studie des «Youth Endowment Fund» (YEF) aus England und Wales. Rund 11'000 Kinder und Jugendliche wurden befragt.

Die Chatbots sind jederzeit verfügbar, reagieren sofort und wirken verständnisvoll. Doch die wachsende Rolle künstlicher Gesprächspartner wirft Fragen auf. Auch mit Blick auf die Schweiz, wo vergleichbare Daten bislang fehlen.

Wie verbreitet der Einsatz solcher Chatbots bei psychischen Anliegen hierzulande ist, lässt sich derzeit nicht genau beziffern.

Klar ist jedoch: KI-Tools sind bei Jugendlichen weit verbreitet. Und der Bedarf an psychologischer Unterstützung wächst.

KI antwortet sofort – bei Psychologen herrscht Engpass

Olivier Reber, Mediensprecher von Pro Juventute, erinnert an den strukturellen Engpass: «Es gibt einen Mangel an Therapieplätzen, insbesondere in der Kinder- und Jugendpsychiatrie. Junge Menschen suchen nach Alternativen oder Zwischenlösungen.»

Diese Entwicklung zeige sich auch beim Beratungsangebot 147. Im Jahr 2024 wurden rund 47'000 Beratungen durchgeführt. Das sind 13 Prozent mehr als im Vorjahr.

Warum sich Jugendliche dennoch an Chatbots wenden, ist aus Sicht der Fachstellen nachvollziehbar. «Sie antworten sofort und wirken verständnisvoll», sagt Reber.

Hast du schon mal einen KI-Chatbot für psychologische Zwecke genutzt?

Doch er warnt: Problematisch sei, «wenn Jugendliche sich zu stark auf eine KI verlassen und sich dadurch von realen Menschen zurückziehen».

Entscheidend sei, dass junge Menschen weiterhin den Kontakt zu vertrauten Bezugspersonen pflegten. «Nur diese können langfristig eine stabile, verlässliche und wirklich unterstützende Beziehung bieten», betont Reber.

KI erkennt menschliche Not nicht

Auch der Präsident der Schweizerischen Vereinigung für Kinder- und Jugendpsychologie, Matthias Obrist, warnt vor der leichtgläubigen Nutzung.

Jugendliche vertrauten «unkritisch einem Algorithmus, den sie nicht kennen». Sie würden den angenehmeren Kontakt bevorzugen und könnten so in eine emotionale Abhängigkeit geraten.

KI könne attraktiver werden als eine echte Beziehung. Hinzu kommt: Laut Obrist können Algorithmen menschliche Not nicht angemessen erkennen.

Es brauche «Warnhinweise und einen KI-Stopp», sagt Obrist. Ab einem gewissen Punkt sollte die KI also nicht mehr antworten, sondern Jugendliche ermutigen, menschliche Hilfe zu holen.

So kann bei Krisensituationen eine Bezugsperson oder eine Fachperson aufgesucht werden, sagt Obrist.

KI kann keine psychischen Krisensituationen entschärfen

Besonders deutlich wird die Grenze der Technologie in akuten Situationen. «KI-Chatbots sind nicht dafür gemacht, psychische Krisensituationen zu entschärfen», sagt Olivier Reber.

Sie simulierten Mitgefühl, übernähmen aber keine Verantwortung. «Sie erkennen auch nicht, ob jemand akut suizidgefährdet ist und können keine Nothilfe leisten.»

Ähnlich argumentiert der Psychologe Thomas Berger von der Universität Bern. «Selbst wenn KI Hinweise auf Suizidalität erkennt, löst sie keine Notfallkette aus», sagt Berger.

Chatbots könnten lediglich Empfehlungen aussprechen. Aber: «Sie kümmern sich nicht wirklich, handeln nicht, beziehen keine anderen Personen ein. Und rufen im Notfall nicht den Rettungsdienst, wie es Therapeuten tun würden.»

Chatbots können trotzdem unterstützen

Gleichzeitig sollte der Nutzen einer KI bei psychischen Belangen nicht grundsätzlich negiert werden.

«KI bietet unmittelbar psychische Unterstützung. Und kann im Alltag sehr hilfreich sein, etwa bei leichten Ängsten oder zur Bewältigung von Stress», sagt Olivier Reber.

Warst du schon mal in psychologischer Behandlung?

Auch Berger verweist auf Studien, die die Wirksamkeit digitaler Selbsthilfeprogramme belegen. Erste Befunde zu therapeutisch orientierten Chatbots seien ebenfalls positiv, sofern diese gezielt für bestimmte Störungsbilder entwickelt wurden.

Solche Anwendungen könnten Wartezeiten überbrücken oder laufende Behandlungen sinnvoll ergänzen. Auch Obrist sagt: «Eine Kombination von Therapie und Chatbots kann hilfreich sein.»

Eine entsprechende Studie zur Untersuchung eines digitalen Tools für Menschen, die auf eine Psychotherapie warten, wird derzeit durchgeführt. Verantwortlich dafür ist die Abteilung Klinische Psychologie und Psychotherapie der Universität Bern.

Kein Ersatz für Experten

Ein Ersatz für professionelle Hilfe bietet die KI jedoch nicht, da sind sich die Experten und Fachstellen einig.

«Psychische Erkrankungen sind sehr komplex. Ein KI-Chatbot kann keine Diagnose stellen und ist kein Ersatz für eine Therapie», betont Olivier Reber.

Therapeutische Arbeit basiere auf einer echten, tragfähigen Beziehung. Fachpersonen könnten gezielt nachfragen, Warnsignale erkennen und Verantwortung übernehmen.

«KI hingegen bestätigt meist das Gesagte und trägt keine Verantwortung.» Und: Einen Chatbot könne man jederzeit beenden, sobald es unangenehm werde.

Kommentare

User #4991 (nicht angemeldet)

Es passt nicht mehr viel in der Schweiz ? Ich denke sogar das Sorgentelefon ist am der limite?

User #3764 (nicht angemeldet)

Bei psychischen Problemen mal ein paar Monate ohne Social Media. Die ganze Zeit am Handy hocken, kann ja nicht gesund sein.

Weiterlesen

KI-Chatbot
6 Interaktionen
Forschung zeigt
Eine Hand hält ein Smartphone mit einem Chatbot vor einer virtuellen Leinwand.
5 Interaktionen
Nach Klage
kinder
31 Interaktionen
WHO warnt
Immobilien
6 Interaktionen
Immobilien

MEHR AUS STADT BERN

YB
2 Interaktionen
Er trainiert wieder
Kunstmuseum Bern
Referendum steht
Flüstertüte
39 Interaktionen
In Adelboden
SCB
2 Interaktionen
Heimpleite