Chatbots als Gamechanger für die mentale Gesundheit von Studierenden?
Chatbots als Gamechanger für die mentale Gesundheit von Studierenden?
30.09.25
Chatbots als digitale Helfer in der Not
Chatbots rücken als niedrigschwellige Begleiter in den Fokus der Hochschulwelt: verfügbar rund um die Uhr, personalisiert – und zugleich mit Risiken von Abhängigkeit bis Datenschutz. Der Beitrag von Milena Stegner, u. a. Future Scout beim Stifterverband, bündelt eine vielstimmige Lage: Wirksamkeitsstudien mit Licht und Schatten, Einschätzungen von Expert:innen, Perspektiven aus der Praxis und von Studierenden. Im Mittelpunkt stehen Fragen nach sinnvoller Einbettung, Schutz vulnerabler Gruppen sowie AI- und Data-Literacy an Hochschulen.
Ella blickt verzweifelt auf die Uhr: Schon nach Mitternacht. Morgen früh ist die Deadline für ihre Hausarbeit. Eine mündliche Prüfung steht übermorgen auch noch an, schon bei dem Gedanken daran zieht sich in ihr alles zusammen. Die letzten Wochen waren unglaublich stressig: Nebenjob, Geldsorgen, Klausuren und dann auch noch Probleme mit ihrem Freund. Ella war sogar so weit, sich professionelle Hilfe zu suchen, aber die Beratungsstellen der Uni waren schon über Wochen ausgebucht. Da fällt ihr der Tipp einer Freundin wieder ein: Ich wende mich immer an ChatGPT, wenn es mir nicht gut geht. „Vielleicht besser, als niemanden zum Reden zu haben“, denkt Ella und öffnet die App.
Ellas Geschichte ist längst kein Einzelfall mehr. Einsamkeit, Stress und psychische Belastung sind unter Studierenden extrem verbreitet. Gleichzeitig wächst die Bereitschaft, sich bei solchen Problemen einem Chatbot anzuvertrauen. Die Nutzung von Chatbots als digitale Begleiter oder Companions wächst rasant und wird vor allem von jungen Anwender:innen vorangetrieben. In einer Studie aus Südafrika gaben über 80% der befragten Studierenden an, dass sie beabsichtigen, einen Chatbot für ihre psychische Gesundheit zu nutzen[1]. In Deutschland liegen Beziehungsfragen immerhin auf Platz 6 aller Use Cases von ChatGPT.[2] Die Vorteile liegen auf der Hand: Ein Chatbot ist immer verfügbar, kostengünstig und verurteilt Nutzer:innen nicht. Demgegenüber stehen Bedenken über Datenschutz, Abhängigkeit und möglicherweise kontraproduktive bis hin zu gefährlichen Antworten. Über die konkreten Chancen und Risiken von Chatbots zur Verbesserung der psychischen Gesundheit von Studierenden sprach Milena Stegner mit Expert*innen auf dem Gebiet, von einer Psychotherapeutin bis zu einem Philosophen.
Die psychische Belastung von Studierenden
Zahlen zeigen, dass Studierende unter einem vergleichsweise hohen Level an psychischer Belastung leiden, beispielsweise durch Stress und Ängste – Tendenz steigend[3]. Demgegenüber steht eine enorme Versorgungslücke, was Angebote zur Unterstützung der mentalen Gesundheit angeht. Dazu kommt, dass Studierende weniger bereit sind als Peers, die nicht studieren, Hilfsangebote anzunehmen[4]. Offensichtlich ist die Angst vor Stigmata oder vor Auswirkungen auf die Noten groß. Könnten Chatbots hier also eine wichtige Lücke füllen und die Wartezeit zur Therapie überbrücken, die Hemmschwelle dazu senken, oder Therapeut:innen gar ersetzen? Über die Chancen und Gefahren habe ich mit einer Reihe an Expert:innen auf dem Gebiet gesprochen.
Studien zur Wirksamkeit von Chatbots zur mentalen Unterstützung zeichnen ein gemischtes Bild
Zur Wirksamkeit von Chatbots zur Verbesserung der mentalen Gesundheit gibt es inzwischen eine ganze Reihe an vielversprechenden Studien. Demnach können Chatbots sowohl gegen Depression, als auch gegen Ängste helfen.[5] In einer Studie, die Antworten eines Chatbots mit denen von Therapeut:innen verglich, wurden die Antworten des Chatbot höher bewertet[6]. In einer anderen Studie gaben sogar 30 Studierende an, ihr Chatbot Companion habe sie vor dem Suizid bewahrt.[7] Demgegenüber stehen jedoch auch Analysen, die keine Wirkung feststellen oder sogar schwerwiegende Gefahren aufzeigen. Eine Studie testete die Reaktionen von Chatbots auf Nachrichten, die Hilfsbedürftigkeit oder selbstverletzendes Verhalten zum Ausdruck brachten. Die Ergebnisse waren alarmierend: Der Chatbot erkannte Hilferufe oft nicht, oder gab sogar kontraproduktives Feedback[8]. Inzwischen gibt es außerdem eine Reihe belegter Fälle, in denen Chatbots Menschen zum Suizid ermutigt haben. Die Studienlage ist insgesamt noch dünn und das Thema zu komplex, um eindeutige Schlüsse ziehen zu können.
Chatbots können in unterschiedliche Richtungen wirken
„Chatbots könnten in beide Richtungen wirken“, antwortet Christian Uhle, Philosoph und Autor des Buches “Künstliche Intelligenz und echtes Leben” auf die Frage, ob Chatbots zu Entfremdung führen, oder uns näher zusammenbringen werden.
„Entfremdend kann sie natürlich insbesondere dann wirken, wenn wir an KI-Systeme gebunden werden und darüber hinaus unsere zwischenmenschlichen Kontakte vernachlässigen oder auch ein Stück weit verlernen, mit Menschen zu interagieren. Denn der Umgang mit KI-Systemen wird ja möglichst reibungsfrei gestaltet und ist ganz auf die Bedürfnisse der Nutzerin oder des Nutzers zugeschnitten. In zwischenmenschlichen Begegnungen jedoch erleben wir auch immer wieder Spannungen und Reibungen. Es geht nicht nur um unsere eigenen Bedürfnisse, sondern wir müssen uns auch auf die Bedürfnisse und die Innenwelt eines Gegenübers einlassen. Insofern wäre es eine Gefahr, dass es Menschen irgendwann leichter fällt, mit einer künstlichen Intelligenz zu sprechen als mit ihren Mitmenschen.“
Uhle sieht jedoch gleichermaßen Chancen: Denn Chatbots könnten auch zu mehr zwischenmenschlichen Interaktionen motivieren und unsere sozialen Fähigkeiten stärken, indem wir sie als Übungsfeld nutzen, um zu lernen über eigene Gefühle zu sprechen, Smalltalk zu führen, oder zu flirten. So könnten Gespräche mit einem Chatbot auch die Hemmschwelle senken, um eine Therapie zu beginnen. Gerade in diesem frühen Entwicklungsstadium sei es wichtig, die Weichen für eine positive Zukunft zu stellen.
Eine zentrale Rolle spiele dabei das Technikdesign. Wenn dieses, wie bei kommerziellen Unternehmen üblich, darauf ausgelegt sei, Nutzende süchtig zu machen, sei dies sehr problematisch. Eine öffentliche Finanzierung, auch durch Hochschulen, könnte deshalb sinnvoll sein, auch weil diese Chatbots dann allen zur Verfügung stehen würden.
Eine zentrale Rolle spiele dabei das Technikdesign. Wenn dieses, wie bei kommerziellen Unternehmen üblich darauf ausgelegt sei, Nutzende süchtig zu machen, sei dies sehr problematisch. Eine öffentliche Finanzierung, auch durch Hochschulen könnte deshalb sinnvoll sein, auch weil diese Chatbots dann allen zur Verfügung stehen würden.
Individualisierung und Skalierung als großes Potential
Auch Prof. Dr. Anne Herrmann-Werner, Humanmedizinerin und Fachärztin für Psychosomatische Medizin und Psychotherapie am Universitätsklinikum in Tübingen, die gemeinsam mit Amir Madany Mamlouk einen Chatbot zum Stressabbau bei Studierenden entwickelt hat, sieht viele Chancen in der Entwicklung. Chatbots bergen natürlich Gefahren, dennoch hätten sie ebenfalls klare Vorteile. Einer der größten Vorteile ist laut Hermann-Werner das Potential von KI zur Individualisierung und Skalierung. „Also dass Dinge möglich sind, die einfach ressourcentechnisch mit menschlicher Power nicht umsetzbar sind, vor allen Dingen nicht in der Fläche. […] Also diese Chance ist, glaube ich wirklich, dass es einfach leichter ist, dass jeder das kriegt was er braucht, auf dem Level, wo er gerade steht.“
Als Risiko sieht sie vor allem das mangelnde Wissen vieler Menschen, die KI-Systeme nutzen. Zusätzlich seien gerade vulnerable Gruppen gefährdet, eine emotionale Bindung aufzubauen und zu vergessen, dass es sich bei Chatbots um Maschinen handelt. Ebenso sei das Suchtpotenzial bei Menschen mit psychischen Erkrankungen möglicherweise größer. Eine besondere Herausforderung, für die es laut Hermann-Werner bisher keine gute Lösung gebe, sei der Umgang mit suizidalen Gedanken von Nutzer:innen. Gerade Hochschulen würden natürlich eine andere Verantwortung tragen, als private Anbieter.
Als Chance von Chatbots sieht sie es, dass Menschen erreicht werden, die sich aus Angst vor Stigmatisierung sonst keine Hilfe suchen würden. Zusätzlich würden Chatbots enormes Potential bieten, eine Therapie zu begleiten und zu unterstützen. Beispielsweise könnten sie als Vorbereitung auf eine Therapie eine Art Störungsmodell herausarbeiten oder Impulse zur kognitiven Umstrukturierung und Aktivierung geben: „also warum sollte das so ein Modell nicht genauso gut können wie ein Therapeut? Ich glaube nur, es braucht halt eine Einbettung. Also was ich schwierig finde, wenn man es einfach so frei rausgibt, aber als Teil eines Gesamtkonzeptes sehe ich da absolut eine Chance, erstmal besser Dinge zu erkennen und auch dann zu motivieren, wenn es eben nicht reicht, weiterzuleiten sozusagen.“ Noch sei die Interaktion mit einem Chatbot nicht gleichzusetzen mit einer Therapie, aber sie könne durchaus eine sinnvolle Ergänzung darstellen. Die Haupterkenntnis aus der Arbeit mit einem Chatbot zum Stressabbau ist für Hermann-Werner, dass ein Chatbot gut funktioniere und Studierende dafür sehr offen seien.
Chatbots können Barrieren abbauen
Auch Lea Hildermeier, Studentin und DigitalChangeMaker beim HFD, sieht positives Potenzial darin, Chatbots als Ergänzung von bisherigen Angeboten zur mentalen Unterstützung von Studierenden anzusehen. In ihren Augen liegt der große Vorteil von Chatbots darin, dass sie Barrieren abbauen könnten, sowohl zeitliche Barrieren, da Chatbots rund um die Uhr verfügbar sind, als auch sprachliche Barrieren, da sie je nach Anbieter auf allen gängigen Sprachen verfügbar sind. Nicht zuletzt könnten sie Studierenden helfen, die aus Schamgefühl keine anderen Hilfsangebote annehmen wollten.
„Also ich kann sagen, okay, ich kann irgendwie gerade in so Beratungspunkten oder Aspekten, die mit meiner mentalen Gesundheit zu tun haben, in meinem psychischen Wohlbefinden, die vielleicht oft auch mal schambehaftet sind, weil die gegen so gängige Narrative von Leistungsfähigkeit zum Beispiel sprechen, kann ich das erstmal relativ gut schamfrei in den Raum stellen, weil die menschliche Interaktion glaube ich oft das ist, was schambehaftet ist und diese Angst, abgewertet zu werden, die dahinter steht, und das fällt dann halt weg. Das finde ich ist auch ein positiver Aspekt zu sagen, okay, ist erstmal niedrigschwellig zeitlich und ich muss vielleicht nicht so die Angst haben, Sachen von mir preiszugeben.“
Als größtes Problem sieht sie den Datenschutz an, da bei der Verwendung von Chatbots zur psychischen Unterstützung extrem persönliche Daten freigegeben werden würden. Bedenklich sei auch die Tatsache, dass Chatbots in der Regel die Sichtweise der Nutzenden bestärken, auch wenn diese möglicherweise schädlich sind. Ohne kritische Rückfragen oder das Widerspiegeln von schädlichen Verhaltensmustern, bleibe ich jedoch in einer Filterblase.
Trotz dieser Probleme sieht auch Lea Hildermeier große Chancen in Chatbots, beispielsweise könnten sie bei einer ersten Verbalisierung helfen, oder auf kognitiver Verhaltenstherapie basierende Tips bspw. zu Prüfungsangst geben. Wichtig sei zu bedenken, dass unterschiedliche Angebote für verschiedene Menschen funktionieren. So könnten manche Studierenden bspw. wegen Care Arbeit nicht an die Uni kommen. Für diese könnte der niedrigschwellige Zugang von Chatbots einen enormen Vorteil darstellen. Nicht zuletzt betont auch Lea Hildermeier, dass es in jedem Fall Aufklärungsarbeit und Kompetenzaufbau brauche, ebenso wie einen Raum für Austausch. Falsch wäre es, wenn Hochschulen versuchen würden, sich vor den Entwicklungen zu verschließen.
„es braucht einen reflektierten Umgang und ich finde, da sind Hochschulen einfach in der Verantwortung, auch mit Studierenden dazu zu sprechen und auch Austauschräume zu kreieren, die diesen reflektierten Umgang schulen können, wo man halt sagt, okay, welche Kompetenzen, Stichwort: AI-Literacy, Data-Literacy, brauchen Studierende da, um damit reflektiert umgehen zu können, kritisch umgehen zu können, kritisch hinterfragen zu können und wie können Hochschulen das unterstützen?“
Chancen vor allem für internationale Studierende
Auch Saskia Beckmann betont die Bedeutung von Chatbots für Internationale Studierende. Sie begleitet an der Hochschule Rhein-Waal als Wissenschaftliche Mitarbeiterin das Projekt „Path out of your problems“, ein Chatbot, der Studierende bei der Bewältigung diverser Probleme im Studienalltag unterstützen soll.[9]
Dieser bietet vor allem für internationale Studierende große Vorteile: „Viele kommen vielleicht aus einem Bildungssystem oder auch aus einem gesellschaftlichen System, in dem es nicht so normal ist, mit anderen Leuten oder sogar mit Fachpersonen über Probleme der psychosozialen Gesundheit zu sprechen.“ Quantitative Erhebungen würden zwar zeigen, dass internationale Studierende mit deutlich mehr Faktoren oder Stressoren belastet seien, „wenn man aber dann fragt, wie es um ihre psychosoziale Gesundheit bestellt ist, dann ist alles in Ordnung.“ Entweder würden internationale Studierende ihre vielen Belastungen weniger mit ihrer psychosozialen Gesundheit in Verbindung bringen, oder sie würden aufgrund ihrer eigenen Ressourcen trotz der hohen Belastungen eine gute psychosoziale Gesundheit aufweisen.
Womöglich könnte unter internationalen Studierenden aber auch die Angst vor Stigmatisierung größer sein. In jedem Fall wäre die Anonymität, die ein Chatbot bietet, ein großer Vorteil. Problematisch ist für Beckmann die Tatsache, dass die Antworten eines Chatbots nicht vorhersehbar seien. Wünschen würde sie sich mehr Rechtssicherheit und Aufklärung nicht nur bei den Studierenden, sondern auch bei Beratungsstellen, die auf die Entwicklung des Chatbots teilweise mit Sorge reagiert hätten, obwohl dieser eine Entlastung darstellen soll. Weder blindes Vertrauen noch kategorische Ablehnung seien hilfreich.
Ausblick
Auffallend ist, dass die Expert:innen trotz sehr unterschiedlicher fachlicher Hintergründe viele Bedenken und Hoffnungen teilen. Chatbots können nicht ersetzen, aber eine wichtige Rolle einnehmen, um Barrieren abzubauen, Wartezeiten zu überbrücken und den Einstieg in eine Therapie zu erleichtern, oder diese zu begleiten. Wichtig sei eine sinnvolle Einbettung. Hochschulen müssen für den Aufbau von KI-Kompetenz sorgen, Aufklärung über Gefahren und Herausforderungen leisten und sicherstellen, dass alle gleichermaßen Zugang haben. Außerdem müssen vulnerable Gruppen besonders geschützt werden. Auch Fragen nach Rechtssicherheit und Datenschutz müssten geklärt werden. Werden diese Bedenken ernst genommen, könnten Chatbots eine wichtige Rolle einnehmen, um Studierende im Alltag als Companion zu begleiten.
—————————————————————————————-
[1] Gbollie EF, Bantjes J, Jarvis L, Swandevelder S, du Plessis J, Shadwell R, Davids C, Gerber R, Holland N, Hunt X. (2023): Intention to use digital mental health solutions: A cross-sectional survey of university students attitudes and perceptions toward online therapy, mental health apps, and chatbots. In: Digit Health. 30.11.203. doi:10.1177/20552076231216559
[2] Scheurenbrand, Kim M. (23.5.2025): ChatGPT-Zahlen zeigen: Deutsche nutzen KI vor allem für Schreiben und Bildung. In: The Decoder.
[3] Rainer Weber (26.2.2025): Wie belastet sind Studierende? Forschung & Lehre. https://www.forschung-und-lehre.de/zeitfragen/wie-belastet-sind-studierende-6268 (abgerufen am 27.8.2025).
[4] ebd.
[5] Hao Liu, Huaming Peng, Xingyu Song, Chenzi Xu, Meng Zhang (2022): Using AI chatbots to provide self-help depression interventions for university students: A randomized trial of effectiveness, In: Internet Interventions, Volume 27. https://doi.org/10.1016/j.invent.2022.100495.
[6] Hatch SG, Goodman ZT, Vowels L, Hatch HD, Brown AL, Guttman S, et al. (2025) When ELIZA meets therapists: A Turing test for the heart and mind. In: PLOS Ment Health 2(2) https://doi.org/10.1371/journal.pmen.0000145
[7] Maples, B., Cerit, M., Vishwanath, A. et al. (2024): Loneliness and suicide mitigation for students using GPT3-enabled chatbots. In: Mental Health Res 3, 4. https://doi.org/10.1038/s44184-023-00047-6
[8] De Freitas, Julian & Uğuralp, Ahmet & Oğuz‐Uğuralp, Zeliha & Puntoni, Stefano (2023): Chatbots and mental health: Insights into the safety of generative AI. In: Journal of Consumer Psychology, 34.
[9] Saskia Beckmann und Lukas Schink (3.6.2025): Von der Krise zur Resilienz: Wie KI in der Studienberatung die psychosoziale Gesundheit von Studierenden verbessern kann. Hochschulforum Digitalisierung. https://hochschulforumdigitalisierung.de/von-der-krise-zur-resilienz/ (abgerufen am 27.8.2025).
Autorin

Milena Stegner ist Wissenschaftliche Mitarbeiterin für den KI-Campus und die DHBW Heilbronn und promoviert zum Thema Chatbots als Freund*innenersatz an der Universität Freiburg. Zusätzlich geht sie als Future Scout für generative KI für den Stifterverband und die Reinhard-Frank-Stiftung vor allem der Frage nach, welche Rolle Chatbots zur mentalen Unterstützung von Studierenden in Zukunft spielen können und sollen.
Email: milenastegner@posteo.de
LinkedIn: https://www.linkedin.com/in/milena-stegner-46b197264/
Dieser Blogbeitrag ist in Kooperation mit dem HFD-Thinktank “Well-Being und Mental Health im digitalen Zeitalter an Hochschulen” unter redaktioneller Leitung von Tina Basner entstanden. Teilen Sie gerne Ihre Fragen und Ideen zum Thema über die Kommentarfunktion oder kontaktieren Sie uns direkt per E-Mail an milenastegner@posteo.de oder Tina.Basner@CHE.de.