Die wesentliche Botschaft muss sein: KI kann zwar niedrigschwellige erste Unterstützungsangebote schaffen, etwa durch Chatbots außerhalb der Sprechzeiten oder bei Sprachbarrieren, und so Ratsuchende auf unkomplizierte Weise erreichen. Sie kann aber nicht die zentrale menschliche Beziehung im Hilfeprozess ersetzen.
Das „soziale Gegenüber“, also persönliche Ansprache, Empathie und das Beziehungsangebot, bleibt das Herzstück der Suchthilfe. KI darf deshalb nur unterstützend und ergänzend eingesetzt werden, etwa im administrativen Bereich, zur Verbesserung der Erreichbarkeit oder als Einstiegshilfe für Menschen, die zunächst Hemmungen vor einem persönlichen Kontakt haben. Die eigentliche Beratung, Begleitung und Beziehungsgestaltung bleibt jedoch Aufgabe der Fachkräfte. Diese können die Stärken von KI nutzen, ohne dabei die Menschlichkeit und den direkten Kontakt aus dem Auge zu verlieren. So bleibt die Suchthilfe zukunftsfähig, ohne ihre wichtigste Ressource aufzugeben - die menschliche Begegnung (Brandenburgische Landesstelle für Suchtfragen e. V., 2024).

Theoretische Grundlagen
Menschen schreiben technischen Systemen soziale Präsenz zu, wenn sie ein Gegenüber wahrnehmen, das absichts- und gefühlsfähig wirkt. Soziale Präsenz entsteht als Zustand, in dem Nutzer:innen das Gegenüber als psychologisch und emotional erreichbar erleben. In der Forschung wird KI als „social actor“ gefasst, das in soziale Beziehungen und symbolische Ordnungen eingebunden ist (Liu, 2018).
Empirische Befunde zu Beziehung und Offenbarung
Nutzer*innen erleben Rapport und Beziehungsqualität mit psychotherapeutischen Chatbots, was die Selbstoffenbarung steigert. In einer Studie zu zwei mentalen Gesundheits-Chatbots berichteten 18 der 26 Teilnehmenden von einer Bindung zum Bot. Faktoren dafür sind Empathie, Übereinstimmung im Stil, Wirksamkeit der Vorschläge und ein nicht wertendes Gespräch. Ein systematisches Review von 13 Studien fand heraus, dass psychische Belastung durch Agents, die psychoedukative und soziale Unterstützung bieten, reduziert wird (Lee, J., Lee, J.-g., & Lee, D., 2022)
Digitale therapeutische Allianz und Wirksamkeit
Eine „Digital Therapeutic Alliance“ mit Chatbots entsteht durch Vertrauen, emotionale Unterstützung und Kooperation. Eine Meta-Analyse zu 32 RCTs mit 6.089 Teilnehmenden zeigt kleine bis mittlere Effekte auf Depressionen, Angstzustände und das Wohlbefinden. Personalisierung und empathische Antworten wirken sich dabei besonders aus. Reviews zu KI-CBT-Chatbots bestätigen Symptomreduktionen und eine hohe Akzeptanz (Xu et al., 2025).
Einsatz als soziales Gegenüber in der Suchthilfe
KI eignet sich für niedrigschwellige Angebote, bei denen Nutzende weniger Angst vor Bewertung haben. Bots leisten Alltagsbegleitung in Form von Check-ins und Motivation. In chronischen Versorgungskontexten vermitteln sie zwischen Fachkräften und Betroffenen. Der Einsatz bleibt ergänzend: Es braucht Transparenz zu Grenzen und Daten sowie die Priorität menschlicher Beratung (Gaffney, H., Mansell, W., & Tai, S., 2019).
Literaturangaben
Lee, J., Lee, J.-g., & Lee, D. (2022, March 22). Influence of rapport and social presence with an AI psychotherapy chatbot on users’ self-disclosure (SSRN Electronic Journal). SSRN.
Xu, Z., Lee, Y.-C., Stasiak, K., Warren, J., & Lottridge, D. (2025). The digital therapeutic alliance with mental health chatbots: Diary study and thematic analysis. JMIR Mental Health, 12, Article e76642
Gaffney, H., Mansell, W., & Tai, S. (2019). Conversational agents in the treatment of mental health problems: Mixed-method systematic review. JMIR Mental Health, 6(10), Article e14166.