Künstliche Intelligenz

Rahmenbedingungen

für die Anwendung von KI in der Suchthilfe

Der Einsatz von Künstlicher Intelligenz in der Suchthilfe birgt zahlreiche Chancen, stellt Fachkräfte jedoch auch vor neue rechtliche und organisatorische Herausforderungen. Eine der wichtigsten Fragen ist die klare Zuweisung von Verantwortlichkeiten. Wer trägt wofür die rechtliche Verantwortung und wie muss dies in der Organisation geregelt werden? 

EU-AI-ACT

Der EU-AI-ACT, auch als Verordnung über künstliche Intelligenz bekannt, ist ein wegweisendes Gesetz der Europäischen Union. Es zielt darauf ab, eine vertrauenswürdige und menschenzentrierte Entwicklung und Nutzung von KI in Europa zu gewährleisten. Er ist das weltweit erste umfassende Gesetz zur Regulierung von KI und wurde nach intensiven Verhandlungen Anfang 2024 endgültig verabschiedet. Die Bestimmungen treten gestaffelt in Kraft, wobei die vollständige Anwendung der meisten Vorschriften für Hochrisiko-KI-Systeme in den kommenden zwei bis drei Jahren erwartet wird.

Der EU-AI Act unterscheidet grundsätzlich zwei Rollen: Anbietende und Betreibende von KI-Systemen. Anbietende sind diejenigen, die ein KI-System entwickeln, produzieren oder für andere verfügbar machen, beispielsweise durch Anpassung oder Weiterentwicklung der Software. Betreibende sind hingegen die Personen oder Organisationen, die ein KI-System in ihrem Alltag einsetzen, ohne tiefgreifende technische Veränderungen vorzunehmen.

Für uns bedeutet das, wer eine fertige Standard-KI-Lösung nutzt, wird als Betreibende*r angesehen. Die wichtigste Verantwortung besteht darin, dafür zu sorgen, dass das KI-System im Alltag ordnungsgemäß eingesetzt wird. Dazu gehört auch die Schulung der Mitarbeitenden, die Kontrolle der Nutzung sowie die rechtzeitige Information der Nutzenden darüber, dass KI eingesetzt wird. Zudem müssen Risiken im Umgang mit sensiblen Daten, beispielsweise Gesundheits- und Sozialdaten, regelmäßig bewertet und angemessen geschützt werden (artificialintelligenceact.eu, o.J.).

Das zentrale Prinzip des EU-AI Act ist ein risikobasierter Ansatz. Je höher das potenzielle Risiko eines KI-Systems für die Sicherheit, die Grundrechte oder die Gesundheit von Menschen ist, desto strenger sind die Anforderungen und Pflichten für die Anbietenden und Nutzenden dieser Systeme. 

 

Der Act unterscheidet im Wesentlichen vier Risikostufen:

Hochrisiko-KI-Systeme: Diese Systeme sind nicht verboten, unterliegen aber sehr strengen Vorschriften, da sie ein hohes Potenzial für Schäden mit sich bringen. In diese Kategorie fallen in der Regel KI-Systeme, die im Gesundheits- und Sozialwesen eingesetzt werden, beispielsweise für die Diagnose, Therapie oder Überwachung von Krankheiten oder für die Zuweisung von Dienstleistungen im Bereich der sozialen Sicherheit und Sozialhilfe. Dies ist für die ambulante Suchthilfe von größter Bedeutung.

Unannehmbares Risiko: KI-Systeme, die ein klares Sicherheitsrisiko oder eine Gefahr für die Grundrechte darstellen, sind verboten. Dazu gehören beispielsweise soziale Scoring-Systeme durch staatliche Stellen, bestimmte Anwendungen zur Emotionserkennung in sensiblen Kontexten oder manipulativ-unterschwellige Techniken, die zu schädlichem Verhalten führen können.  

 

KI-Systeme mit begrenztem Risiko: Hierbei handelt es sich um KI-Systeme, die ein geringeres, aber relevantes Risiko aufweisen. Für diese Systeme gelten Transparenzpflichten. Beispiele hierfür sind Chatbots, die den Nutzenden deutlich machen müssen, dass sie mit einer KI interagieren, sowie Systeme, die Bild-, Audio- oder Videoinhalte erzeugen und als „Deepfakes“ gekennzeichnet werden müssen.

 

Minimales oder kein Risiko: Die meisten KI-Anwendungen wie Spamfilter oder Empfehlungssysteme fallen in diese Kategorie. Für sie sind keine besonderen Vorschriften vorgesehen, außer den allgemeinen rechtlichen Rahmenbedingungen wie der DSGVO (Europäische Kommission, o.J.).

Warum ist der EU AI Act für die ambulante Suchthilfe wichtig?

Wie bereits erwähnt, werden viele KI-Anwendungen im Gesundheits- und Sozialwesen als Hochrisiko-KI-Systeme eingestuft. Das bedeutet, dass diese Anwendungen besonderen Anforderungen genügen müssen. Dazu gehören unter anderem:

  • Risikomanagementsysteme: kontinuierliche Identifizierung, Bewertung und Minderung von Risiken

  • Daten- und Daten-Governance: hohe Qualität der Trainingsdaten, um Diskriminierung oder Fehler zu vermeiden

  • Dokumentations- und Aufzeichnungspflichten: Klare Nachvollziehbarkeit der Funktionsweise des Systems

  • Transparenz und Bereitstellung von Informationen für die Nutzenden: Die Nutzenden (also wir Fachkräfte) und gegebenenfalls auch die Klient*innen müssen verstehen, wie das System funktioniert und welche Grenzen es hat.

  • Menschliche Aufsicht: KI-Systeme dürfen niemals autonom und ohne menschliche Kontrolle Entscheidungen treffen. Eine geschulte menschliche Fachkraft muss jederzeit eingreifen und die letzte Entscheidung treffen können.

  • Genauigkeit, Robustheit und Cybersicherheit: Die Systeme müssen zuverlässig und sicher sein.

  • Konformitätsbewertung: Vor der Markteinführung müssen Hochrisiko-KI-Systeme eine Konformitätsbewertung durchlaufen, um sicherzustellen, dass sie alle Anforderungen des AI Acts erfüllen.

  • Meldepflichten: Bei schwerwiegenden Zwischenfällen sind die zuständigen Behörden zu informieren (Europäische Kommission, o.J.).

Was bedeutet das für die Praxis?

Der EU-AI-Act schafft einen klaren Rahmen für den Einsatz von KI, insbesondere in sensiblen Bereichen wie der Suchthilfe. Er zielt darauf ab, Vertrauen in KI-Technologien zu schaffen, indem er klare Regeln für Sicherheit, Transparenz und den Schutz der Grundrechte etabliert. Fachkräfte müssen beim Einsatz von KI-Tools darauf achten, dass diese den Vorgaben entsprechen. So können wir verantwortungsvoll und rechtssicher mit diesen neuen Technologien umgehen und das Wohlergehen der Klient*innen gewährleisten (artificialintelligenceact.eu, o.J.).

Potsdamer Memorandum

Auch in Deutschland wurde eine wichtige Leitlinie erarbeitet, die unseren spezifischen Arbeitsbereich betrifft und das im Vorhinein skizzierte EU-Vorgehen um eine praxisnahe, nationale Perspektive ergänzt: das Potsdamer Memorandum zum Einsatz Künstlicher Intelligenz in der Suchthilfe. Im Rahmen eines umfassenden Beteiligungsprozesses erörterten Fach- und Führungskräfte aus Einrichtungen der Suchthilfe, Suchtselbsthilfe und Suchtprävention sowie Vertreter*innen aus Wissenschaft, Technologie und den Gesundheitsministerien der Länder und des Bundes die Thematik mit externen Fachreferierenden aus unterschiedlichen Blickwinkeln. An drei digitalen Satellitenveranstaltungen nahmen jeweils bis zu 95 Fachkräfte aus Suchthilfeeinrichtungen aus dem gesamten Bundesgebiet teil. Die Ergebnisse dieser Veranstaltungen dienten als fachliche Grundlage für die zweitägige Zukunftswerkstatt, an der 35 Expert*innen teilnahmen.

 

Was ist das Potsdamer Memorandum?

 

Es ist ein zukunftsweisendes Dokument, das ethische und fachliche Empfehlungen für den verantwortungsvollen Einsatz von KI in der Suchthilfe formuliert. Es wurde von Expert*innen aus verschiedenen Disziplinen erarbeitet. Das Memorandum dient Fachkräften, Einrichtungen und Entscheidungstragenden als Orientierungshilfe, um die Chancen der KI zu nutzen und gleichzeitig potenzielle Risiken zu minimieren.

Die zentralen Ziele des Memorandums sind:

Ethische Reflexion: Förderung einer kritischen Auseinandersetzung mit den ethischen Implikationen des KI-Einsatzes in der Suchthilfe.

Qualitätssicherung: Sicherstellung, dass KI-Anwendungen in der Suchthilfe den höchsten Qualitätsstandards entsprechen.

Transparenz und Nachvollziehbarkeit: Forderung nach Transparenz bei der Entwicklung und Anwendung von KI-Systemen, um Vertrauen zu schaffen und Fehlinterpretationen zu vermeiden.

Datenschutz und Datensicherheit: Betonung der Notwendigkeit, sensible Klient*innendaten durch geeignete Maßnahmen zu schützen.

Partizipation und Selbstbestimmung: Sicherstellung, dass Klient*innen in Entscheidungsprozesse, die ihren Umgang mit KI-gestützten Angeboten betreffen, einbezogen werden und ihre Selbstbestimmung gewahrt bleibt.

Interdisziplinäre Zusammenarbeit: Förderung der Zusammenarbeit zwischen verschiedenen Fachdisziplinen, um eine ganzheitliche und ethisch fundierte KI-Anwendung in der Suchthilfe zu gewährleisten (Brandenburgische Landesstelle für Suchtfragen e. V., 2024).

 

 

Wenn Sie KI in Ihrer Einrichtung anwenden, sollten Sie zusammenfassend Folgendes unbedingt beachten:

Um Künstliche Intelligenz rechtssicher und verantwortungsvoll in der Suchthilfe einzusetzen, müssen Fachkräfte systematisch und vorausschauend vorgehen. Entscheidend ist, dass jede Einrichtung klare Strukturen für die Nutzung von KI schafft und die wichtigsten rechtlichen sowie organisatorischen Vorgaben beachtet. 

Zunächst sollten Fachkräfte klären, ob sie als Anbietende (bei maßgeblicher Anpassung oder Entwicklung eigener KI-Lösungen) oder als Betreibende (beim reinen Einsatz von Standardsoftware) handeln – es ist wahrscheinlich, dass Sie die Betreibenden-Rolle einnehmen. Daraus ergeben sich unterschiedliche Pflichten. Bereibende müssen den ordnungsgemäßen Umgang mit der KI gewährleisten, ihre Kolleg*innen schulen und die Klient*innen offen über den KI-Einsatz informieren. Besonders streng sind die Auflagen beim Umgang mit sensiblen Gesundheits- oder Sozialdaten.

 

Der Entstehungsprozess

Das Potsdamer Memorandum ist das Ergebnis eines transparenten und partizipativen Prozesses, in den die Expertise verschiedener Akteure einfloss. Im Rahmen der Zukunftswerkstatt wurden interdisziplinäre Arbeitsgruppen gebildet, um die ethischen und fachlichen Aspekte des KI-Einsatzes in der Suchthilfe zu analysieren und Empfehlungen abzuleiten. Nach einer Überarbeitungsphase, in der das Feedback der Beteiligten berücksichtigt wurde, wurde das Memorandum verabschiedet und veröffentlicht.

 

Die wichtigsten Empfehlungen 

Das Memorandum enthält eine Reihe konkreter Empfehlungen für den Einsatz von KI in der Suchthilfe. Einige der wichtigsten Punkte sind:

  • KI-Systeme sollten stets als unterstützende Werkzeuge verstanden werden, die die Expertise von Fachkräften ergänzen, aber nicht ersetzen.

  • Der Einsatz von KI muss ethisch vertretbar, transparent und nachvollziehbar sein.

  • Datenschutz und Datensicherheit haben oberste Priorität.

  • Klient*innen müssen umfassend über den Einsatz von KI informiert werden und ihre Einwilligung geben.

  • KI-Systeme sollten diskriminierungsfrei sein und keine bestehenden Ungleichheiten verstärken.

  • Die menschliche Interaktion und Beziehungsarbeit darf durch den Einsatz von KI nicht vernachlässigt werden.

  • Es bedarf einer kontinuierlichen Evaluation und Anpassung von KI-Systemen, um ihre Wirksamkeit und ethische Vertretbarkeit sicherzustellen.

Das Potsdamer Memorandum sowie alle Informationen zum Prozess finden Sie hier (Brandenburgische Landesstelle für Suchtfragen e. V., 2024).

 

 

Vor der Einführung ist eine sorgfältige Risikoabwägung nötig. Welche Risiken bestehen durch die KI – etwa für den Datenschutz, die Selbstbestimmung und die Rechte der ratsuchenden Personen? Daraus ergeben sich Schutzmaßnahmen, die regelmäßig überprüft werden sollten.

Eine schriftliche Regelung, die festlegt, wer für Betrieb, Anpassung, Überwachung und Kontrolle der KI-Lösung verantwortlich ist, sorgt für Transparenz und Sicherheit innerhalb der Organisation. Ebenso wichtig sind fortlaufende Schulungen und ein Bewusstsein für potenzielle Gefahren und Schutzmaßnahmen.

Checkliste für den Einsatz von KI in der eigenen Einrichtung:

 

  • Prüfen, ob die Einrichtung als Betreibende*r oder Anbietende*r handelt und welche rechtlichen Pflichten damit verbunden sind.

  • Intern klar und schriftlich regeln, wer für alle KI-bezogenen Aufgaben zuständig ist.

  • Mögliche Risiken durch KI-Anwendungen identifizieren und geeignete Schutzmaßnahmen festlegen.

  • Klient*innen sowie Mitarbeitende darüber informieren, wenn KI zum Einsatz kommt.

  • Datenschutz beachten. Dies ist insbesondere beim Umgang mit sensiblen Gesundheits- und Sozialdaten wichtig.

Exkurs: Datenschutzrechtliche Grundlagen – DSGVO und BDSG

Der Kompass im Umgang mit sensiblen Daten

Warum sind die Datenschutzgrundverordnung (DSGVO) und das Bundesdatenschutzgesetz (BDSG) in diesem Zusammenhang wichtig und wo genau liegt der Bezug zu KI?

Um es auf den Punkt zu bringen: Künstliche Intelligenz ist datengetrieben. Ohne Daten funktioniert KI nicht. Sie lernt aus Daten, verarbeitet Daten und generiert oft neue Inhalte basierend auf Daten. In der ambulanten Suchthilfe sind diese Daten in der Regel personenbezogen und darüber hinaus hochsensibel (Gesundheitsdaten, Informationen über Abhängigkeitserkrankungen, soziale Umstände usw.).

Im sensiblen Bereich der Suchthilfe, sind wir tagtäglich mit hochpersönlichen und schützenswerten Informationen unserer Klient*innen befasst. Der vertrauensvolle Umgang mit diesen Daten bildet das Fundament unserer Arbeit. Deshalb ist es unerlässlich, die datenschutzrechtlichen Rahmenbedingungen zu kennen und einzuhalten. Die wichtigsten Gesetze hierfür sind die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union und das ergänzende Bundesdatenschutzgesetz (BDSG).

Die Datenschutzgrundverordnung (DSGVO) ist das zentrale Regelwerk. Die DSGVO ist seit Mai 2018 in der gesamten Europäischen Union direkt anwendbar und stellt einen großen Schritt im Schutz personenbezogener Daten dar. Sie gilt für jede Art der Verarbeitung von Daten, die eine Person identifizierbar machen – und das sind im Kontext unserer Arbeit nahezu alle Informationen über Klient*innen (Bundesministerium der Justiz, o.J.-a).

Warum ist die DSGVO für die Suchthilfe besonders wichtig?

Besondere Kategorien personenbezogener Daten (Art. 9 DSGVO):

Dazu zählen Informationen über die Gesundheit einer Person, zu der auch Abhängigkeitserkrankungen zählen, sowie Daten, die Rückschlüsse auf die ethnische Herkunft, religiöse Überzeugungen oder sexuelle Orientierung zulassen. Der Umgang mit diesen Daten ist grundsätzlich verboten, es sei denn, es liegt eine ausdrückliche Ausnahme vor. Für uns in der Suchthilfe sind die relevantesten Ausnahmen:

Ausdrückliche Einwilligung der betroffenen Person: Dies ist die wichtigste Rechtsgrundlage in unserem Bereich. Jede Verarbeitung sensibler Gesundheitsdaten (z. B. für Therapie, Diagnostik, Dokumentation oder den Einsatz neuer KI-Tools) erfordert eine freiwillige, informierte, spezifische und unmissverständliche Einwilligung der Klient*innen. Diese Einwilligung muss in Schriftform oder auf andere nachweisbare Weise erfolgen und kann jederzeit widerrufen werden.

Notwendigkeit für die Gesundheitsvorsorge oder Behandlung: Daten können auch ohne explizite Einwilligung verarbeitet werden, wenn dies für die medizinische Diagnose, die Erbringung von Gesundheitsleistungen oder die Verwaltung von Systemen und Diensten im Gesundheitsbereich unbedingt erforderlich ist und die Verarbeitung durch Fachpersonal unter Einhaltung der Berufsgeheimnisse erfolgt. Hier greift die Schweigepflicht als zusätzliche Absicherung.

Praxisbeispiel

Stellen Sie sich vor, eine Klientin wird in einer Suchthilfeeinrichtung behandelt. Neben psychosozialen Gesprächen sieht der Behandlungsplan auch eine medikamentöse Unterstützung sowie eine sozialrechtliche Beratung vor. Die Klientin hat eine umfassende Einwilligung zur Behandlung in der Einrichtung erteilt. Für die Koordination der verschiedenen Fachkräfte im Team ist es unerlässlich, dass alle Zugang zu den relevanten Informationen in der Akte der Klientin haben, um den Behandlungsverlauf abzustimmen, die Medikation anzupassen oder Krisen gemeinsam zu managen. Für jeden einzelnen Informationsaustausch oder jede interne Dokumentation ist keine erneute Einwilligung nötig. Die Verarbeitung der Gesundheitsdaten ist hier unabdingbar für die Erbringung der Gesundheitsleistung und die Verwaltung des Behandlungssystems. Alle beteiligten Fachkräfte unterliegen dabei der gesetzlichen Schweigepflicht.

Grundprinzipien der Datenverarbeitung:

  • Rechtmäßigkeit, Fairness und Transparenz: Die Datenverarbeitung muss stets auf einer Rechtsgrundlage (z. B. Einwilligung) basieren. Klient*innen müssen klar und verständlich darüber informiert werden, was mit ihren Daten geschieht.

  • Zweckbindung: Daten dürfen nur für den spezifischen Zweck, für den sie erhoben wurden, verwendet werden und später nicht für andere, damit unvereinbare Zwecke. Wenn eine KI eingeführt wird, muss der Zweck der Datenverarbeitung durch die KI klar definiert und mit der Einwilligung abgestimmt sein.

  • Datenminimierung: Es dürfen nur so viele Daten erhoben und verarbeitet werden, wie für den jeweiligen Zweck unbedingt erforderlich sind.

  • Speicherbegrenzung: Daten dürfen nur so lange gespeichert werden, wie es für den Zweck erforderlich ist.

  • Integrität und Vertraulichkeit: Daten müssen durch geeignete technische und organisatorische Maßnahmen vor unbefugtem Zugriff, Verlust oder Zerstörung geschützt werden (z. B. Verschlüsselung, Zugangsbeschränkungen) (Bundesministerium der Justiz, o.J.-a).

Rechte der betroffenen Personen:

Klient*innen haben umfassende Rechte bezüglich ihrer Daten, darunter das Recht auf Auskunft, Berichtigung, Löschung („Recht auf Vergessenwerden“), Einschränkung der Verarbeitung, Datenübertragbarkeit und Widerspruch gegen die Verarbeitung (Bundesministerium der Justiz, o.J.-a).

Datenschutz-Folgeabschätzung (DSFA):

Bei der Einführung neuer Technologien wie KI, die ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen bergen – was bei der Verarbeitung sensibler Gesundheitsdaten durch KI-Systeme regelmäßig der Fall ist –, ist eine Datenschutz-Folgenabschätzung (DSFA) zwingend erforderlich (Art. 35 DSGVO). Dabei werden potenzielle Risiken bewertet und Maßnahmen zu deren Minderung geplant (Bundesministerium der Justiz, o.J.-a).

 

Das Bundesdatenschutzgesetz (BDSG) – die nationale Ergänzung

Das BDSG konkretisiert und ergänzt die Regelungen der Datenschutzgrundverordnung (DSGVO) für Deutschland. Es enthält spezifische Bestimmungen, die den Rahmen der DSGVO national ausgestalten. Für den Bereich der Suchthilfe sind hier insbesondere die Regelungen zur Bestellung eines betrieblichen Datenschutzbeauftragten relevant, der Sie bei der Einhaltung der Datenschutzvorschriften berät und unterstützt. Das BDSG kann auch spezielle Regelungen zur Datenverarbeitung in bestimmten Kontexten, wie dem Arbeitsverhältnis, enthalten. (Bundesministerium der Justiz, o.J.-b).

Ihre Rolle und Verantwortung in der Praxis

Der Einsatz von KI-Tools in der Suchthilfe erfordert eine besonders sorgfältige Prüfung der datenschutzrechtlichen Aspekte. Bevor Sie neue digitale Lösungen implementieren, die Klient*innendaten verarbeiten, sollten Sie unbedingt Ihren Datenschutzbeauftragten konsultieren. Stellen Sie sicher, dass Sie die ausdrückliche und informierte Einwilligung der Klient*innen für die vorgesehene Datenverarbeitung vorliegen haben, die Sicherheit der Daten gewährleisten und sich über die Speicherorte und den Zugriff auf die Daten informieren.

Des Weiteren müssen Sie Klient*innen transparent über den Einsatz von KI-Systemen und den Umgang mit ihren Daten aufklären (Bundesministerium der Justiz, o.J.-a   & Bundesministerium der Justiz, o.J.-c).

Literaturangaben

artificialintelligenceact.eu. (o.J.). EU-Gesetz zur künstlichen Intelligenz: Aktuelle Entwicklungen und Analysen zum EU-KI-Gesetz

Brandenburgische Landesstelle für Suchtfragen e. V. (2024). Potsdamer Memorandum: Chancen und Herausforderungen von Künstlicher Intelligenz in der Suchthilfe [Positionspapier]. 

Bundesministerium der Justiz. (o.J.-a). Datenschutz-Grundverordnung (DSGVO). 

Bundesministerium der Justiz. (o.J.-b). Bundesdatenschutzgesetz (BDSG).

Bundesministerium der Justiz. (o.J.-c). Bundesdatenschutzgesetz (BDSG) – nichtamtliches Inhaltsverzeichnis. 

Europäische Kommission. (o.J.). KI-Gesetz: Gestaltung der digitalen Zukunft Europas