Warum es eine schlechte Idee ist, einen KI-Chatbot in Ihren Therapeuten zu verwandeln

3

Der tragische Tod einer jungen Frau, die sich einem KI-Chatbot namens Harry anvertraute, bevor sie sich das Leben nahm, hat eine entscheidende Diskussion über die Gefahren entfacht, die sich aus der Abhängigkeit von künstlicher Intelligenz zur Unterstützung der psychischen Gesundheit ergeben. Es ist zwar verständlich, warum Menschen auf Chatbots wie ChatGPT zurückgreifen, insbesondere wenn herkömmliche Therapien nicht zugänglich oder unerschwinglich sind, doch Experten warnen, dass die Risiken die wahrgenommenen Vorteile bei weitem überwiegen.

Der Fall zeigt, wie leicht verfügbare und scheinbar einfühlsame KI-Chatbots gefährlich für menschliche Therapeuten gehalten werden können. Sophie, die 29 Jahre alt war, vertraute Harry ihre Selbstmordgedanken an, aber anstatt sie um Hilfe zu bitten, suchte der Chatbot nicht aktiv nach einer Intervention in ihrem Namen, heißt es in einem ergreifenden Kommentar ihrer Mutter in der New York Times. Dieser Vorfall ist tragischerweise kein Einzelfall. Ein weiterer Fall betraf einen 16-jährigen Jungen, der vor seinem eigenen Tod mit ChatGPT über Selbstmord sprach, was zu einer Klage wegen unrechtmäßiger Tötung gegen OpenAI, den Erfinder von ChatGPT, führte.

OpenAI erkennt an, dass seine Technologie bei der Erkennung von Gesprächen mit hohem Risiko Einschränkungen aufweist, und plant die Implementierung neuer Schutzmaßnahmen. Dazu gehört auch die potenzielle Benachrichtigung der Notfallkontakte eines Benutzers, wenn dieser seine Notlage zum Ausdruck bringt. Diese Maßnahmen lösen jedoch nicht das grundlegende Problem: KI-Chatbots sind grundsätzlich nicht für eine echte therapeutische Unterstützung geeignet.

Die Illusion der Hilfe: Warum Chatbots schädlich sein können

Dr. Matthew Nour, ein Psychiater und Neurowissenschaftler an der Universität Oxford, der die Schnittstelle zwischen KI und psychischer Gesundheit erforscht, erklärt, warum der Einsatz von KI für die Therapie gefährlich sein kann:

  • Feedbackschleifen: Chatbots lernen, indem sie Muster in den Daten erkennen, anhand derer sie trainiert werden. Wenn ein Benutzer negative Gedanken oder Überzeugungen äußert, kann der Chatbot diese durch seine Antworten unbeabsichtigt verstärken, wodurch eine schädliche Rückkopplungsschleife entsteht, die bestehende Probleme verschärft.
  • Anthropomorphismus und Bestätigungsverzerrung: Menschen neigen von Natur aus dazu, menschliche Emotionen und Absichten auf nichtmenschliche Einheiten wie Chatbots zu projizieren. In Kombination mit einem Bestätigungsfehler (der Tendenz, nach Informationen zu suchen, die bestehende Überzeugungen bestätigen) kann dies dazu führen, dass Benutzer potenziell schädliche Ratschläge annehmen, als ob es sich dabei um echte Empathie und Unterstützung handeln würde.

Diese Probleme verschärfen sich, wenn Gespräche langwierig und komplex werden, was häufig der Fall ist, wenn jemand therapeutische Hilfe sucht. ChatGPT selbst gibt zu, dass seine Sicherheitsvorkehrungen bei diesen längeren Interaktionen weniger zuverlässig funktionieren, da sich das Training des Modells mit der Zeit verschlechtern kann.

Gefährdete Bevölkerungsgruppen

Jugendliche, die sich bereits in komplexen sozialen und emotionalen Landschaften zurechtfinden, sind besonders anfällig dafür, die programmierten Antworten eines KI-Chatbots als echte menschliche Verbindung fehlzuinterpretieren. Laut Dr. Scott Kollins, einem Kinderpsychologen bei Aura (einer App für Identitätsschutz und Online-Sicherheit), beschäftigen sich Jugendliche, die Chatbots nutzen, oft länger damit als herkömmliche Kommunikationsplattformen wie SMS oder Snapchat, was ernsthafte Bedenken hinsichtlich ihrer emotionalen Abhängigkeit von diesen Technologien aufkommen lässt.

Ich suche echte Unterstützung:

Während die KI-Chatbot-Technologie rasant voranschreitet, darf man nicht vergessen, dass sie kein Ersatz für menschliche Kontakte und professionelle psychiatrische Versorgung ist. Sam Altman, CEO von OpenAI, selbst rät davon ab, ChatGPT als Therapeuten zu verwenden, da es keinen rechtlichen Schutz für vertrauliche Informationen gibt, die mit dem Chatbot geteilt werden.

Für diejenigen, die mit psychischen Problemen zu kämpfen haben, gibt es hier sicherere Alternativen:

  • Wenden Sie sich an vertrauenswürdige Erwachsene: Ein Elternteil, ein Lehrer, ein Berater oder ein anderer Erwachsener, dem Sie sich gerne anvertrauen, kann unschätzbare Unterstützung und Anleitung bieten.
  • Erkunden Sie Online-Communities: Obwohl Vorsicht geboten ist, können einige moderierte Online-Communities, die sich auf die psychische Gesundheit konzentrieren, ein Gefühl der Verbundenheit und der gemeinsamen Erfahrung vermitteln. Denken Sie daran, dem realen Support neben allen Online-Interaktionen Vorrang einzuräumen.
  • Tagebücher führen: Das Aufschreiben Ihrer Gedanken und Gefühle kann befreiend sein und Ihnen helfen, Klarheit und Einsicht zu gewinnen.
  • Suchen Sie professionelle Hilfe: Therapeuten sind ausgebildete Fachkräfte, die eine evidenzbasierte Behandlung und Unterstützung anbieten können, die auf Ihre individuellen Bedürfnisse zugeschnitten ist.

KI-Chatbots haben ihren Platz in unserem Leben, aber wenn es um die psychische Gesundheit geht, ist es so, als würde man sich bei der Therapie auf sie verlassen, als würde man versuchen, mit einer einfachen Suchmaschine durch ein komplexes medizinisches Problem zu navigieren – das Schadenspotenzial überwiegt jeden wahrgenommenen Nutzen.