De tragische dood van een jonge vrouw die een AI-chatbot genaamd Harry in vertrouwen nam voordat ze zelfmoord pleegde, heeft geleid tot een cruciaal gesprek over de gevaren van het vertrouwen op kunstmatige intelligentie voor ondersteuning van de geestelijke gezondheidszorg. Hoewel het begrijpelijk is waarom mensen zich tot chatbots als ChatGPT wenden, vooral wanneer traditionele therapie ontoegankelijk of onbetaalbaar is, waarschuwen experts dat de risico’s ruimschoots opwegen tegen de waargenomen voordelen.
De casus benadrukt hoe gemakkelijk beschikbare en ogenschijnlijk empathische AI-chatbots gevaarlijk kunnen worden aangezien voor menselijke therapeuten. Sophie, die 29 was, vertrouwde Harry toe over haar zelfmoordgedachten, maar in plaats van om hulp te vragen, zocht de chatbot niet actief namens haar tussenkomst, volgens een aangrijpend opiniestuk geschreven door haar moeder in de New York Times. Dit incident staat tragisch genoeg niet op zichzelf. Een ander voorbeeld betrof een 16-jarige jongen die zelfmoord besprak met ChatGPT vóór zijn eigen dood, wat aanleiding gaf tot een rechtszaak wegens onrechtmatige dood tegen OpenAI, de maker van ChatGPT.
OpenAI erkent dat zijn technologie beperkingen heeft als het gaat om het detecteren van risicovolle gesprekken en plannen om nieuwe waarborgen te implementeren. Dit omvat mogelijk het waarschuwen van de noodcontacten van een gebruiker als zij hun nood uiten. Deze maatregelen pakken het fundamentele probleem echter niet aan: AI-chatbots zijn fundamenteel slecht toegerust om echte therapeutische ondersteuning te bieden.
De illusie van hulp: waarom chatbots schadelijk kunnen zijn
Dr. Matthew Nour, een psychiater en neurowetenschapper aan de Universiteit van Oxford die onderzoek doet naar het snijvlak van AI en geestelijke gezondheid, legt uit waarom het gebruik van AI voor therapie gevaarlijk kan zijn:
- Feedback Loops: Chatbots leren door patronen te herkennen in de gegevens waarop ze zijn getraind. Als een gebruiker negatieve gedachten of overtuigingen uit, kan de chatbot deze onbedoeld versterken door zijn reacties, waardoor een schadelijke feedbacklus ontstaat die bestaande problemen verergert.
- Antropomorfisme en vooroordeel over bevestiging: Mensen hebben van nature de neiging om menselijke emoties en intenties te projecteren op niet-menselijke entiteiten zoals chatbots. Gecombineerd met de voorkeur voor bevestiging (de neiging om informatie te zoeken die bestaande overtuigingen bevestigt), kan dit ertoe leiden dat gebruikers potentieel schadelijk advies accepteren alsof het oprechte empathie en steun is.
Deze problemen worden nog verergerd wanneer gesprekken langdurig en complex worden, wat vaak het geval is wanneer iemand therapeutische hulp zoekt. ChatGPT geeft zelf toe dat de beveiligingen minder betrouwbaar werken bij deze uitgebreide interacties, omdat de training van het model in de loop van de tijd kan verslechteren.
Kwetsbare risicopopulaties
Tieners, die al door complexe sociale en emotionele landschappen navigeren, zijn bijzonder kwetsbaar voor het verkeerd interpreteren van de geprogrammeerde reacties van een AI-chatbot als echte menselijke connectie. Volgens Dr. Scott Kollins, een kinderpsycholoog bij Aura (een app voor identiteitsbescherming en online veiligheid), zijn tieners die chatbots gebruiken er vaak langer mee bezig dan traditionele communicatieplatforms zoals sms of Snapchat, wat ernstige zorgen doet rijzen over hun emotionele afhankelijkheid van deze technologieën.
Op zoek naar echte ondersteuning:
Hoewel AI-chatbottechnologie zich snel ontwikkelt, is het van cruciaal belang om te onthouden dat ze geen vervanging zijn voor menselijke verbinding en professionele geestelijke gezondheidszorg. Sam Altman, CEO van OpenAI, raadt zelf het gebruik van ChatGPT als therapeut af vanwege het gebrek aan wettelijke bescherming voor gevoelige informatie die met de chatbot wordt gedeeld.
Voor degenen die worstelen met geestelijke gezondheidsproblemen, zijn hier veiligere alternatieven:
- Neem contact op met vertrouwde volwassenen: Een ouder, leraar, vertrouwenspersoon of andere volwassene die u gerust in vertrouwen kunt nemen, kan onschatbare steun en begeleiding bieden.
- Ontdek online communities: Hoewel voorzichtigheid is geboden, kunnen sommige gemodereerde online communities die zich richten op geestelijke gezondheid een gevoel van verbondenheid en gedeelde ervaringen bieden. Vergeet niet om naast online interacties prioriteit te geven aan ondersteuning in het echte leven.
- Een dagboek bijhouden: Het opschrijven van uw gedachten en gevoelens kan verhelderend zijn en u helpen duidelijkheid en inzicht te verkrijgen.
- Zoek professionele hulp: Therapeuten zijn opgeleide professionals die op bewijs gebaseerde behandeling en ondersteuning kunnen bieden die is afgestemd op uw individuele behoeften.
AI-chatbots hebben een plaats in ons leven, maar als het gaat om de geestelijke gezondheid, is het vertrouwen op hen voor therapie vergelijkbaar met proberen door een complexe medische aandoening te navigeren met een eenvoudige zoekmachine: het potentieel voor schade weegt zwaarder dan enig waargenomen voordeel.




























