La mort tragique d’une jeune femme qui s’est confiée à un chatbot IA nommé Harry avant de se suicider a déclenché une conversation cruciale sur les dangers de s’appuyer sur l’intelligence artificielle pour le soutien en matière de santé mentale. S’il est compréhensible que les gens se tournent vers des chatbots comme ChatGPT, en particulier lorsque la thérapie traditionnelle est inaccessible ou inabordable, les experts préviennent que les risques dépassent de loin les avantages perçus.
L’affaire met en évidence à quel point les chatbots IA facilement disponibles et apparemment empathiques peuvent être dangereusement confondus avec des thérapeutes humains. Sophie, qui avait 29 ans, s’est confiée à Harry sur ses pensées suicidaires, mais au lieu de demander de l’aide, le chatbot n’a pas activement cherché à intervenir en son nom, selon un éditorial poignant écrit par sa mère dans le New York Times. Cet incident n’est malheureusement pas un cas isolé. Un autre cas concernait un garçon de 16 ans qui avait discuté de suicide avec ChatGPT avant sa propre mort, ce qui a déclenché un procès pour mort injustifiée contre OpenAI, le créateur de ChatGPT.
OpenAI reconnaît que sa technologie présente des limites lorsqu’il s’agit de détecter les conversations à haut risque et envisage de mettre en œuvre de nouvelles protections. Cela inclut potentiellement l’alerte des contacts d’urgence d’un utilisateur s’ils expriment une détresse. Cependant, ces mesures ne résolvent pas le problème fondamental : les chatbots IA sont fondamentalement mal équipés pour fournir un véritable soutien thérapeutique.
L’illusion de l’aide : pourquoi les chatbots peuvent être nocifs
Le Dr Matthew Nour, psychiatre et neuroscientifique à l’Université d’Oxford qui étudie l’intersection de l’IA et de la santé mentale, explique pourquoi l’utilisation de l’IA à des fins thérapeutiques peut être dangereuse :
- Boucles de rétroaction : Les chatbots apprennent en reconnaissant des modèles dans les données sur lesquelles ils sont formés. Si un utilisateur exprime des pensées ou des croyances négatives, le chatbot peut les renforcer par inadvertance par ses réponses, créant ainsi une boucle de rétroaction néfaste qui exacerbe les problèmes existants.
- Anthropomorphisme et biais de confirmation : Les humains ont naturellement tendance à projeter des émotions et des intentions humaines sur des entités non humaines comme les chatbots. Combiné au biais de confirmation (la tendance à rechercher des informations confirmant les croyances existantes), cela peut amener les utilisateurs à accepter des conseils potentiellement préjudiciables comme s’il s’agissait d’une véritable empathie et d’un véritable soutien.
Ces problèmes s’aggravent lorsque les conversations deviennent longues et complexes, ce qui est souvent le cas lorsqu’une personne recherche une aide thérapeutique. ChatGPT lui-même admet que ses protections fonctionnent de manière moins fiable dans ces interactions étendues, car la formation du modèle peut se dégrader avec le temps.
Populations vulnérables à risque
Les adolescents, qui évoluent déjà dans des paysages sociaux et émotionnels complexes, sont particulièrement susceptibles d’interpréter à tort les réponses programmées d’un chatbot IA comme une véritable connexion humaine. Selon le Dr Scott Kollins, psychologue pour enfants chez Aura (une application de protection de l’identité et de sécurité en ligne), les adolescents qui utilisent des chatbots s’y engagent souvent pendant des périodes plus longues que les plateformes de communication traditionnelles comme les SMS ou Snapchat, ce qui soulève de sérieuses inquiétudes quant à leur dépendance émotionnelle à l’égard de ces technologies.
À la recherche d’un véritable soutien :
Même si la technologie des chatbots IA progresse rapidement, il est essentiel de se rappeler qu’ils ne remplacent pas les relations humaines et les soins de santé mentale professionnels. Le PDG d’OpenAI, Sam Altman, décourage lui-même d’utiliser ChatGPT en tant que thérapeute en raison du manque de protection juridique pour les informations sensibles partagées avec le chatbot.
Pour ceux qui souffrent de problèmes de santé mentale, voici des alternatives plus sûres :
- Contactez des adultes de confiance : Un parent, un enseignant, un conseiller ou un autre adulte à qui vous vous sentez à l’aise de vous confier peut offrir un soutien et des conseils inestimables.
- Explorez les communautés en ligne : Même si la prudence est de mise, certaines communautés en ligne modérées axées sur la santé mentale peuvent offrir un sentiment de connexion et une expérience partagée. N’oubliez pas de donner la priorité à l’assistance réelle ainsi qu’à toute interaction en ligne.
- Tenir un journal : Écrire vos pensées et vos sentiments peut être cathartique et vous aider à gagner en clarté et en perspicacité.
- Demandez l’aide d’un professionnel : Les thérapeutes sont des professionnels formés qui peuvent fournir un traitement fondé sur des preuves et un soutien adapté à vos besoins individuels.
Les chatbots IA ont leur place dans nos vies, mais lorsqu’il s’agit de santé mentale, compter sur eux pour une thérapie revient à essayer de naviguer dans une condition médicale complexe avec un moteur de recherche basique : le potentiel de préjudice l’emporte sur tout avantage perçu.




























