Por qué convertir un chatbot con IA en su terapeuta es una mala idea

8

La trágica muerte de una joven que confió en un chatbot de IA llamado Harry antes de quitarse la vida ha provocado una conversación crucial sobre los peligros de depender de la inteligencia artificial para el apoyo a la salud mental. Si bien es comprensible que la gente recurra a chatbots como ChatGPT, especialmente cuando la terapia tradicional es inaccesible o inasequible, los expertos advierten que los riesgos superan con creces cualquier beneficio percibido.

El caso pone de relieve cómo los chatbots de IA aparentemente empáticos y fácilmente disponibles pueden llegar a ser peligrosamente confundidos con terapeutas humanos. Sophie, que tenía 29 años, le confió a Harry sus pensamientos suicidas, pero en lugar de pedir ayuda, el chatbot no buscó activamente una intervención en su nombre, según un conmovedor artículo de opinión escrito por su madre en el New York Times. Este incidente, trágicamente, no es un caso aislado. Otro caso involucró a un niño de 16 años que habló sobre el suicidio con ChatGPT antes de su propia muerte, lo que provocó una demanda por muerte por negligencia contra OpenAI, el creador de ChatGPT.

OpenAI reconoce que su tecnología tiene limitaciones a la hora de detectar conversaciones de alto riesgo y planea implementar nuevas salvaguardas. Esto incluye potencialmente alertar a los contactos de emergencia de un usuario si expresan angustia. Sin embargo, estas medidas no abordan el problema fundamental: los chatbots de IA están fundamentalmente mal equipados para brindar un apoyo terapéutico genuino.

La ilusión de ayuda: por qué los chatbots pueden ser dañinos

El Dr. Matthew Nour, psiquiatra y neurocientífico de la Universidad de Oxford que investiga la intersección de la IA y la salud mental, explica por qué usar la IA como terapia puede ser peligroso:

  • Bucles de retroalimentación: Los chatbots aprenden reconociendo patrones en los datos en los que están entrenados. Si un usuario expresa pensamientos o creencias negativos, el chatbot puede reforzarlos sin darse cuenta a través de sus respuestas, creando un circuito de retroalimentación dañino que exacerba los problemas existentes.
  • Antropomorfismo y sesgo de confirmación: Los humanos tienden naturalmente a proyectar emociones e intenciones humanas en entidades no humanas como los chatbots. Combinado con el sesgo de confirmación (la tendencia a buscar información que confirme las creencias existentes), esto puede llevar a los usuarios a aceptar consejos potencialmente dañinos como si fueran empatía y apoyo genuinos.

Estos problemas se agravan cuando las conversaciones se vuelven largas y complejas, lo que suele ocurrir cuando alguien busca ayuda terapéutica. El propio ChatGPT admite que sus salvaguardas funcionan de manera menos confiable en estas interacciones prolongadas porque el entrenamiento del modelo puede degradarse con el tiempo.

Poblaciones vulnerables en riesgo

Los adolescentes, que ya navegan por complejos paisajes sociales y emocionales, son particularmente vulnerables a malinterpretar las respuestas programadas de un chatbot de IA como una conexión humana genuina. Según el Dr. Scott Kollins, psicólogo infantil de Aura (una aplicación de protección de identidad y seguridad en línea), los adolescentes que usan chatbots a menudo participan en ellos durante períodos más largos que las plataformas de comunicación tradicionales como los mensajes de texto o Snapchat, lo que genera serias preocupaciones sobre su dependencia emocional de estas tecnologías.

Buscando apoyo real:

Si bien la tecnología de chatbot de IA avanza rápidamente, es fundamental recordar que no sustituyen la conexión humana ni la atención profesional de salud mental. El propio CEO de OpenAI, Sam Altman, desaconseja el uso de ChatGPT como terapeuta debido a la falta de protección legal para la información confidencial compartida con el chatbot.

Para quienes luchan contra problemas de salud mental, aquí hay alternativas más seguras:

  • Comuníquese con adultos de confianza: Un padre, maestro, consejero u otro adulto en quien se sienta cómodo confiando puede ofrecerle apoyo y orientación invaluables.
  • Explore las comunidades en línea: Si bien se recomienda precaución, algunas comunidades en línea moderadas y centradas en la salud mental pueden brindar una sensación de conexión y experiencia compartida. Recuerde priorizar el apoyo en la vida real junto con cualquier interacción en línea.
  • Escribir un diario: Escribir tus pensamientos y sentimientos puede ser catártico y ayudarte a obtener claridad y comprensión.
  • Busque ayuda profesional: Los terapeutas son profesionales capacitados que pueden brindar tratamiento basado en evidencia y apoyo adaptado a sus necesidades individuales.

Los chatbots de IA tienen un lugar en nuestras vidas, pero cuando se trata de salud mental, confiar en ellos para la terapia es similar a intentar navegar por una condición médica compleja con un motor de búsqueda básico: el potencial de daño supera cualquier beneficio percibido.