OpenAI forma un consejo de bienestar mental en medio de crecientes preocupaciones sobre el impacto de la IA

15

OpenAI, la compañía detrás del popular chatbot ChatGPT, ha dado un paso para abordar las crecientes preocupaciones sobre la influencia de la inteligencia artificial en la salud mental al establecer un consejo de expertos centrado en el bienestar de los usuarios y la seguridad de la IA. Este grupo de ocho miembros tendrá la tarea de definir estándares para interacciones saludables con la IA en varios grupos de edad.

El anuncio llegó junto con una controvertida declaración del director ejecutivo de OpenAI, Sam Altman, en X (anteriormente Twitter). Si bien afirmó que la compañía había mitigado con éxito “problemas graves de salud mental” derivados de sus productos, Altman también reveló que ChatGPT pronto permitiría más contenido para adultos, incluido material sexualmente explícito en las conversaciones. Esta medida llega en un momento precario para OpenAI, ya que enfrenta su primera demanda por muerte por negligencia alegando que ChatGPT contribuyó al suicidio de un adolescente.

El nuevo consejo de OpenAI está compuesto por académicos de instituciones prestigiosas como el Digital Wellness Lab del Boston Children’s Hospital y la Digital Mental Health Clinic de Stanford. A ellos se unen especialistas en psicología, psiquiatría e interacción persona-computadora. La compañía enfatiza su compromiso con el desarrollo responsable, afirmando que “siguen siendo responsables de las decisiones que tomamos, pero [continuarán] aprendiendo de este consejo… a medida que construimos sistemas avanzados de IA de manera que apoyen el bienestar de las personas”.

A pesar de este paso proactivo, la confianza del público en el papel de la IA en la salud mental sigue siendo baja. Una encuesta reciente de YouGov realizada a 1.500 estadounidenses encontró que solo el 11% estaba abierto al uso de la IA para el bienestar mental, y solo el 8% expresó confianza en su seguridad y eficacia. Este escepticismo refleja ansiedades más amplias dentro del campo de la salud mental.

Los expertos han expresado serias preocupaciones sobre los posibles peligros de los compañeros de IA generativa, incluida la aparición de “psicosis de IA” entre los usuarios frecuentes de interacciones con chatbots. A pesar de esta falta de evidencia concluyente sobre los beneficios de la IA para la salud mental, un número creciente de estadounidenses está recurriendo a la IA en busca de respuestas y apoyo, alimentando un debate sobre sus implicaciones éticas.

Los reguladores federales ahora están examinando el impacto de la IA generativa, en particular los chatbots comercializados como herramientas terapéuticas, en medio de un aumento de las crisis de salud mental, especialmente entre los adolescentes. Varios estados han implementado prohibiciones sobre los chatbots impulsados ​​por inteligencia artificial que se anuncian con fines terapéuticos. California ha adoptado una postura particularmente proactiva al promulgar una legislación que exige que las empresas de inteligencia artificial informen sobre problemas de seguridad, protejan a los usuarios adolescentes de contenido sexual explícito y establezcan mecanismos para abordar las ideas suicidas y las autolesiones.

La formación del consejo de OpenAI pone de relieve la creciente presión sobre los desarrolladores de IA para que aborden los profundos impactos sociales de su tecnología, particularmente en áreas sensibles como la salud mental. Queda por ver si estos esfuerzos aliviarán las preocupaciones del público y generarán confianza en la IA como una herramienta responsable para abordar necesidades humanas complejas.