Character.AI ha prohibido las conversaciones abiertas entre adolescentes y sus chatbots de IA, y en su lugar ha introducido una nueva característica: historias interactivas guiadas. Este cambio se produce en medio de crecientes preocupaciones sobre interacciones dañinas de IA y presiones legales de padres cuyos hijos se han visto afectados negativamente por chats de IA no supervisados.
¿Por qué el cambio?
La plataforma, conocida por sus bots de “personajes” personalizables, anteriormente permitía una comunicación sin restricciones. Sin embargo, esto llevó a situaciones peligrosas. Varias demandas este año alegan que adolescentes se suicidaron después de discutir la autolesión con modelos de IA, incluidos casos contra OpenAI (el creador de ChatGPT). Desde entonces, OpenAI ha aumentado las medidas de seguridad, pero Character.AI dio un paso más drástico.
“El cambio hacia juegos de rol y vídeos más cuidadosamente diseñados proporcionará a los adolescentes una mejor experiencia que las conversaciones”, afirmó el director ejecutivo Karandeep Anand.
Cómo funciona el nuevo sistema
Los usuarios menores de 18 ahora sólo pueden interactuar a través de escenarios predefinidos. Seleccionan un personaje, un género y luego guían a la IA a través de una historia. Esto es similar al libro “Elige tu propia aventura”, donde la IA responde basándose en las entradas del usuario dentro de límites controlados.
La publicación del blog de la plataforma explica que este cambio respalda “tipos de creatividad más allá del chat abierto”, enmarcando la función como entretenimiento y una alternativa más segura. Las historias se pueden reproducir y compartir, lo que incentiva aún más el nuevo método de interacción.
El panorama más amplio
Este cambio pone de relieve un debate crítico sobre la seguridad de la IA y la protección infantil. Si bien la IA ofrece potencial educativo y de entretenimiento, el acceso no controlado puede ser catastrófico. La decisión de Character.AI sienta un precedente: restringir la interacción no supervisada ahora se considera necesario para mitigar los riesgos legales y éticos.
El futuro de la interacción de la IA entre los adolescentes probablemente seguirá este modelo. Las plataformas priorizarán las experiencias estructuradas y guiadas sobre los chats abiertos, asegurando un mayor control sobre el contenido y reduciendo la posibilidad de resultados dañinos.



























