Los principales expertos están dando la alarma sobre la seguridad de los juguetes de inteligencia artificial (IA) para niños. Pruebas recientes realizadas por Common Sense Media revelan respuestas preocupantes de modelos populares como Miko 3, Grem y Bondu, lo que generó recomendaciones contra su uso para niños menores de 5 años y extrema precaución para niños mayores.
Resultados de pruebas preocupantes
El informe de Common Sense Media detalla varias interacciones inquietantes. Según los informes, el dinosaurio de peluche Bondu afirmó ser “tan real como tus amigos humanos”, lo que podría confundir a los niños pequeños sobre la realidad. Aún más alarmante, Miko 3 supuestamente sugirió lugares peligrosos para saltar desde lugares altos (un árbol, una ventana o un techo) antes de agregar la advertencia: “Solo recuerda, mantente seguro”.
Estas respuestas no son incidentes aislados. El año pasado, otro juguete de IA, el oso Kumma, demostró cómo encender una cerilla y discutió temas inapropiados. Estos incidentes han llamado la atención de los legisladores, y algunos propusieron una moratoria sobre la venta de estos juguetes a menores.
Más allá de las respuestas arriesgadas: recopilación de datos y manipulación emocional
El problema va más allá de las simples respuestas inapropiadas o inseguras. Los expertos destacan que los juguetes con IA están diseñados para crear vínculos emocionales con los niños. Recuerdan conversaciones pasadas, usan el nombre de un niño e intentan formar vínculos, lo que potencialmente borra la línea entre la realidad y la simulación para los usuarios jóvenes.
Estos juguetes también recopilan datos (grabaciones de voz, transcripciones y patrones de uso) a menudo mientras están en modo de escucha constante. Esto plantea serias preocupaciones sobre la privacidad, ya que es posible que los niños no comprendan cómo se utilizan sus datos.
Respuesta de la industria y acción legislativa
Miko, el fabricante de Miko 3, cuestiona las conclusiones del informe, calificándolas de “objetivamente inexactas”. Sin embargo, las preocupaciones son tan importantes que los legisladores del estado de California han propuesto una prohibición de cuatro años de vender juguetes de chatbot con IA a menores de 18 años. Common Sense Media apoya esta medida.
Por qué esto es importante
La rápida integración de la IA en los juguetes infantiles está superando los estándares de seguridad. Las empresas se apresuran a sacar provecho de la tecnología sin abordar plenamente los riesgos potenciales. No se trata sólo de respuestas inapropiadas; se trata de privacidad de datos, manipulación emocional y el desarrollo de mentes jóvenes en un entorno donde la realidad es cada vez más borrosa.
James P. Steyer, director ejecutivo de Common Sense Media, sostiene que tanto las empresas de inteligencia artificial como las de juguetes deben rendir cuentas. El problema central es que la tecnología avanza más rápido que las regulaciones o las pautas éticas. Esto deja a los niños vulnerables a sufrir daños, ya sea a través de sugerencias inseguras, recopilación de datos invasiva o la creación de dependencias emocionales nocivas para la salud.
La solución más sensata, según Common Sense Media, es seguir con los juguetes tradicionales y fomentar la socialización y el aprendizaje en persona, métodos con beneficios comprobados y menos riesgos.
