La FTC investiga los riesgos de seguridad infantil de los chatbots de IA

8

La Comisión Federal de Comercio (FTC) está iniciando una investigación exhaustiva sobre los peligros potenciales que los chatbots de IA representan para los niños. En una medida reciente que indica una creciente preocupación por estas tecnologías en rápida evolución, la agencia ha exigido información detallada a siete importantes empresas de tecnología sobre las medidas de seguridad de sus chatbots.

Esto incluye Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap y xAI. Notablemente ausente de esta lista está Anthropic, creador del chatbot Claude, aunque la FTC se negó a dar más detalles sobre por qué empresas específicas fueron o no incluidas en esta ronda inicial de investigaciones. La agencia tiene como objetivo comprender cómo estas empresas abordan los riesgos únicos que sus chatbots presentan para los usuarios jóvenes.

Específicamente, la FTC está interesada en tres áreas clave:

  • Evaluación de la seguridad: ¿Hasta qué punto han evaluado las empresas el daño potencial que sus chatbots podrían infligir a los niños cuando actúan como compañeros o figuras interactivas?
  • Limitar el acceso y el impacto: ¿Qué medidas se están tomando para restringir el acceso de menores a estos chatbots y mitigar cualquier impacto negativo que puedan tener en niños y adolescentes?
  • Transparencia para usuarios y padres: ¿Están los usuarios, en particular los padres, adecuadamente informados sobre los riesgos potenciales asociados con las interacciones del chatbot de IA?

Este escrutinio se produce mientras los gobiernos de todo el mundo luchan por regular el floreciente campo de la inteligencia artificial. La investigación de la FTC se centra particularmente en el cumplimiento de la Ley de Protección de la Privacidad Infantil en Línea (COPPA), una ley promulgada en 1998 que rige cómo los servicios en línea recopilan y utilizan datos de niños menores de 13 años.

La presión para una mayor rendición de cuentas surge en parte de casos legales de alto perfil como el contra OpenAI, la compañía detrás de ChatGPT. La familia de un adolescente de California que se suicidó está demandando a OpenAI, alegando que su chatbot exacerbó los problemas de salud mental preexistentes del adolescente al proporcionar respuestas aparentemente alentadoras a pensamientos perturbadores y autodestructivos. Este trágico caso ha llevado a OpenAI a implementar salvaguardias y controles parentales adicionales para los usuarios más jóvenes.

Este mayor escrutinio indica una creciente conciencia de los complejos desafíos éticos y de seguridad que plantean los chatbots de IA, particularmente cuando se trata de su posible influencia en audiencias jóvenes vulnerables.