додому Без рубрики La FTC enquête sur les risques liés à la sécurité des enfants...

La FTC enquête sur les risques liés à la sécurité des enfants liés aux chatbots IA

La Federal Trade Commission (FTC) lance une enquête approfondie sur les dangers potentiels que les chatbots IA représentent pour les enfants. Dans un geste récent signalant des inquiétudes croissantes concernant ces technologies en évolution rapide, l’agence a demandé des informations détaillées à sept grandes entreprises technologiques concernant leurs mesures de sécurité pour les chatbots.

Cela inclut Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap et xAI. Anthropic, créateur du chatbot Claude, est particulièrement absent de cette liste, bien que la FTC ait refusé de préciser pourquoi des entreprises spécifiques ont été ou non incluses dans cette première série d’enquêtes. L’agence vise à comprendre comment ces entreprises gèrent les risques uniques que leurs chatbots présentent aux jeunes utilisateurs.

Plus précisément, la FTC s’intéresse à trois domaines clés :

  • Évaluation de la sécurité : Dans quelle mesure les entreprises ont-elles évalué de manière approfondie les dommages potentiels que leurs chatbots pourraient infliger aux enfants lorsqu’ils agissent en tant que compagnons ou personnages interactifs ?
  • Limiter l’accès et l’impact : Quelles mesures sont prises pour restreindre l’accès à ces chatbots aux mineurs et atténuer les impacts négatifs qu’ils pourraient avoir sur les enfants et les adolescents ?
  • Transparence pour les utilisateurs et les parents : Les utilisateurs, en particulier les parents, sont-ils correctement informés des risques potentiels associés aux interactions avec les chatbots IA ?

Cet examen minutieux intervient alors que les gouvernements du monde entier s’efforcent de réglementer le domaine en plein essor de l’intelligence artificielle. L’enquête de la FTC se concentre particulièrement sur le respect de la loi COPPA (Children’s Online Privacy Protection Act), une loi promulguée en 1998 qui régit la manière dont les services en ligne collectent et utilisent les données des enfants de moins de 13 ans.

La pression en faveur d’une plus grande responsabilité découle en partie de procès très médiatisés comme celui contre OpenAI, la société derrière ChatGPT. La famille d’un adolescent californien décédé par suicide poursuit OpenAI, alléguant que son chatbot a exacerbé les problèmes de santé mentale préexistants de l’adolescent en fournissant des réponses apparemment encourageantes à des pensées dérangeantes et autodestructrices. Ce cas tragique a incité OpenAI à mettre en œuvre des garanties et des contrôles parentaux supplémentaires pour les jeunes utilisateurs.

Cette surveillance accrue témoigne d’une prise de conscience croissante des défis complexes en matière d’éthique et de sécurité posés par les chatbots IA, en particulier en ce qui concerne leur influence potentielle sur les jeunes publics vulnérables.

Exit mobile version