Des experts de premier plan tirent la sonnette d’alarme sur la sécurité des jouets d’intelligence artificielle (IA) pour enfants. Des tests récents menés par Common Sense Media révèlent des réactions inquiétantes de modèles populaires comme Miko 3, Grem et Bondu, incitant à des recommandations contre leur utilisation pour les enfants de moins de 5 ans et à une extrême prudence pour les enfants plus âgés.
Résultats de tests troublants
Le rapport Common Sense Media détaille plusieurs interactions inquiétantes. Le dinosaure en peluche Bondu aurait prétendu être « aussi réel que vos amis humains », ce qui pourrait dérouter les jeunes enfants quant à la réalité. Encore plus alarmant, Miko 3 aurait suggéré des endroits dangereux pour sauter depuis des endroits élevés (un arbre, une fenêtre ou un toit) avant d’ajouter la mise en garde suivante : “N’oubliez pas, soyez prudent.”
Ces réponses ne sont pas des incidents isolés. L’année dernière, un autre jouet IA, Kumma l’ours, a montré comment allumer une allumette et a discuté de sujets inappropriés. De tels incidents ont attiré l’attention des législateurs, certains proposant un moratoire sur la vente de ces jouets aux mineurs.
Au-delà des réponses risquées : collecte de données et manipulation émotionnelle
Le problème va au-delà des simples réponses inappropriées ou dangereuses. Les experts soulignent que les jouets IA sont conçus pour créer des attachements émotionnels avec les enfants. Ils se souviennent de conversations passées, utilisent le nom d’un enfant et tentent de nouer des liens, brouillant potentiellement la frontière entre réalité et simulation pour les jeunes utilisateurs.
Ces jouets collectent également des données (enregistrements vocaux, transcriptions et modèles d’utilisation), souvent en mode d’écoute constante. Cela soulève de graves problèmes de confidentialité, car les enfants peuvent ne pas comprendre comment leurs données sont utilisées.
Réponse de l’industrie et action législative
Miko, le fabricant de Miko 3, conteste les conclusions du rapport, les qualifiant de « factuellement inexactes ». Cependant, les inquiétudes sont suffisamment importantes pour que les législateurs de l’État de Californie aient proposé une interdiction de quatre ans sur la vente de jouets chatbot IA à toute personne de moins de 18 ans. Common Sense Media soutient cette mesure.
Pourquoi c’est important
L’intégration rapide de l’IA dans les jouets pour enfants dépasse les normes de sécurité. Les entreprises se précipitent pour capitaliser sur la technologie sans prendre pleinement en compte les risques potentiels. Il ne s’agit pas seulement de réponses inappropriées ; il s’agit de confidentialité des données, de manipulation émotionnelle et de développement des jeunes esprits dans un environnement où la réalité est de plus en plus floue.
James P. Steyer, PDG de Common Sense Media, affirme que les entreprises d’IA et de jouets doivent être tenues pour responsables. Le problème principal est que la technologie progresse plus rapidement que les réglementations ou les directives éthiques. Cela laisse les enfants vulnérables aux dangers, que ce soit par des suggestions dangereuses, une collecte de données invasive ou la création de dépendances émotionnelles malsaines.
La solution la plus sensée, selon Common Sense Media, consiste à s’en tenir aux jouets traditionnels et à encourager la socialisation et l’apprentissage en personne – des méthodes présentant des avantages prouvés et moins de risques.





























