Les jouets alimentés par l’IA font partie des dernières technologies commercialisées auprès des familles : peluches, robots et poupées qui peuvent répondre, se souvenir des informations et interagir de manière conversationnelle avec les enfants à l’aide de grands modèles de langage.
Mais derrière ces promotions amicales se cachent de graves préoccupations concernant la sécurité, le respect de la vie privée et le développement, qui attirent de plus en plus l’attention des chercheurs, des groupes de consommateurs et des défenseurs des droits de l’enfant.
Des journaux de discussion d’enfants exposés
Un exemple frappant est apparu en janvier 2026, lorsque les chercheurs en sécurité Joseph Thacker et Joel Margolis ont découvert(nouvelle fenêtre) qu’un jouet IA appelé Bondu a laissé plus de 50 000 transcriptions de discussions d’enfants exposées(nouvelle fenêtre) sur une console Web. En se connectant simplement avec un compte Gmail — sans identifiants spéciaux — ils ont accédé à des historiques de conversation complets, des noms, des dates de naissance, des informations familiales, et même des informations sur les appareils liés aux jeunes utilisateurs.
Cette exposition souligne une vérité plus effrayante : de nombreux jouets IA stockent et traitent des données détaillées sur les enfants pour fournir un contexte aux modèles de langage comme GPT-5 et Gemini. Plus l’ensemble de données est riche, plus les informations sont sensibles. Pourtant, la sécurité de l’infrastructure, les contrôles d’accès et la minimisation des données sont souvent des préoccupations secondaires dans la conception de produits.
Au-delà des failles liées au respect de la vie privée, d’autres incidents révèlent des risques psychologiques tangibles. Des enquêtes ont révélé que certains jouets IA étaient capables de proposer des instructions sur des éléments dangereux, de discuter de contenu explicite ou de générer des réponses dangereuses lors de tests(nouvelle fenêtre). Des groupes de défense comme Fairplay for Kids(nouvelle fenêtre) et Common Sense Media préviennent que ces jouets peuvent compromettre un développement sain(nouvelle fenêtre), encourager une concentration obsessionnelle sur les machines, brouiller les frontières entre les vraies relations et les réponses algorithmiques, et abuser de la confiance des enfants.
Les experts s’inquiètent également de la pièce jointe émotionnelle. Les jouets IA sont conçus pour se souvenir des conversations passées et se présenter comme des compagnons empathiques. Les enfants qui ont naturellement confiance aux voix qu’ils entendent peuvent trop compter sur ces appareils, ce qui peut entraver la résilience, les compétences sociales et les liens dans le monde réel.
Voici un aperçu de ce qui est en jeu.
Les risques des jouets IA pour le respect de la vie privée et la sécurité
- La collecte de données dépasse souvent ce à quoi les familles s’attendent.
- L’espace de stockage des transcriptions, des profils et des préférences crée des cibles de grande valeur pour les attaquants.
- Une mauvaise authentification et des failles d’API peuvent exposer largement les données.
- Des services d’IA tiers peuvent voir ou traiter le contenu conversationnel des enfants.
Ces risques ne sont pas nouveaux. Les générations précédentes de jouets connectés comme CloudPets et My Friend Cayla ont subi d’importantes fuites de données(nouvelle fenêtre) ou ont été interdits pour cause d’insécurité, mais l’intégration de l’IA les amplifie en augmentant le volume de données et la personnalisation.
Préoccupations psychologiques et liées au développement
- Les compagnons IA peuvent perturber le développement de la compréhension sociale.
L’exposition à des contenus inappropriés ou dangereux est possible même avec des garanties. - Une forte dépendance à l’IA peut évincer le jeu imaginatif, essentiel pour le développement(nouvelle fenêtre).
Devriez-vous utiliser des jouets IA ?
Idéalement, non. Du moins pas pour l’instant.
Les jouets IA combinent des microphones, un espace de stockage cloud, de grands modèles de langage et un profilage comportemental détaillé dans des produits conçus pour les enfants. À ce stade, il n’y a aucune garantie fiable que les données collectées resteront de nature privée, sécurisées ou à l’abri d’une mauvaise utilisation. Les failles de sécurité, la conservation excessive des données et les résultats imprévisibles de l’IA sont encore courants dans le secteur.
Si vous pouvez éviter d’introduire un jouet connecté à l’IA dans l’environnement de votre enfant, c’est l’option la plus sûre.
Si vous décidez d’en utiliser un quand même, voici comment réduire les risques.
Si vous êtes parent, voici comment limiter les risques
- Choisissez l’option la moins connectée. Privilégiez les jouets qui traitent les interactions localement et stockent un minimum de données.
- Lisez attentivement la Politique de confidentialité. Vérifiez ce qui est stocké, combien de temps c’est conservé, et si les conversations sont partagées avec des tiers.
- Désactivez les fonctionnalités inutiles. Désactivez les sauvegardes dans le cloud, le partage de données et l’espace de stockage des enregistrements vocaux lorsque cela est possible.
Utilisez une sécurité de compte forte. Activez l’authentification à deux facteurs et des mots de passe uniques. - Gardez les appareils hors des chambres. Évitez de placer des microphones connectés à Internet dans des espaces privés.
- Ayez des conversations avec votre enfant. Assurez-vous qu’il comprenne que le jouet n’est pas un véritable ami et ne doit pas remplacer de vraies relations.
Les groupes de défense des consommateurs ont recommandé d’éviter complètement ces produits pour les jeunes enfants, en particulier les moins de cinq ans.
Un plaidoyer pour des normes plus strictes
Les jouets IA peuvent promettre l’apprentissage et la compagnie, mais les preuves actuelles montrent de multiples niveaux de risque touchant au respect de la vie privée, à la sécurité et au développement de l’enfant.
L’exposition de Bondu est un rappel frappant que la « sécurité » va bien au-delà du contrôle du contenu. Il s’agit de la façon dont les systèmes sont construits, de ce qu’ils collectent et de la façon dont ils protègent les utilisateurs les plus vulnérables. À mesure que cette technologie évolue, les garanties conçues pour assurer la sécurité des enfants doivent évoluer de la même manière.


