Los juguetes impulsados por IA están entre las últimas tecnologías comercializadas para familias: peluches, robots y muñecas que pueden responder, recordar detalles e interactuar de forma conversacional con niños usando modelos de lenguaje de gran tamaño.
Pero detrás de las promociones amistosas se esconden serias preocupaciones sobre seguridad, privacidad y desarrollo que han atraído un creciente escrutinio por parte de investigadores, grupos de consumidores y defensores de la infancia.
Registros de chat de niños expuestos
Un ejemplo impactante surgió en enero de 2026, cuando los investigadores de seguridad Joseph Thacker y Joel Margolis descubrieron(ventana nueva) que un juguete con IA llamado Bondu dejaba expuestas más de 50.000 transcripciones de chats infantiles(ventana nueva) en una consola web. Con solo iniciar sesión con una cuenta de Gmail, sin credenciales especiales, accedieron a historiales completos de conversaciones, nombres, fechas de nacimiento, detalles familiares e incluso información de dispositivos vinculados a jóvenes usuarios.
Esa exposición subraya una verdad más inquietante: muchos juguetes con IA almacenan y procesan datos detallados sobre niños para proporcionar contexto a modelos de lenguaje como GPT-5 y Gemini. Cuanto más rico es el conjunto de datos, más sensible es la información. Sin embargo, la seguridad de la infraestructura, los controles de acceso y la minimización de datos suelen quedar relegados en el diseño del producto.
Más allá de los fallos de privacidad, otros incidentes revelan riesgos psicológicos tangibles. Las investigaciones han encontrado algunos juguetes con IA capaces de ofrecer instrucciones sobre objetos peligrosos, hablar de contenido explícito o generar respuestas inseguras durante las pruebas(ventana nueva). Grupos de defensa como Fairplay for Kids(ventana nueva) y Common Sense Media advierten de que estos juguetes pueden socavar un desarrollo saludable(ventana nueva), fomentar una fijación obsesiva con las máquinas, difuminar los límites entre las relaciones reales y las respuestas algorítmicas y aprovecharse de la confianza infantil.
Los expertos también plantean preocupaciones sobre el apego emocional. Los juguetes con IA están diseñados para recordar conversaciones pasadas y presentarse como compañeros empáticos. Los niños, que confían de forma natural en las voces que oyen, pueden llegar a depender demasiado de estos dispositivos, lo que podría dificultar la resiliencia, las habilidades sociales y los vínculos en el mundo real.
Aquí tienes un vistazo a lo que está en juego.
Los riesgos de privacidad y seguridad de los juguetes con IA
- La recopilación de datos a menudo supera lo que las familias esperan.
- El almacenamiento de transcripciones, perfiles y preferencias crea objetivos de alto valor para los atacantes.
- Una autenticación deficiente y fallos en la API pueden exponer ampliamente los datos.
- Los servicios de IA de terceras partes pueden ver o procesar el contenido conversacional de los niños.
Estos riesgos no son nuevos. Generaciones anteriores de juguetes conectados como CloudPets y My Friend Cayla sufrieron grandes vulneraciones(ventana nueva) o fueron prohibidos por ser inseguros, pero la integración de IA los amplifica al aumentar el volumen de datos y la personalización.
Preocupaciones psicológicas y de desarrollo
- Los compañeros de IA pueden confundir la comprensión social en desarrollo.
La exposición a contenido inapropiado o peligroso es posible incluso con salvaguardas. - Una fuerte dependencia de la IA puede desplazar el juego imaginativo, fundamental para el crecimiento(ventana nueva).
¿Deberías usar juguetes con IA?
Idealmente, no. Al menos no por ahora.
Los juguetes con IA combinan micrófonos, almacenamiento en la nube, modelos de lenguaje de gran tamaño y perfilado conductual detallado en productos diseñados para niños. En este punto, no existe una garantía fiable de que los datos recopilados vayan a permanecer privados, seguros o libres de uso indebido. Los fallos de seguridad, la conservación excesiva de datos y los resultados impredecibles de la IA siguen siendo comunes en todo el sector.
Si puedes evitar introducir un juguete conectado con IA en el entorno de tu hijo o hija, esa es la opción más segura.
Si aun así decides usar uno, aquí te explicamos cómo reducir los riesgos.
Si eres madre o padre, aquí te explicamos cómo limitar los riesgos
- Elige la opción menos conectada. Da preferencia a juguetes que procesen las interacciones localmente y almacenen la mínima cantidad de datos.
- Lee atentamente la política de privacidad. Fíjate en qué se almacena, durante cuánto tiempo se conserva y si las conversaciones se comparten con terceras partes.
- Desactiva funciones innecesarias. Desactiva las copias de seguridad en la nube, el uso compartido de datos y el almacenamiento de grabaciones de voz cuando sea posible.
Usa una seguridad de cuenta sólida. Activa la autenticación de dos factores y contraseñas únicas. - Mantén los dispositivos fuera de los dormitorios. Evita colocar micrófonos conectados a internet en espacios privados.
- Habla con tu hijo o hija. Asegúrate de que entienda que el juguete no es un amigo real y no debería sustituir las relaciones reales.
Los grupos de defensa del consumidor han recomendado evitar por completo estos productos en niños pequeños, especialmente en menores de cinco años.
Un argumento a favor de estándares más estrictos
Los juguetes con IA pueden prometer aprendizaje y compañía, pero la evidencia actual muestra múltiples capas de riesgo que abarcan la privacidad, la seguridad y el desarrollo infantil.
La exposición de Bondu es un recordatorio vívido de que la “seguridad” es mucho más que control del contenido. Se trata de cómo se construyen los sistemas, de qué recopilan y de cómo protegen a los usuarios más vulnerables. A medida que esta tecnología evoluciona, también deben hacerlo las salvaguardas diseñadas para mantener a los niños realmente seguros.


