Los juguetes impulsados por IA están entre la tecnología más reciente dirigida a las familias: peluches, robots y muñecas que pueden responder, recordar detalles e interactuar conversacionalmente con niños usando modelos de lenguaje de gran tamaño.
Pero debajo de las promociones amigables hay serias preocupaciones de seguridad, privacidad y desarrollo que han atraído un escrutinio creciente de investigadores, grupos de consumidores y defensores de la niñez.
Registros de chats infantiles expuestos
Un ejemplo impactante salió a la luz en enero de 2026, cuando los investigadores de seguridad Joseph Thacker y Joel Margolis descubrieron(nueva ventana) que un juguete con IA llamado Bondu dejó expuestas más de 50.000 transcripciones de chats de niños(nueva ventana) en una consola web. Con solo iniciar sesión con una cuenta de Gmail, sin credenciales especiales, accedieron a historiales completos de conversaciones, nombres, fechas de nacimiento, detalles familiares e incluso información del dispositivo vinculada a jóvenes usuarios.
Esa exposición subraya una verdad más inquietante: muchos juguetes con IA almacenan y procesan datos detallados sobre niños para proporcionar contexto a modelos de lenguaje como GPT-5 y Gemini. Cuanto más rico es el conjunto de datos, más sensible es la información. Sin embargo, la seguridad de la infraestructura, los controles de acceso y la minimización de datos suelen quedar como ideas secundarias en el diseño del producto.
Más allá de los fallos de privacidad, otros incidentes revelan riesgos psicológicos tangibles. Las investigaciones han encontrado que algunos juguetes con IA son capaces de ofrecer instrucciones sobre elementos peligrosos, discutir contenido explícito o generar respuestas inseguras durante las pruebas(nueva ventana). Grupos de defensa como Fairplay for Kids(nueva ventana) y Common Sense Media advierten que estos juguetes pueden socavar un desarrollo saludable(nueva ventana), fomentar una fijación obsesiva con las máquinas, difuminar los límites entre relaciones reales y respuestas algorítmicas, y aprovecharse de la confianza de los niños.
Los expertos también plantean preocupaciones sobre el apego emocional. Los juguetes con IA están diseñados para recordar conversaciones pasadas y presentarse como compañeros empáticos. Los niños que naturalmente confían en las voces que escuchan pueden depender demasiado de estos dispositivos, lo que podría obstaculizar la resiliencia, las habilidades sociales y los vínculos en el mundo real.
Aquí tiene un vistazo de lo que está en juego.
Los riesgos de privacidad y seguridad de los juguetes con IA
- La recopilación de datos a menudo supera lo que las familias esperan.
- El almacenamiento de transcripciones, perfiles y preferencias crea objetivos de alto valor para atacantes.
- La autenticación deficiente y los fallos de API pueden exponer ampliamente los datos.
- Servicios de IA de terceros pueden ver o procesar contenido conversacional de los niños.
Estos riesgos no son nuevos. Generaciones anteriores de juguetes conectados como CloudPets y My Friend Cayla sufrieron grandes vulneraciones(nueva ventana) o fueron prohibidos por inseguridad, pero la integración con IA las amplifica al aumentar el volumen de datos y la personalización.
Preocupaciones psicológicas y del desarrollo
- Los compañeros con IA pueden confundir la comprensión social en desarrollo.
La exposición a contenido inapropiado o peligroso es posible incluso con salvaguardas. - Una dependencia excesiva de la IA puede desplazar el juego imaginativo crítico para el crecimiento(nueva ventana).
¿Debería usar juguetes con IA?
Idealmente, no. Al menos no por ahora.
Los juguetes con IA combinan micrófonos, almacenamiento en la nube, modelos de lenguaje de gran tamaño y perfilado detallado del comportamiento en productos diseñados para niños. En esta etapa, no existe una garantía confiable de que los datos recopilados se mantendrán privados, seguros o libres de mal uso. Los fallos de seguridad, la conservación excesiva de datos y los resultados impredecibles de la IA siguen siendo comunes en toda la industria.
Si puede evitar introducir un juguete conectado a IA en el entorno de su hijo, esa es la opción más segura.
Si aun así decide usar uno, aquí tiene cómo reducir los riesgos.
Si usted es madre o padre, aquí tiene cómo limitar los riesgos
- Elija la opción menos conectada. Prefiera juguetes que procesen interacciones localmente y almacenen la menor cantidad posible de datos.
- Lea cuidadosamente la política de privacidad. Busque qué se almacena, por cuánto tiempo se conserva y si las conversaciones se comparten con terceros.
- Desactive funciones innecesarias. Desactive copias de seguridad en la nube, uso compartido de datos y almacenamiento de grabaciones de voz cuando sea posible.
Use seguridad de cuenta sólida. Active la autenticación de dos factores y contraseñas únicas. - Mantenga los dispositivos fuera de los dormitorios. Evite colocar micrófonos conectados a internet en espacios privados.
- Tenga conversaciones con su hijo. Asegúrese de que entienda que el juguete no es un amigo real y no debe reemplazar relaciones reales.
Los grupos de defensa del consumidor han recomendado evitar por completo estos productos para niños pequeños, especialmente menores de cinco años.
Un argumento a favor de normas más estrictas
Los juguetes con IA pueden prometer aprendizaje y compañía, pero la evidencia actual muestra múltiples capas de riesgo que abarcan privacidad, seguridad y desarrollo infantil.
La exposición de Bondu es un recordatorio contundente de que la “seguridad” implica mucho más que control de contenido. Se trata de cómo se construyen los sistemas, qué recopilan y cómo protegen a los usuarios más vulnerables. A medida que esta tecnología evoluciona, también deben hacerlo las salvaguardas diseñadas para mantener a los niños verdaderamente seguros.


