Os brinquedos alimentados por IA estão entre as mais recentes tecnologias comercializadas para famílias: peluches, robôs e bonecas que conseguem responder, lembrar detalhes e interagir em conversa com crianças usando large language models.

Mas por trás das promoções amigáveis escondem-se sérias preocupações de segurança, privacidade e desenvolvimento que têm atraído um escrutínio crescente de investigadores, grupos de consumidores e defensores das crianças.

Registos de chat de crianças expostos

Um exemplo marcante surgiu em janeiro de 2026, quando os investigadores de segurança Joseph Thacker e Joel Margolis descobriram(nova janela) que um brinquedo de IA chamado Bondu deixou mais de 50000 transcrições de chats de crianças expostas(nova janela) numa consola baseada na web. Ao simplesmente iniciar sessão com uma conta Gmail — sem credenciais especiais — acederam a históricos completos de conversas, nomes, datas de nascimento, detalhes familiares e até informação de dispositivos associada a utilizadores jovens.

Essa exposição sublinha uma verdade mais inquietante: muitos brinquedos com IA armazenam e processam dados detalhados sobre crianças para fornecer contexto a language models como GPT-5 e Gemini. Quanto mais rico o conjunto de dados, mais sensível é a informação. No entanto, a segurança da infraestrutura, os controlos de acesso e a minimização de dados são frequentemente reflexões tardias no design do produto.

Para além das falhas de privacidade, outros incidentes revelam riscos psicológicos tangíveis. As investigações descobriram que alguns brinquedos com IA são capazes de dar instruções sobre itens perigosos, discutir conteúdos explícitos ou gerar respostas inseguras durante testes(nova janela). Grupos de defesa como a Fairplay for Kids(nova janela) e a Common Sense Media avisam que estes brinquedos podem prejudicar um desenvolvimento saudável(nova janela), incentivar um foco obsessivo em máquinas, esbater fronteiras entre relações reais e respostas algorítmicas e explorar a confiança das crianças.

Os especialistas também levantam preocupações sobre ligação emocional. Os brinquedos com IA são concebidos para se lembrarem de conversas anteriores e apresentarem-se como companheiros empáticos. Crianças que confiam naturalmente nas vozes que ouvem podem passar a depender excessivamente destes dispositivos, potencialmente prejudicando a resiliência, as competências sociais e os laços no mundo real.

Eis o que está em jogo.

Os riscos de privacidade e segurança dos brinquedos com IA

  • A recolha de dados muitas vezes excede o que as famílias esperam.
  • O armazenamento de transcrições, perfis e preferências cria alvos de alto valor para atacantes.
  • Autenticação fraca e falhas de API podem expor dados amplamente.
  • Serviços de IA de terceiros podem ver ou processar conteúdo conversacional das crianças.

Estes riscos não são novos. Gerações anteriores de brinquedos conectados, como CloudPets e My Friend Cayla, sofreram grandes incidentes(nova janela) ou foram proibidos por falta de segurança, mas a integração com IA amplifica-os ao aumentar o volume de dados e a personalização.

Preocupações psicológicas e de desenvolvimento

Deve usar brinquedos com IA?

Idealmente, não. Pelo menos não por agora.

Os brinquedos com IA combinam microfones, armazenamento na cloud, large language models e definição detalhada de perfis comportamentais em produtos concebidos para crianças. Nesta fase, não existe qualquer garantia fiável de que os dados recolhidos permaneçam privados, seguros ou livres de utilização indevida. Falhas de segurança, retenção excessiva de dados e saídas imprevisíveis da IA continuam a ser comuns em todo o setor.

Se puder evitar introduzir um brinquedo ligado a IA no ambiente do seu filho, essa é a opção mais segura.

Se decidir usar um mesmo assim, eis como reduzir os riscos.

Se é pai ou mãe, eis como limitar os riscos

  • Escolha a opção menos conectada. Prefira brinquedos que processem interações localmente e armazenem o mínimo de dados.
  • Leia cuidadosamente a política de privacidade. Veja o que é armazenado, durante quanto tempo é retido e se as conversas são partilhadas com terceiros.
  • Desative funcionalidades desnecessárias. Desligue cópias de segurança na cloud, partilha de dados e armazenamento de gravações de voz sempre que possível.
    Use segurança forte de conta. Ative autenticação de dois fatores e palavras-passe únicas.
  • Mantenha dispositivos fora dos quartos. Evite colocar microfones ligados à internet em espaços privados.
  • Tenha conversas com o seu filho. Certifique-se de que ele compreende que o brinquedo não é um amigo real e não deve substituir relações reais.

Grupos de defesa do consumidor recomendaram evitar completamente estes produtos para crianças pequenas, especialmente com menos de cinco anos.

Um caso para normas mais rigorosas

Os brinquedos com IA podem prometer aprendizagem e companhia, mas as evidências atuais mostram múltiplas camadas de risco que abrangem privacidade, segurança e desenvolvimento infantil.

A exposição do Bondu é um lembrete vívido de que “segurança” é muito mais do que controlo de conteúdo. Tem a ver com a forma como os sistemas são construídos, o que recolhem e como protegem os utilizadores mais vulneráveis. À medida que esta tecnologia evolui, também devem evoluir as salvaguardas concebidas para manter as crianças verdadeiramente seguras.