AI-drevet legetøj er blandt den nyeste teknologi, der markedsføres til familier: tøjdyr, robotter og dukker, der kan svare igen, huske detaljer og interagere i en samtale med børn ved hjælp af store sprogmodeller.

Men under de venlige kampagner ligger der alvorlige bekymringer vedrørende sikkerhed, privatliv og udvikling, som har tiltrukket sig stigende granskning fra forskere, forbrugergrupper og fortalere for børns rettigheder.

Børns chatlogs eksponeret

Et slående eksempel dukkede op i januar 2026, da sikkerhedsforskerne Joseph Thacker og Joel Margolis opdagede(nyt vindue), at et AI-legetøj kaldet Bondu efterlod mere end 50.000 børns chatudskrifter eksponeret(nyt vindue) på en webbaseret konsol. Ved blot at logge ind med en Gmail-konto – ingen særlige legitimationsoplysninger – fik de adgang til hele samtalehistorikker, navne, fødselsdatoer, familiedetaljer og endda enhedsoplysninger knyttet til unge brugere.

Denne eksponering understreger en mere uhyggelig sandhed: Mange AI-legetøj gemmer og behandler detaljerede data om børn for at give kontekst tilbage til sprogmodeller som GPT-5 og Gemini. Jo rigere datasættet er, jo mere følsomme er oplysningerne. Alligevel er infrastruktursikkerhed, adgangskontrol og dataminimering ofte en eftertanke i produktdesign.

Ud over privatlivsfejl afslører andre hændelser håndgribelige psykologiske risici. Undersøgelser har fundet nogle AI-legetøj i stand til at tilbyde instruktioner om farlige elementer, diskutere eksplicit indhold eller generere usikre svar under testning(nyt vindue). Fortalergrupper som Fairplay for Kids(nyt vindue) og Common Sense Media advarer om, at disse legetøj kan underminere en sund udvikling(nyt vindue), opmuntre til besat fokus på maskiner, udviske grænserne mellem virkelige relationer og algoritmiske svar og udnytte børns tillid.

Eksperter rejser også bekymringer om følelsesmæssig vedhæftning. AI-legetøj er designet til at huske tidligere samtaler og præsentere sig selv som empatiske ledsagere. Børn, der naturligt stoler på stemmer, de hører, kan blive for afhængige af disse enheder, hvilket potentielt kan hindre modstandsdygtighed, sociale færdigheder og bånd i den virkelige verden.

Her er et kig på, hvad der er på spil.

Privatlivs- og sikkerhedsrisici ved AI-legetøj

  • Dataindsamling overstiger ofte, hvad familier forventer.
  • Lagerplads med udskrifter, profiler og præferencer skaber værdifulde mål for angribere.
  • Dårlig godkendelse og API-fejl kan eksponere data bredt.
  • Tredjeparts AI-tjenester kan muligvis se eller behandle børns samtaleindhold.

Disse risici er ikke nye. Tidligere generationer af forbundet legetøj som CloudPets og My Friend Cayla led under store databrud(nyt vindue) eller blev forbudt for usikkerhed, men AI-integration forstærker dem ved at øge datamængden og personaliseringen.

Psykologiske og udviklingsmæssige bekymringer

Bør du overhovedet bruge AI-legetøj?

Ideelt set, nej. I det mindste ikke lige nu.

AI-legetøj kombinerer mikrofoner, sky-lagerplads, store sprogmodeller og detaljeret adfærdsprofilering i produkter designet til børn. På dette stadium er der ingen pålidelig garanti for, at de indsamlede data vil forblive private, sikre eller fri for misbrug. Sikkerhedsfejl, overdreven opbevaring af data og uforudsigelige AI-output er stadig almindelige i hele branchen.

Hvis du kan undgå at introducere et AI-forbundet legetøj i dit barns miljø, er det den sikreste mulighed.

Hvis du beslutter dig for at bruge et alligevel, er her, hvordan du reducerer risiciene.

Hvis du er en forælder, er her, hvordan du begrænser risiciene

  • Vælg den mindst forbundne mulighed. Foretræk legetøj, der behandler interaktioner lokalt og gemmer minimale data.
  • Læs privatlivspolitikken omhyggeligt. Hold øje med, hvad der er lagret, hvor længe det opbevares, og om samtaler deles med tredjeparter.
  • Deaktiver unødvendige funktioner. Slå sky-sikkerhedskopier, datadeling og lagerplads til stemmeoptagelser fra, hvor det er muligt.
    Brug stærk kontosikkerhed. Aktivér to-faktor-godkendelse og unikke adgangskoder.
  • Hold enheder ude af soveværelser. Undgå at placere internetforbundne mikrofoner i private rum.
  • Hav samtaler med dit barn. Sørg for, at de forstår, at legetøjet ikke er en rigtig ven og ikke bør erstatte rigtige relationer.

Forbrugerfortalergrupper har anbefalet helt at undgå disse produkter til små børn, især under fem år.

En sag for strengere standarder

AI-legetøj kan love læring og ledsagelse, men nuværende beviser viser flere lag af risiko, der spænder over privatliv, sikkerhed og børns udvikling.

Bondu-eksponeringen er en levende påmindelse om, at “sikkerhed” handler om meget mere end indholdskontrol. Det handler om, hvordan systemer bygges, hvad de indsamler, og hvordan de beskytter de mest sårbarere brugere. Efterhånden som denne teknologi udvikler sig, skal de sikkerhedsforanstaltninger, der er designet til at holde børn virkelig sikre, også gøre det.