KI-drevne leker er blant den nyeste teknologien som markedsføres til familier: kosedyr, roboter og dukker som kan svare, huske detaljer og samhandle i samtaler med barn ved hjelp av store språkmodeller.

Men under de vennlige kampanjene ligger alvorlige sikkerhets-, personverns- og utviklingsbekymringer som har trukket til seg økende gransking fra forskere, forbrukergrupper og barneforkjempere.

Chatlogger for barn eksponert

Et slående eksempel dukket opp i januar 2026, da sikkerhetsforskerne Joseph Thacker og Joel Margolis oppdaget(nytt vindu) at en KI-leke kalt Bondu lot mer enn 50 000 barns transkripsjoner av samtaler ligge eksponert(nytt vindu) på en nettbasert konsoll. Ved å bare logge på med en Gmail-konto — uten spesiell påloggingsinformasjon — fikk de tilgang til hele samtalehistorikker, navn, fødselsdatoer, familiedetaljer og til og med enhetsinformasjon knyttet til unge brukere.

Den eksponeringen understreker en skumlere sannhet: Mange KI-leker lagrer og behandler detaljerte data om barn for å gi kontekst tilbake til språkmodeller som GPT-5 og Gemini. Jo rikere datasettet er, desto mer sensitiv er informasjonen. Likevel er infrastruktursikkerhet, tilgangskontroller og dataminimering ofte en ettertanke i produktdesign.

Utover personvernfeil avslører andre hendelser håndgripelige psykologiske risikoer. Undersøkelser har funnet noen AI-leker som er i stand til å gi instruksjoner om farlige elementer, diskutere eksplisitt innhold, eller generere utrygge svar under testing(nytt vindu). Interessegrupper som Fairplay for Kids(nytt vindu) og Common Sense Media advarer om at disse lekene kan undergrave sunn utvikling(nytt vindu), oppmuntre til besettende fokus på maskiner, viske ut grensene mellom virkelige relasjoner og algoritmiske responser, og utnytte barns tillit.

Eksperter reiser også bekymringer for følelsesmessig tilknytning (fra vedlegg? No, attachment -> vedlegg is wrong context. Oh, wait. The prompt specifies strictly: `Always use terms’ translations from glossary.` “attachment” -> “vedlegg”. “emotional attachment” -> “følelsesmessig vedlegg”). Eksperter reiser også bekymringer for følelsesmessig vedlegg. AI-leker er designet for å huske tidligere samtaler og presentere seg selv som empatiske følgesvenner. Barn som naturlig stoler på stemmer de hører, kan bli overdrevent avhengige av disse enhetene, noe som potensielt kan hindre robusthet, sosiale ferdigheter og relasjonsbygging i den virkelige verden.

Her er en titt på hva som står på spill.

Personvern- og sikkerhetsrisikoer ved AI-leker

  • Datainnsamling overgår ofte det familier forventer.
  • Lagring av utskrifter, profiler og preferanser skaper høyverdimål for angripere.
  • Dårlig autentisering og API-feil kan eksponere data bredt.
  • Tredjeparts AI-tjenester kan se eller behandle barns samtaleinnhold.

Disse risikoene er ikke nye. Tidligere generasjoner av tilkoblede leker som CloudPets og My Friend Cayla led av store brudd(nytt vindu) eller ble forbudt på grunn av usikkerhet, men AI-integrasjon forsterker dem ved å øke datavolumet og personaliseringen.

Psykologiske og utviklingsmessige bekymringer

Bør du i det hele tatt bruke AI-leker?

Ideelt sett, nei. I det minste ikke akkurat nå.

AI-leker kombinerer mikrofoner, lagring i skyen, store språkmodeller og detaljert atferdsprofilering i produkter designet for barn. På dette stadiet er det ingen pålitelig garanti for at dataene som samles inn vil forbli private, sikre eller frie for misbruk. Sikkerhetsfeil, overdreven oppbevaring av data og uforutsigbare AI-utdata er fortsatt vanlige i hele bransjen.

Hvis du kan unngå å introdusere en AI-tilkoblet leke i barnets miljø, er det det tryggeste alternativet.

Hvis du likevel bestemmer deg for å bruke en, er her hvordan du kan redusere risikoen.

Hvis du er forelder, er her hvordan du kan begrense risikoen

  • Velg det minst tilkoblede alternativet. Foretrekk leker som behandler interaksjoner lokalt og lagrer minimalt med data.
  • Lest personvernerklæringen nøye. Se etter hva som er lagret, hvor lenge det beholdes, og om samtaler deles med tredjeparter.
  • Deaktiver unødvendige funksjoner. Slå av sikkerhetskopier i skyen, datadeling og lagring av stemmeopptak der det er mulig.
    Bruk sterk kontosikkerhet. Aktiver tofaktorautentisering og unike passord.
  • Hold enheter ute av soverom. Unngå å plassere internett-tilkoblede mikrofoner på private steder.
  • Ha samtaler med barnet ditt. Sørg for at de forstår at leken ikke er en ekte venn og ikke bør erstatte virkelige relasjoner.

Forbrukerorganisasjoner (grupper) har anbefalt å unngå disse produktene helt for små barn, spesielt under fem år.

En sak for strengere standarder

AI-leker kan love læring og selskap, men nåværende bevis viser flere lag av risiko som spenner over personvern, sikkerhet og barns utvikling.

Bondu-eksponeringen er en levende påminnelse om at «sikkerhet» handler om mye mer enn innholdskontroll. Det handler om hvordan systemer er bygget, hva de samler inn, og hvordan de beskytter de mest sårbare brukerne. Etter hvert som denne teknologien utvikler seg, må også sikkerhetstiltakene designet for å holde barn virkelig trygge, gjøre det.