AI-drivna leksaker hör till den senaste tekniken som marknadsförs till familjer: mjukisdjur, robotar och dockor som kan svara, minnas detaljer och interagera samtalsmässigt med barn med hjälp av stora språkmodeller.

Men bakom de vänliga kampanjerna döljer sig allvarliga säkerhets-, integritets- och utvecklingsrelaterade problem som har fått allt större uppmärksamhet från forskare, konsumentgrupper och barnrättsförespråkare.

Barns chattloggar exponerade

Ett slående exempel dök upp i januari 2026, när säkerhetsforskarna Joseph Thacker och Joel Margolis upptäckte(nytt fönster) att en AI-leksak som heter Bondu lämnade mer än 50 000 barns chattutskrifter exponerade(nytt fönster) i en webbaserad konsol. Genom att helt enkelt logga in med ett Gmail-konto — utan särskilda inloggningsuppgifter — fick de åtkomst till hela konversationshistoriker, namn, födelsedatum, familjedetaljer och till och med enhetsinformation kopplad till unga användare.

Den exponeringen understryker en obehagligare sanning: många AI-leksaker lagrar och behandlar detaljerade data om barn för att ge kontext tillbaka till språkmodeller som GPT-5 och Gemini. Ju rikare dataset, desto känsligare information. Ändå är infrastruktursäkerhet, åtkomstkontroller och dataminimering ofta eftertankar i produktdesignen.

Utöver brister i integriteten visar andra incidenter på påtagliga psykologiska risker. Undersökningar har visat att vissa AI-leksaker kan ge instruktioner om farliga objekt, diskutera explicit innehåll eller generera osäkra svar under tester(nytt fönster). Intressegrupper som Fairplay for Kids(nytt fönster) och Common Sense Media varnar för att dessa leksaker kan undergräva en hälsosam utveckling(nytt fönster), uppmuntra ett tvångsmässigt fokus på maskiner, sudda ut gränser mellan verkliga relationer och algoritmiska svar samt utnyttja barns tillit.

Experter lyfter också oro kring känslomässig anknytning. AI-leksaker är utformade för att minnas tidigare konversationer och framställa sig som empatiska följeslagare. Barn som naturligt litar på röster de hör kan bli alltför beroende av dessa enheter, vilket potentiellt hämmar motståndskraft, sociala färdigheter och anknytning i verkliga livet.

Här är en översikt över vad som står på spel.

Integritets- och säkerhetsriskerna med AI-leksaker

  • Datainsamlingen överstiger ofta vad familjer förväntar sig.
  • Lagring av utskrifter, profiler och preferenser skapar högvärdiga mål för angripare.
  • Dålig autentisering och brister i API:er kan exponera data i stor omfattning.
  • AI-tjänster från tredje part kan se eller behandla barns samtalsinnehåll.

Dessa risker är inte nya. Tidigare generationer av uppkopplade leksaker som CloudPets och My Friend Cayla drabbades av stora intrång(nytt fönster) eller förbjöds på grund av osäkerhet, men AI-integrering förstärker dem genom att öka datamängden och graden av personalisering.

Psykologiska och utvecklingsrelaterade farhågor

Bör du använda AI-leksaker över huvud taget?

Helst inte. Åtminstone inte just nu.

AI-leksaker kombinerar mikrofoner, molnlagring, stora språkmodeller och detaljerad beteendeprofilering i produkter som är utformade för barn. I det här skedet finns det ingen tillförlitlig garanti för att de insamlade uppgifterna kommer att förbli privata, säkra eller fria från missbruk. Säkerhetsbrister, överdriven datalagring och oförutsägbara AI-svar är fortfarande vanliga i hela branschen.

Om du kan undvika att introducera en AI-ansluten leksak i ditt barns miljö är det det säkraste alternativet.

Om du ändå bestämmer dig för att använda en, så här minskar du riskerna.

Om du är förälder, så här kan du begränsa riskerna

  • Välj det minst uppkopplade alternativet. Föredra leksaker som behandlar interaktioner lokalt och lagrar minimalt med data.
  • Läs integritetspolicyn noggrant. Se efter vad som lagras, hur länge det lagras och om konversationer delas med tredje part.
  • Inaktivera onödiga funktioner. Stäng av molnsäkerhetskopior, datadelning och lagring av röstinspelningar där det är möjligt.
    Använd stark kontosäkerhet. Aktivera tvåfaktorsautentisering och unika lösenord.
  • Håll enheter borta från sovrum. Undvik att placera internetanslutna mikrofoner i privata utrymmen.
  • För samtal med ditt barn. Se till att barnet förstår att leksaken inte är en verklig vän och inte bör ersätta verkliga relationer.

Intressegrupper för konsumenter har rekommenderat att helt undvika dessa produkter för små barn, särskilt under fem års ålder.

Ett argument för striktare standarder

AI-leksaker kan lova lärande och sällskap, men nuvarande bevis visar flera lager av risk som spänner över integritet, säkerhet och barns utveckling.

Bondu-exponeringen är en tydlig påminnelse om att ”säkerhet” handlar om mycket mer än innehållskontroll. Det handlar om hur system byggs, vad de samlar in och hur de skyddar de mest sårbara användarna. I takt med att denna teknik utvecklas måste också skyddsåtgärderna som är utformade för att hålla barn verkligen säkra utvecklas.