KI-gestützte Spielzeuge gehören zu den neuesten Technologien, die an Familien vermarktet werden: Kuscheltiere, Roboter und Puppen, die antworten, sich Details merken und mithilfe großer Sprachmodelle Gespräche mit Kindern führen können.

Doch hinter der freundlichen Vermarktung verbergen sich ernsthafte Sicherheits-, Privatsphäre- und Entwicklungsbedenken, die zunehmend von Forschern, Verbrauchergruppen und Kinderschützern unter die Lupe genommen werden.

Chat-Protokolle von Kindern offengelegt

Ein eindrucksvolles Beispiel tauchte im Januar 2026 auf, als die Sicherheitsforscher Joseph Thacker und Joel Margolis entdeckten(neues Fenster), dass ein KI-Spielzeug namens Bondu mehr als 50.000 Chat-Transkripte von Kindern offenlegte(neues Fenster) – zugänglich über eine webbasierte Konsole. Indem sie sich einfach mit einem Gmail-Konto anmeldeten – ohne spezielle Anmeldedaten –, griffen sie auf vollständige Unterhaltungsverläufe, Namen, Geburtsdaten, Familiendetails und sogar Geräteinformationen zu, die mit den jungen Benutzern verknüpft waren.

Diese Offenlegung unterstreicht eine noch gruseligere Wahrheit: Viele KI-Spielzeuge speichern und verarbeiten detaillierte Daten über Kinder, um Sprachmodellen wie GPT-5 und Gemini Kontext zu liefern. Je umfangreicher der Datensatz, desto sensibler die Informationen. Dennoch sind Infrastruktursicherheit, Zugriffskontrollen und Datenminimierung oft nur ein nachträglicher Gedanke beim Produktdesign.

Neben Lücken in der Privatsphäre offenbaren andere Vorfälle greifbare psychologische Risiken. Untersuchungen haben ergeben, dass einige KI-Spielzeuge in der Lage sind, Anleitungen zu gefährlichen Einträgen zu geben, explizite Inhalte zu diskutieren oder während der Tests unsichere Antworten zu generieren(neues Fenster). Interessenverbände wie Fairplay for Kids(neues Fenster) und Common Sense Media warnen, dass diese Spielzeuge eine gesunde Entwicklung untergraben(neues Fenster), eine obsessive Fixierung auf Maschinen fördern, die Grenzen zwischen echten Beziehungen und algorithmischen Antworten verschwimmen lassen und das Vertrauen von Kindern ausnutzen können.

Experten äußern auch Bedenken hinsichtlich des emotionalen Anhangs. KI-Spielzeuge sind so konzipiert, dass sie sich an vergangene Unterhaltungen erinnern und sich als empathische Begleiter präsentieren. Kinder, die Stimmen, die sie hören, von Natur aus vertrauen, verlassen sich möglicherweise zu sehr auf diese Geräte, was potenziell die Resilienz, soziale Fähigkeiten und die Bindung in der realen Welt behindert.

Hier ist ein Blick auf das, was auf dem Spiel steht.

Die Privatsphäre- und Sicherheitsrisiken von KI-Spielzeugen

  • Die Datenerfassung übersteigt oft das, was Familien erwarten.
  • Die Speicherung von Transkripten, Profilen und Einstellungen schafft lohnende Ziele für Angreifer.
  • Schlechte Authentifizierung und API-Fehler können Daten in großem Umfang preisgeben.
  • KI-Dienste von Drittanbietern können die Gesprächsinhalte von Kindern sehen oder verarbeiten.

Diese Risiken sind nicht neu. Frühere Generationen vernetzter Spielzeuge wie CloudPets und My Friend Cayla erlitten schwere Datenlecks(neues Fenster) oder wurden wegen Unsicherheit verboten, aber die KI-Integration verstärkt sie, indem sie das Datenvolumen und die Personalisierung erhöht.

Psychologische und entwicklungsspezifische Bedenken

Solltest du überhaupt KI-Spielzeug nutzen?

Im Idealfall nicht. Zumindest im Moment noch nicht.

KI-Spielzeuge kombinieren Mikrofone, Cloud-Speicher, große Sprachmodelle und detailliertes Verhaltensprofiling in Produkten, die für Kinder entwickelt wurden. Zu diesem Zeitpunkt gibt es keine verlässliche Garantie dafür, dass die gesammelten Daten privat, sicher oder frei von Missbrauch bleiben. Sicherheitslücken, übermäßige Datenaufbewahrung und unvorhersehbare KI-Ausgaben sind in der gesamten Branche nach wie vor weit verbreitet.

Wenn du es vermeiden kannst, ein mit KI verbundenes Spielzeug in die Umgebung deines Kindes zu bringen, ist das die sicherste Option.

Wenn du dich entscheidest, trotzdem eines zu verwenden, erfährst du hier, wie du die Risiken verringern kannst.

Wenn du Elternteil bist, erfährst du hier, wie du die Risiken eingrenzen kannst

  • Wähle die am wenigsten vernetzte Option. Bevorzuge Spielzeuge, die Interaktionen lokal verarbeiten und minimale Daten speichern.
  • Lies die Datenschutzerklärung sorgfältig durch. Achte darauf, was gespeichert wird, wie lange es aufbewahrt wird und ob Unterhaltungen mit Dritten geteilt werden.
  • Deaktiviere nicht benötigte Funktionen. Schalte Cloud-Sicherungen, das Teilen von Daten und den Speicher für Sprachaufzeichnungen aus, wo immer dies möglich ist.
    Nutze eine starke Kontosicherheit. Aktiviere die Zwei-Faktor-Authentifizierung und verwende einzigartige Passwörter.
  • Halte Geräte aus Schlafzimmern fern. Vermeide es, mit dem Internet verbundene Mikrofone in privaten Räumen aufzustellen.
  • Führe Unterhaltungen mit deinem Kind. Stelle sicher, dass sie verstehen, dass das Spielzeug kein echter Freund ist und echte Beziehungen nicht ersetzen sollte.

Verbraucherschutzgruppen haben empfohlen, diese Produkte für kleine Kinder, insbesondere unter fünf Jahren, komplett zu vermeiden.

Ein Argument für strengere Standards

KI-Spielzeuge mögen Lernen und Gesellschaft versprechen, aber aktuelle Erkenntnisse zeigen vielfältige Risiken, die Privatsphäre, Sicherheit und die kindliche Entwicklung umfassen.

Der Fall Bondu ist eine lebhafte Erinnerung daran, dass es bei „Sicherheit“ um viel mehr geht als um Inhaltskontrolle. Es geht darum, wie Systeme aufgebaut sind, was sie sammeln und wie sie die anfälligsten Benutzer schützen. So wie sich diese Technologie weiterentwickelt, so müssen auch die Schutzmaßnahmen weiterentwickelt werden, die entwickelt wurden, um Kinder wirklich sicher zu halten.