AI 기반 장난감은 대형 언어 모델을 사용하여 아이들과 대화하고, 세부사항을 기억하며, 상호 작용할 수 있는 봉제 인형, 로봇, 인형 등 가족을 대상으로 판매되는 최신 기술 중 하나입니다.
그러나 친근한 홍보 이면에는 연구자, 소비자 그룹 및 아동 옹호자들의 감시를 점점 더 많이 받고 있는 심각한 안전, 개인정보 및 발달 문제가 있습니다.
어린이 채팅 로그 노출됨
놀라운 사례가 2026년 1월에 드러났습니다. 보안 연구원인 Joseph Thacker와 Joel Margolis는 Bondu라는 AI 장난감이 웹 기반 콘솔에 5만 개 이상의 어린이 채팅 스크립트를 노출(새 창)했다는 사실을 발견했습니다(새 창). 특별한 자격 증명 없이 Gmail 계정으로 로그인하는 것만으로 그들은 전체 대화 기록, 이름, 생년월일, 가족 세부사항 및 어린 사용자에게 연결된 기기 정보까지 접근했습니다.
이러한 노출은 더 끔찍한 진실을 강조합니다. 많은 AI 장난감이 GPT-5 및 Gemini와 같은 언어 모델에 컨텍스트를 제공하기 위해 어린이에 대한 상세한 데이터를 저장하고 처리한다는 것입니다. 데이터 세트가 풍부할수록 정보는 더 민감해집니다. 그러나 인프라 보안, 접근 제어 및 데이터 최소화는 종종 제품 설계에서 뒷전으로 밀려납니다.
개인정보 보호의 결함 외에도 다른 사건들은 가시적인 심리적 위험을 드러냅니다. 조사에 따르면 일부 AI 장난감은 위험한 항목에 대한 지침을 제공하거나 노골적인 콘텐츠에 대해 논의하거나 테스트 중 안전하지 않은 응답을 생성(새 창)할 수 있는 것으로 나타났습니다. Fairplay for Kids(새 창) 및 Common Sense Media와 같은 옹호 그룹은 이러한 장난감이 건강한 발달을 저해(새 창)하고, 기계에 대한 강박적인 집착을 조장하며, 실제 관계와 알고리즘 응답 사이의 경계를 모호하게 만들고 어린이의 신뢰를 악용할 수 있다고 경고합니다.
전문가들은 또한 감정적인 첨부 파일에 대한 우려를 제기합니다. AI 장난감은 과거 대화를 기억하고 공감하는 동반자로 자신을 제시하도록 설계되었습니다. 자신이 듣는 목소리를 자연스럽게 신뢰하는 어린이는 이러한 기기에 지나치게 의존하여 잠재적으로 회복력, 사회적 기술 및 실제 유대감을 방해할 수 있습니다.
여기 위험에 처한 내용이 있습니다.
AI 장난감의 개인정보 및 보안 위험
- 데이터 수집은 종종 가족이 기대하는 수준을 초과합니다.
- 스크립트, 프로필 및 설정의 저장공간은 공격자에게 가치가 높은 표적이 됩니다.
- 허술한 인증 및 API 결함으로 인해 데이터가 광범위하게 노출될 수 있습니다.
- 타사 AI 서비스는 어린이의 대화 내용을 보거나 처리할 수 있습니다.
이러한 위험은 새로운 것이 아닙니다. 이전 세대의 인터넷 연결 장난감인 CloudPets 및 My Friend Cayla는 대규모 보안 사고를 겪었거나(새 창) 불안정성으로 인해 금지되었지만, AI 통합은 데이터 볼륨과 개인화를 늘려 이러한 위험을 증폭시킵니다.
심리적 및 발달적 문제
- AI 동반자는 발달 중인 사회적 이해를 혼란스럽게 할 수 있습니다.
안전 장치가 있더라도 부적절하거나 위험한 콘텐츠에 노출될 수 있습니다. - AI에 크게 의존하면 성장에 필수적인 상상력 놀이를 몰아낼 수 있습니다(새 창).
AI 장난감을 사용해야 할까요?
이상적으로는 안 됩니다. 최소한 지금은 아닙니다.
AI 장난감은 어린이를 위해 설계된 제품에 마이크, 클라우드 저장공간, 대형 언어 모델 및 상세한 행동 프로파일링을 결합합니다. 이 단계에서는 수집된 데이터가 개인 상태로 안전하게 유지되거나 오용되지 않을 것이라는 신뢰할 수 있는 보장이 없습니다. 보안 결함, 과도한 데이터 보존 및 예측할 수 없는 AI 출력은 여전히 업계 전반에서 흔히 발생합니다.
AI가 연결된 장난감을 아이의 환경에 들이는 것을 피할 수 있다면 그것이 가장 안전한 선택입니다.
그래도 사용하기로 결정했다면 위험을 줄이는 방법은 다음과 같습니다.
귀하가 상위라면 위험을 제한하는 방법은 다음과 같습니다.
- 가장 연결이 적은 옵션을 선택하세요. 상호 작용을 로컬에서 처리하고 데이터를 최소한으로 저장하는 장난감을 선호하세요.
- 개인정보취급방침을 주의 깊게 읽음하세요. 무엇이 저장됨 상태인지, 보존 기간은 얼마나 되는지, 대화가 타사와 공유되는지 확인하세요.
- 불필요한 기능을 비활성화하세요. 가능한 경우 클라우드 백업, 데이터 공유 및 음성 녹음 저장공간을 끄세요.
강력한 계정 보안을 사용하세요. 2단계 인증과 고유한 비밀번호를 활성화하세요. - 기기를 침실에 두지 마세요. 인터넷에 연결된 마이크를 개인 공간에 두지 마세요.
- 아이와 대화를 나누세요. 아이들이 장난감이 진짜 친구가 아니며 실제 관계를 대체해서는 안 된다는 것을 이해하도록 하세요.
소비자 옹호 그룹은 어린 아이들, 특히 5세 미만에게는 이러한 제품을 완전히 피할 것을 권장했습니다.
더 엄격한 기준의 필요성
AI 장난감은 학습과 동반자 관계를 약속할 수 있지만, 현재 증거는 개인정보, 보안 및 아동 발달에 걸친 여러 층의 위험을 보기합니다.
Bondu 노출은 “안전”이 단순한 콘텐츠 제어 이상의 의미를 지닌다는 점을 생생하게 일깨워줍니다. 이는 시스템이 어떻게 구축되고, 무엇을 수집하며, 가장 취약한 사용자를 어떻게 보호하는지에 관한 것입니다. 이 기술이 발전함에 따라 아이들을 진정으로 안전하게 지키기 위해 고안된 안전 장치도 발전해야 합니다.






