Yapay zeka destekli oyuncaklar, ailelere pazarlanan en yeni teknolojiler arasında yer alıyor: büyük dil modelleri kullanan, konuşabilen, ayrıntıları hatırlayabilen ve çocuklarla konuşma şeklinde etkileşime girebilen pelüş oyuncaklar, robotlar ve bebekler.
Ancak dostane tanıtımların altında; araştırmacıların, tüketici gruplarının ve çocuk savunucularının giderek daha fazla dikkatini çeken ciddi güvenlik, gizlilik ve gelişimle ilgili endişeler yatıyor.
Çocukların sohbet günlükleri açığa çıktı
Dikkat çekici bir örnek, Ocak 2026’da güvenlik araştırmacıları Joseph Thacker ve Joel Margolis’in Bondu adlı bir yapay zeka oyuncağının web tabanlı bir konsolda keşfettiği(yeni pencere) 50.000’den fazla çocuk sohbet dökümünü açığa bırakmasıyla(yeni pencere) ortaya çıktı. Yalnızca bir Gmail hesabıyla oturum açarak — özel kimlik doğrulama bilgileri gerekmeden — tüm yazışma geçmişlerine, adlara, doğum tarihlerine, aile ayrıntılarına ve hatta genç kullanıcılara bağlı aygıt bilgilerine eriştiler.
Bu açığa çıkma daha ürkütücü bir gerçeğin altını çiziyor: birçok yapay zeka oyuncağı, GPT-5 ve Gemini gibi dil modellerine bağlam sağlamak için çocuklar hakkında ayrıntılı veriler saklıyor ve işliyor. Veri kümesi ne kadar zenginse bilgi de o kadar hassas oluyor. Ancak altyapı güvenliği, erişim kontrolleri ve veri minimizasyonu ürün tasarımında çoğu zaman sonradan düşünülen konular oluyor.
Gizlilik kusurlarının ötesinde, diğer olaylar somut psikolojik riskleri de ortaya koyuyor. İncelemeler, bazı yapay zeka oyuncaklarının tehlikeli ögeler hakkında talimat verebildiğini, açık içerikleri tartışabildiğini veya testler sırasında güvenli olmayan yanıtlar üretebildiğini(yeni pencere) buldu. Fairplay for Kids(yeni pencere) ve Common Sense Media gibi savunuculuk grupları, bu oyuncakların sağlıklı gelişimi zayıflatabileceği(yeni pencere), makinelere yönelik takıntılı odağı teşvik edebileceği, gerçek ilişkiler ile algoritmik yanıtlar arasındaki sınırları bulanıklaştırabileceği ve çocukların güvenini istismar edebileceği konusunda uyarıyor.
Uzmanlar ayrıca duygusal bağlanma konusunda da endişe duyuyor. Yapay zeka oyuncakları geçmiş yazışmaları hatırlamak ve kendilerini empatik arkadaşlar gibi sunmak üzere tasarlanıyor. Doğal olarak duydukları seslere güvenen çocuklar bu aygıtlara aşırı bağımlı hale gelebilir; bu da dayanıklılıklarını, sosyal becerilerini ve gerçek dünya bağlarını olumsuz etkileyebilir.
İşte risk altında olanlara bir bakış.
Yapay zeka oyuncaklarının gizlilik ve güvenlik riskleri
- Veri toplama çoğu zaman ailelerin beklediğini aşar.
- Dökümlerin, profillerin ve tercihlerin depolanması saldırganlar için yüksek değerli hedefler oluşturur.
- Zayıf kimlik doğrulama ve API kusurları verileri geniş ölçekte açığa çıkarabilir.
- Üçüncü taraf yapay zeka hizmetleri, çocukların konuşma içeriğini görebilir veya işleyebilir.
Bu riskler yeni değildir. CloudPets ve My Friend Cayla gibi daha önceki bağlantılı oyuncak nesilleri büyük ele geçirmeler yaşadı(yeni pencere) veya güvensizlik nedeniyle yasaklandı; ancak yapay zeka entegrasyonu veri hacmini ve kişiselleştirmeyi artırarak bunları büyütüyor.
Psikolojik ve gelişimsel endişeler
- Yapay zeka arkadaşları, gelişmekte olan sosyal anlayışı karıştırabilir.
Koruma önlemleri olsa bile uygunsuz veya tehlikeli içeriğe maruz kalma mümkündür. - Yapay zekaya aşırı bağımlılık, gelişim için kritik olan hayal gücüne dayalı oyunu geri plana itebilir(yeni pencere).
Yapay zeka oyuncaklarını hiç kullanmalı mısınız?
İdeal olarak hayır. En azından şu anda değil.
Yapay zeka oyuncakları; mikrofonları, bulut depolama alanını, büyük dil modellerini ve ayrıntılı davranışsal profillemeyi çocuklar için tasarlanmış ürünlerde bir araya getiriyor. Bu aşamada toplanan verilerin güvenli, korunaklı veya kötüye kullanımdan uzak kalacağına dair güvenilir bir garanti yoktur. Güvenlik kusurları, aşırı verileri tutma ve öngörülemeyen yapay zeka çıktıları sektör genelinde hâlâ yaygındır.
Çocuğunuzun ortamına yapay zeka bağlantılı bir oyuncak sokmaktan kaçınabiliyorsanız, en güvenli seçenek budur.
Yine de kullanmaya karar verirseniz riskleri şu şekilde azaltabilirsiniz.
Ebeveynseniz riskleri sınırlamanın yolları burada
- En az bağlantılı seçeneği tercih edin. Etkileşimleri yerel olarak işleyen ve asgari veri depolayan oyuncakları seçin.
- Gizlilik ilkesini dikkatle okuyun. Nelerin kaydedilmiş, depolanmış olduğunu, ne kadar süre tutulduğunu ve yazışmaların üçüncü taraflarla paylaşılıp paylaşılmadığını kontrol edin.
- Gereksiz özellikleri kapatın. Mümkün olan yerlerde bulut yedeklerini, veri paylaşımını ve ses kaydı depolama alanını kapatın.
Güçlü hesap güvenliği kullanın. İki adımlı doğrulamayı etkinleştirin ve benzersiz parolalar kullanın. - Aygıtları yatak odalarından uzak tutun. İnternete bağlı mikrofonları güvenli alanlara yerleştirmekten kaçının.
- Çocuğunuzla konuşun. Oyuncağın gerçek bir arkadaş olmadığını ve gerçek ilişkilerin yerini almaması gerektiğini anladığından emin olun.
Tüketici savunuculuğu grupları, özellikle beş yaşın altındaki küçük çocuklar için bu ürünlerden tamamen kaçınılmasını önerdi.
Daha sıkı standartlar için bir gerekçe
Yapay zeka oyuncakları öğrenme ve arkadaşlık vaat edebilir, ancak mevcut kanıtlar gizlilik, güvenlik ve çocuk gelişimi boyunca uzanan çok katmanlı riskler gösteriyor.
Bondu vakası, “güvenliğin” içerik kontrolünden çok daha fazlası olduğunu çarpıcı biçimde hatırlatıyor. Bu; sistemlerin nasıl inşa edildiği, ne topladığı ve en savunmasız kullanıcıları nasıl koruduğuyla ilgilidir. Bu teknoloji geliştikçe, çocukları gerçekten güvende tutmak için tasarlanmış korumaların da gelişmesi gerekir.






