搭載 AI 的玩具是向家庭行銷的最新科技產品之一:絨毛玩具、機器人和洋娃娃能與人對話、記住詳細資料,並使用大型語言模型與兒童進行對話互動。
但在友善的宣傳背後,隱藏著嚴重的安全性、隱私與發展方面的疑慮,這些疑慮已引起研究人員、消費者群組與兒童倡議者越來越密切的關注。
兒童對話日誌外洩
2026 年 1 月出現了一個驚人的例子,當時安全研究人員 Joseph Thacker 和 Joel Margolis 發現(新視窗),一款名為 Bondu 的 AI 玩具在基於網頁的主控台中,暴露了超過 50,000 份兒童的聊天日誌(新視窗)。只需使用 Gmail 帳號登入(無需特殊憑證),他們就能存取完整的對話記錄、姓名、出生日期、家庭詳細資料,甚至與年輕使用者相關的裝置資訊。
這次外洩凸顯了一個更令人毛骨悚然的真相:許多 AI 玩具儲存並處理有關兒童的詳細資料,以將背景資訊回饋給 GPT-5 和 Gemini 等語言模型。資料集越豐富,資訊就越敏感。然而,基礎設施安全性、存取控制與資料最小化,通常在產品設計中是事後才考慮的。
除了隱私缺陷外,其他事件還揭示了切實的心理風險。調查發現,有些 AI 玩具能夠提供有關危險項目的指示、討論露骨內容,或在測試期間產生不安全的回覆(新視窗)。像是 Fairplay for Kids(新視窗) 和 Common Sense Media 等倡議群組警告,這些玩具可能會破壞健康發展(新視窗)、鼓勵對機器的過度關注、模糊真實關係與演算法回應之間的界線,並利用兒童的信任。
專家也對情感附件提出了擔憂。AI 玩具的設計是為了記住過去的對話,並表現得像是善解人意的同伴。天生就會信任所聽到聲音的兒童可能會過度依賴這些裝置,進而可能阻礙復原力、社交技能以及現實世界中的連結。
以下是相關風險的分析。
AI 玩具的隱私與安全性風險
- 資料收集通常超出家庭的預期。
- 對話紀錄、個人檔案和偏好設定的儲存空間,為攻擊者創造了高價值的目標。
- 不良的驗證與應用程式介面漏洞可能會廣泛地暴露資料。
- 第三方 AI 服務可能會看到或處理兒童的對話內容。
這些風險並不新鮮。較早一代的連網玩具,如 CloudPets 和 My Friend Cayla 就曾遭遇重大資料外洩(新視窗)或因不安全而被禁用,但 AI 的整合透過增加資料量和個人化,放大了這些風險。
心理與發展方面的疑慮
- AI 同伴可能會混淆正在發展的社交理解能力。
即使有安全防護措施,也有可能接觸到不當或危險的內容。 - 過度依賴 AI 可能會排擠對成長至關重要的想像力遊戲(新視窗)。
您到底該不該使用 AI 玩具?
理想情況下,不該。至少現在不該。
AI 玩具將麥克風、雲端儲存空間、大型語言模型與詳細的行為分析結合在專為兒童設計的產品中。在現階段,沒有可靠的保證能夠確保所收集的資料會保持私有、安全或免受濫用。安全性漏洞、過度的資料保留,以及不可預測的 AI 輸出,在整個業界仍相當常見。
如果您能避免將連結 AI 的玩具引入您孩子的環境中,那是最安全的選擇。
如果您還是決定使用,以下是如何降低風險的方法。
如果您是上層,以下是如何限制風險的方法
- 選擇連線程度最低的選項。偏好在本地處理互動並儲存最少資料的玩具。
- 仔細已讀隱私權政策。尋找哪些資料被已儲存、保留多長時間,以及對話是否會與第三方共享。
- 停用不必要的功能。在可能的情況下,關閉雲端備份、資料共享與語音錄製儲存空間。
使用高強度的帳號安全性。啟用雙重身分驗證和獨特的密碼。 - 將裝置放在臥室外。避免將連網的麥克風放置在私有空間。
- 與您的孩子對話。確保他們了解玩具不是真正的朋友,且不應取代真實的關係。
消費者倡議群組建議幼童完全避免使用這些產品,尤其是五歲以下的兒童。
制定更嚴格標準的理由
AI 玩具可能承諾提供學習與陪伴,但目前的證據顯示,其中包含涵蓋隱私、安全性與兒童發展等多個層面的風險。
Bondu 外洩事件是一個生動的提醒,說明「安全」遠不僅止於內容控制。它關乎系統的建置方式、收集的內容,以及如何保護最脆弱的使用者。隨著這項科技的發展,為了讓兒童真正安全而設計的安全防護措施也必須跟著演進。


