隨著人工智慧的使用增加,AI 助理(新視窗)正成為信任的夥伴。數百萬人轉向 ChatGPT、Claude、Gemini、DeepSeek 等聊天機器人來詢問問題並解決問題。他們的查詢可能非常敏感,詢問健康疑慮、分享客戶資料,或尋求情感支持和創意靈感。

對許多人來說,這些聊天機器人感覺像人類、有反應且保密。但最近的發展(一項法律命令已迫使 OpenAI 無限期保存 ChatGPT 輸出資料(新視窗),且 OpenAI 創辦人 Sam Altman 表示 ChatGPT 不提供「法律保密性」(新視窗))揭露了您輸入的每個字都可能被記錄、儲存、分析,並可能被濫用或外洩給第三方的風險。

以下是這可能意味著什麼,以及為何我們都應該擔心。

AI 的風險更高

AI 助理的興起感覺像是一個新領域,但在許多方面,我們以前就經歷過。圍繞 AI 聊天日誌的擔憂呼應了搜尋引擎早期的擔憂,其中許多被證明是有根據的。搜尋日誌已被用於建立利潤豐厚的廣告鎖定設定檔,曾在資料外洩中曝光,也曾在法庭上被傳喚。

有了 AI,風險更高,因為資料更個人化且詳細。越來越多的人從搜尋引擎轉向 AI 聊天機器人尋求答案,預測搜尋引擎使用量到 2026 年將下降 25%(新視窗)。不同於通常擷取簡短、片段查詢的搜尋列,向聊天機器人的提問被建構得像是發問者在跟另一個人說話,在此過程中透露了更多關於自己的資訊。單一對話可能包含個人想法(新視窗)、情感掙扎、健康疑慮(新視窗)、財務恐懼,甚至全名和地址。

簡而言之,聊天日誌提供了極其豐富且親密的身份地圖,比搜尋引擎日誌更甚 — 且對您的隱私影響更大。科技巨頭可以存取您的聊天日誌並用它們來建立關於您的心理側寫,這些側寫可能會被揭露給政府或用於目標式廣告。例如,Meta 正使用 AI 聊天資料來建立個人化廣告

您的「匿名」聊天不會永遠保持那樣

反對擔心聊天日誌隱私的一個常見論點是,資料的龐大數量使得個人被利用的可能性很低,特別是當使用者未登入時。但最近的歷史講述了一個不同的故事。

7 月,記者發現 ChatGPT 中超過 100,000 則對話(新視窗)被 Google 索引並可被搜尋。點擊「分享」按鈕將對話傳送給朋友或同事的使用者幾乎肯定沒意識到他們的私有對話會被網際網路上的每個人看到。

這個例子是一個警告:所謂的「匿名」資料很少是匿名的。搭配 IP 位址、時間戳記、裝置指紋,以及工作階段和 Cookie ID,這些日誌變得更容易識別。

聊天如何暴露我們的內心生活

熱門 AI 平台 ChatGPT(新視窗)Gemini(新視窗)DeepSeek(新視窗) 都聲明使用者聊天日誌是用於協助改善模型效能,而不會用於「販售」您的資料以進行廣告或使用者分析。但正如 OpenAI 的法律戰所顯示,政策可能在一夜之間改變。

例如,Anthropic 在 2025 年 8 月無預警地更新了其隱私權政策(新視窗),延長了資料保留期間。隨著日誌被無限期已儲存,曾經看似受限的個人資料可能突然變成有利可圖的獲利來源。

這並不是第一次發生這種情況。當 Google 於 1998 年推出時,共同創辦人 Sergey Brin 和 Larry Page 警告(新視窗),以廣告為基礎的搜尋引擎將不可避免地「本質上偏向廣告商,而遠離消費者的需求」。十年後,Google 開始使用搜尋紀錄來向您投放目標廣告(新視窗)

透過直接存取人們的內心生活,AI 日誌可以將廣告目標鎖定推向極限。隨著越來越多的使用者轉向聊天機器人尋求情感支援(新視窗),某人可能會透露:

  • 「我最近感到不知所措且孤單。」
  • 「你覺得我有憂鬱症嗎?」
  • 「如果在下個月付不出房租,我該怎麼辦?」

這些陳述不僅僅是關鍵字或互動的集合,它們是明確的情感和情境象徵。如果被已儲存並分析,它們可以用來建立心理檔案並操縱使用者的決定。

暗示這些私密、敏感的資訊可能被用於剝削目的是不危言聳聽的——因為大型科技公司確實已經這樣做了。2017 年,Facebook 展示了沒有任何互動是受限的,他們探索了如何在情緒脆弱的青少年(新視窗)感到不安全時刻向其投放廣告的方法。

聊天機器人日誌是通往您心靈的窗口。這種程度的存取在一個尚未對資料使用和應用程式制定明確指引和法規的領域中,引發了重大的隱私和道德疑慮。

使用者的法律風險

搜尋紀錄長期以來在刑事調查和法庭案件中扮演著角色。有多個線上查詢導致有罪判決的案例,特別是美國的 Moira Akers 訴 State 案

在 2018 年經歷死產後,Akers 被控謀殺,並於 2022 年被判處 30 年監禁。檢察官案件的一個關鍵部分是 Akers 在懷孕初期進行的關於墮胎的網際網路搜尋。根據檢方的說法,這些搜尋充當了 Akers 意圖的證據——儘管事實上她已足月懷孕。馬里蘭州最高法院於 2025 年推翻了她的定罪,裁定搜尋查詢證據不可採納(新視窗)。但 Akers 已經在監獄裡度過了將近三年。這個案例凸顯了已儲存的日誌如何被用來講述一個符合不利敘事的故事,即使有證據與之矛盾。

對於可能受法律證據約束的已儲存 AI 聊天紀錄,風險可能更高。與搜尋查詢不同,這些互動更具對話性,甚至具有推測性,有時是為了從 LLM(大型語言模型)引發特定類型的回應。與 AI 的私有、無辜交流可能會在以後的法律設定中被解釋為有罪,無論當時的意圖為何。

一個強大的操縱工具

那些能夠看到聊天機器人日誌的人可以存取詳細的行為藍圖:個人習慣、情緒觸發點、人際關係動態,甚至職業弱點。在壞人手中,這些資料是社交工程的強大工具,這是一種涉及心理操縱的常見駭客戰術。

這種風險絕非假設。2025 年 1 月,AI 平台 DeepSeek 讓一個龐大的資料庫暴露在線上(新視窗)。此次資料外洩包含超過一百萬條 AI 聊天日誌和應用程式介面 (API) 金鑰,所有知道去哪裡尋找的人都可以公開存取。在暴露的資料中有純文字對話,其中可能包含關於家庭、財務和機密專案的討論——這些資訊很容易被利用於詐欺、勒索或身分盜竊

一旦外洩,這些資料就可以被武器化來冒充您或操縱您。透過引用從過去對話中提取的個人詳細資料,攻擊者可以博取您的信任並利用它來製造嚴重的財務或安全漏洞。

政治監控的陰影

在獨裁政權中,已儲存的數位互動後果可能更為嚴重。例如,由於對營運商如何處理使用者個人資訊的安全疑慮,多個國家已禁止在政府裝置上使用(新視窗)中國的 AI 平台 DeepSeek。南韓、澳洲和台灣提出疑慮,認為這些資料可能被中國當局存取,並可能用於監控。

對於異議人士、活動家或記者來說,這不僅僅是隱私問題,更是安全問題。關於抗議權利、媒體法律或庇護路由的看似隨意的聊天,在對言論自由和公民自由保護有限的司法管轄區中,可能會被解釋為有罪證據。

對智慧財產權的威脅

2023 年,三星工程師在試圖對一個問題進行偵錯時,誤以為他們的查詢是私有的,而無意中將專有原始代碼上載(新視窗)到 ChatGPT。一旦提交,該資料就成為 OpenAI 訓練系統的一部分,引發了對與 AI 工具共享的智慧財產權之安全性和所有權的疑慮。

本文開頭提到的 紐約時報控告 OpenAI(新視窗) 的備受矚目的版權案件中也出現了相關疑慮。該案件促使法院下令要求 OpenAI 無限期保留所有 ChatGPT 輸出資料,此前有指控稱該公司在未經許可的情況下使用了該報數百萬篇文章來訓練其模型。儘管該案件主要集中在 OpenAI 的網頁爬蟲擷取新聞內容,但它對向 AI 平台貢獻原創作品的創意人員——作家、設計師、音樂家和其他人——提出了更廣泛的問題。

如果使用者提交的內容被模型保留並重複使用,那麼專有或創意素材確實存在未經署名或同意就被重新分發給其他使用者的風險。這模糊了使用者貢獻與 AI 訓練資料之間的界線,並引發了生成式 AI 時代關於作者身分和所有權的迫切問題。

需要改變什麼以及如何保護自己

大多數人希望並期望在現實生活中擁有隱私。我們相信同樣的期望也應延伸到人們的數位生活。我們建立了一套已加密的服務,讓任何人都可以輕鬆獲得線上隱私,無論您是在寄電子郵件給朋友串流播放您最喜愛的節目(新視窗),還是備份相片。修正網際網路早期的錯誤還為時不晚,而隨著 AI 處於早期階段,還有時間為這項尊重您隱私的技術制定新方向。

我們以設計上維護關鍵保護的方式建立了我們的 AI 助理(新視窗) Lumo:

  • 無資料日誌記錄:使用者應該能夠與聊天機器人互動,而不必擔心他們提交的內容會被已儲存、用於獲利或用來對付他們。 
  • 無模型訓練:私有聊天絕不應被利用作為訓練資料,因為這會有稍後重新出現在模型輸出中的風險。
  • 資料處理的透明度:應該要明確說明已儲存的使用者資料如何被使用、誰可以存取它、它被已儲存在哪裡、保留多久以及如何將其刪除。
  • 預設零存取加密對話應使用使用者的加密金鑰進行保護,因此即使是 AI 提供者也無法存取。

雖然悄悄記錄我們資料的聊天機器人的危險是真實且迫切的,但我們並非無能為力。透過選擇 隱私優先的 AI 工具並要求其建立者保持透明度和當責性,我們可以將權力平衡轉移回使用者手中,肯定隱私是一項權利,而非特權的信念。