OpenAI 發布了 ChatGPT Atlas,這是一個新的瀏覽器,將 ChatGPT 直接建構到人們在網頁上的每一次互動中。該公司將其描述為邁向數位助理的一步,它會與您一起瀏覽網站、解讀您看到的內容,並完成您請求的任務。

目前僅在 Mac 上可用,Atlas 承諾非凡的便利性。然而,它也引入了後果未知的新隱私和安全風險。OpenAI 尚未回答關於該產品如何保護使用者資料的幾個關鍵問題。

不過,我們已經知道足夠的資訊來檢視其主要效益以及隨之而來的嚴重隱私風險。

ChatGPT Atlas 如何運作

Atlas 引入了兩個改變瀏覽運作方式的核心系統。第一個是瀏覽器記憶,記錄您造訪哪些網站以及您如何與它們互動,旨在讓 ChatGPT 的回答更個人化。第二個是代理模式,允許 AI 在瀏覽器視窗內開啟頁面、填寫表單或執行任務。

OpenAI 表示這些功能是選用的。您可以停用它們、消除其資料或私密瀏覽。該公司也表示,除非您選擇加入,否則您的瀏覽內容不會被納入模型訓練。

然而,儘管大談重塑,ChatGPT Atlas 仍是在 Chromium 上執行(新視窗) — 這與 Chrome 和 Edge 背後的開放原始碼引擎相同。

該框架依賴使用者設定和習慣。大量研究顯示,大多數人不會變更他們的預設設定(新視窗)。而較早的 AI 瀏覽器顯示這些控制在現實世界條件下有多脆弱。

AI 瀏覽器的安全風險:研究人員目前發現了什麼

最早的 AI 瀏覽器之一是 Perplexity 的 Comet,於 2025 年 7 月發布。Time 首次報導(新視窗)的該瀏覽器 AI 系統漏洞,揭露了 AI 瀏覽如何開啟新的攻擊媒介。LayerX 的研究人員發現了一個名為 CometJacking 的漏洞(新視窗),它允許惡意連結將指令隱藏在 URL 中。當被點擊時,Comet 的 AI 會將這些提示解讀為真實命令。

測試顯示該瀏覽器可以從 Gmail 和行事曆擷取資料、下載惡意檔案,在某些情況下甚至嘗試在詐騙網站上購物。iTnews 後來詳述(新視窗)了 Guardio 研究人員的類似發現,他們將 Comet 描述為過度熱心的助理 — 行動迅速但對可疑指令反應遲鈍。Kaspersky 的分析(新視窗)更進一步,警告將 AI 直接整合到瀏覽器中,給了惡意網頁內容一個直接操縱它的管道。

為何 Atlas 設計上具有風險

搜尋一直是監控。AI 搜尋使其成為親密監控。Atlas 使其成為全面監控。

像 Google 這樣的傳統引擎擷取孤立的問題 — 醫療症狀、食譜、法律查詢。對話式 AI 將這些片段轉變為故事。它要求您澄清、鼓勵後續提問並記錄上下文。隨著時間推移,這些交流建立了您私生活的詳細描繪,構建關於您的意圖、弱點和決策模式的敘事。

這在局限於 ChatGPT 應用程式時已經有風險。有了 Atlas,同樣的機制存在於您的瀏覽器內,提供 OpenAI 對您線上每一次互動的全面監控

OpenAI 自己的文件(新視窗)確認 Atlas 可以檢視您造訪的頁面、透過瀏覽器記憶記住其內容,並透過代理模式代表您行動。每一層都增加了可見性。Atlas 不只是註冊您的查詢;它觀察您閱讀什麼、停留多久以及接下來做什麼。

結果是一份關於意圖和行為的單一、全面記錄。即使 OpenAI 說此內容預設不用於訓練,它仍被處理和分析以用於個人化。透過推論,Atlas 可以連結普通行動來建立揭露性的敘事 — 像是將焦慮症狀的搜尋與治療師名錄和藥物研究連結起來,形成一個人的心理健康圖像。

隱私控制雖然存在,但需要持續警惕。使用者可以切換可見性或刪除記憶,但大多數人會忘記管理這些設定。您可以取得您的資料,或刪除它。但模型已經根據您的所作所為進行了訓練。

Atlas 將監控延伸到 Google 透過結合搜尋和瀏覽器資料所能達到的範圍之外。OpenAI 將 AI 對話、網頁互動(包括搜尋引擎之外的互動)和個人資料收集整併到一個能理解上下文並據此行動的單一介面中。

隱私與資料暴露疑慮

TechCrunch 報導(新視窗) Atlas 保留瀏覽活動記錄以個人化回答。Kaspersky 警告(新視窗)在此層級整合的 AI 對網頁流量和裝置上的檔案有完全的可見性。該可見性可以包含私人素材,例如訂閱、工作文件或財務資料。

AI 瀏覽器標誌著從被動資料收集到持續行為測繪的轉變。每一個造訪的頁面、每一個寫下的提示、每一個委派的任務都變成回饋迴圈中的另一個訊號,旨在預測和影響行為。

OpenAI 指出使用者設定是保障措施:隱私切換、資料刪除和無痕瀏覽。但這些是表面控制。一旦 AI 將點連成線,移除一項資料並不會消除它已經建立的故事。Atlas 可能會忘記離散的項目;然而,推論仍然存在。

此模型聯合了網頁上最強大的兩個資料收集引擎 — 搜尋索引和瀏覽器 — 並將它們覆蓋上能夠推理性觀察的 AI。

誘因在於它很有幫助。一個整理雜貨清單的工具也繪製了財務行為。一個協助您研究治療的工具也推斷您的情緒狀態。看似個人化的東西是以同理心為面具的資料擷取。

早期的監控資本主義依賴使用者的冷漠:人們太懶而不去更新他們的隱私設定。Atlas 依賴參與:它太聰明太方便,您不禁信任它。

為何 Atlas 還沒準備好用於敏感用途

Atlas 是邁向免手動瀏覽的大膽一步,但它不是為了信任而建立的。使其強大的相同設計選擇也使其不安全。安全研究人員和測試者對 AI 瀏覽器得出了一致結論:它們是非凡的展示,但對於日常生活而言不可靠。

如果您嘗試 Atlas,請將其視為測試環境。將銀行、工作和個人帳號保留在別處。不要假設其保障措施能經受住現實世界的威脅。

OpenAI 可能會改進 Atlas 的安全性,但在今天,使用 AI 瀏覽器意味著給予該公司對您線上行為的直接可見性,並希望該存取保持受保護。

這種擔憂不只止於 OpenAI 本身,因為該公司與合作夥伴和第三方服務供應商分享您的資料,將存取圈擴大到其直接控制之外。例如,涉及 OpenAI 合作夥伴的資料外洩暴露了 API 使用者資料 — 這提醒一旦您的資訊進入 ChatGPT 生態系統,每一個額外的參與方都成為潛在的薄弱環節。

使用讓您保持安全的私有 AI 助理

還有另一種方法,且已被數百萬人使用。

Lumo,Proton 的私有 AI 助理(新視窗),旨在證明智慧和隱私可以共存。它在嚴格的零日誌政策下運作。聊天記錄受到零存取加密保護,意味著連 Proton 都無法讀取。對話絕不用於訓練。代碼和模型都是開放原始碼,允許任何人驗證幕後發生了什麼。使用者完全擁有自己的資料。而且因為 Lumo 是由社群資助,而不是廣告商,所以沒有利用個人資訊的商業動機。

這就是監控 AI 和隱私 AI 之間的差異。一個是為了收集資料而建;另一個是為了保護資料而建。