一個常見的誤解是,如果你不使用 大型語言模型 (LLM)(如 ChatGPT 進行聊天,Midjourney 生成圖像,或 Sora 生成影片),你就不會受到人工智慧 (AI) 的影響。無論你是否使用它,AI 已經觸及你的生活

例如,當你在 Android 上拍照時,Google Photos 會使用 臉部辨識 自動掃描並標記相片庫中的每個人。在不更改預設設定的情況下在社交媒體上發布貼文會建立公開貼文,這些貼文可能會被抓取到用於訓練 LLM 的海量資料集中。甚至網站或應用程式中的個人化廣告也是由根據你的瀏覽和購物偏好設定訓練的 AI 驅動的。

那種便利是以犧牲你的隱私為代價的,並可能對你的生活產生深遠影響。從你孩子的社交動態中提取的 20 張相片 足以建立一個 30 秒的深偽影片,可用於勒索、霸凌或身分竊盜。

以下是當 AI 擁有你的個人資料存取權限時所面臨的風險,以及你可以做些什麼來在線上保護你的隱私。

AI 如何危及你的隱私?

AI 可以透過收集太多、推斷太多、共享太多來侵蝕隱私。

你的個人資料可能會被收集

AI 系統透過對大量資料進行訓練變得更加準確,這些資料通常是從公開可用的來源抓取的,例如你的 Facebook 貼文(新視窗)Flickr 相片(新視窗)Reddit 討論串(新視窗)。隨意的社交媒體貼文、家庭相片 和個人檔案詳細資料——通常包含敏感資訊且最初是為了個人或社交原因共享的——已被包含在用於訓練價值數十億美元的 LLM 和臉部辨識系統的資料集中。這種情況的發生是因為大型科技公司將線上內容視為可供 AI 免費使用的,而無需明確同意或考慮智慧財產權。

你可能會被重新識別

科技公司聲稱,你的個人資料一旦經過去識別化或假名化(意味著姓名或電話號碼等明顯的識別符號被剝離),就無法追溯到你。但這種保護是脆弱的,因為匿名資料集可以透過與其他資料來源(如社交媒體個人檔案或地理位置軌跡)交叉引用來重新識別。

例如,Netflix 使用者已被重新識別(新視窗),透過將他們的匿名電影評分與 IMDb 資訊進行比較。一項研究(新視窗) 顯示,幾乎每個美國人都可以僅憑 15 個人口統計標記在任何資料集中被挑選出來。加上 AI 的模式匹配能力,重新識別已變得更快、更容易,且任何人都可以進行。

你的資料可能會與第三方共享

當你使用 AI 系統時,你的資料並不總是留存在你註冊的公司。它可能會與合作夥伴或第三方處理者共享——其中一些你可能從未聽說過——他們可能會根據自己的條款和安全標準處理你的資料。

在這一點上,隱私變成了信任的練習。你不僅僅依賴你知道的公司來保護你的資訊,還依賴整個未知外部參與者鏈條,每個參與者都有自己的基礎設施、政策和漏洞。每一雙接觸你資料的手都會擴大攻擊面,問責制也變得模糊不清。

例如,涉及 OpenAI 合作夥伴的 外洩 導致 API 使用者資料暴露,顯示第三方存取可能成為系統中最薄弱的連結。

資料刪除請求可能無效

一旦你的資料訓練了 AI 模型,將其收回幾乎是不可能的,因為它塑造了模型的整體行為。機器遺忘——讓模型忘記的技術——仍處於早期階段,因此今天的唯一選擇是重新訓練模型。即使一家公司聲稱已履行你的資料刪除請求,實際上也 無法確認它(新視窗)

其他人可能會看到你的私有聊天

LLM 如 ChatGPT(新視窗)Meta AI(新視窗)Grok(新視窗) 透過其共享功能暴露了私有對話,聊天被搜尋引擎索引並可公開發現。這些平台對此風險不夠透明,讓使用者不知道感覺像是私有交流的內容最終可能會被網際網路上的任何人看到。

你可能會受到不公平對待

如果 AI 系統用於學習模式的資料包含隱藏的偏見——例如來自歷史不平等或不完整的資料集——AI 可以強化或放大這些模式。對於大型科技公司的非私有 AI 系統而言,風險更高,這些系統是閉源的,並作為無法獨立審查的黑盒子運作。這些系統可能會使用種族、性別或郵遞區號等敏感屬性在 預測性警務(新視窗)招聘(新視窗)醫療保健(新視窗)信用評分(新視窗) 中做出自動化決策。

廣告目標鎖定變得越來越精準

雖然非私有 AI 透過啟用超精準鎖定使廣告更聰明,但它經常侵犯你全家的隱私。例如,Publicis,一家 資料仲介 和世界上最大的廣告公司,聲稱對 23 億人進行剖繪,並追蹤 家庭偏好設定和收入(新視窗) 等詳細資料,以決定是否向他們推銷預算或頂級質子版產品。

隨著 AI 聊天機器人取代傳統搜尋,廣告也跟隨我們進入這個新空間。例如,Perplexity 正在 在 AI 生成的回應中內崁廣告(新視窗),並已出價 345 億美元收購 Google Chrome——此舉旨在獲得該瀏覽器 30 億以上的使用者以及隨之而來的親密行為資料的存取權限。

雲端儲存空間可能會暴露你的資料

沒有端對端加密 (E2EE) 的雲端儲存空間提供者可以存取你上載的相片、文件和敏感檔案。他們也可能使用該資料來驅動 AI 工具,產生關於你的見解,或顯示個人化廣告。

例如,Google Drive 保留對你資料的存取權限,並將其用於 Google Docs 中的拼寫檢查和自動完成等 AI 功能。如果 Google 的 AI 助理 Gemini 仍與 Google Workspace 緊密整合,你對 Drive 檔案所做的查詢也可能饋送到 AI 訓練中。

同樣地,Microsoft 宣布 Word、Excel 和 PowerPoint 即將 預設自動儲存到 OneDrive,這是另一個非 E2EE 服務,未來將你的資料用於廣告或 AI 訓練的情況仍不確定。

AI 可能會犯錯

自動化系統可能會掃描你的私有通訊並將其標記為可疑。歐盟提議的聊天控制法案將要求 WhatsApp 和 Signal 等訊息服務使用 AI 掃描每一條私有訊息和相片,以偵測兒童性虐待素材 (CSAM)。

但這意味著監控每個人的對話,而不僅僅是那些涉嫌犯罪的人。歷史顯示 AI 多麼容易犯錯。例如,一位父親的 Google 帳號在向醫生傳送他孩子的相片後被 終止(新視窗) 並向當局舉報。你和你的醫生,或者你和你的家人之間應該保持的內容,可能會突然暴露給科技公司和執法部門。

任何人都可以製作深偽

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

壞人利用深偽進行 身分竊盜、詐欺、勒索或名譽損害——風險延伸到兒童。2019 年,罪犯使用 深偽音訊模仿 CEO 的聲音(新視窗) 並誘騙一名員工轉帳 220,000 歐元。風險也延伸到孩子身上。在一個事件中,一名掠奪者製作了 一名 14 歲孩子的深偽圖像(新視窗),透過威脅共享它來勒索金錢。

如何讓你的資料對 AI 系統保持私有

AI 系統存在許多隱私疑慮,特別是大型科技公司營運的非私有、閉源模型。雖然一旦資料洩露,你無法完全阻止這些系統抓取或濫用你的資料,但你可以減少你的足跡,要求問責,並選擇不利用你資料的隱私優先 AI。以下是你可以做的:

  • 在社交媒體上,將你的個人檔案和貼文設為私有,刪除舊的上載,在共享前從相片中剝離 EXIF 資料,並避免共享可識別的詳細資料——如位址、孩子的全名或他們就讀的學校。找出更多關於 如何為你的家人管理網際網路
  • 檢查你的應用程式的隱私設定。例如,Meta AI 可能正在掃描你的相機膠卷相片 和 Facebook 應用程式(Android 和 iOS 版)上的影片。
  • 透過在網上發布相片前模糊或編輯家人的臉部來防範深偽。
  • 透過使用 虛擬私有網路 (VPN)(新視窗) 隱藏你的 IP 位址來遮罩你的數位足跡,並在發布你不希望被追溯到你的敏感資訊時使用 別名 保護你的 電子郵件地址
  • 使用不將你的資料貨幣化的隱私優先服務,例如用於安全訊息傳遞的 Signal 和用於無痕瀏覽的 Brave 或 DuckDuckGo。
  • 為了安全地儲存你最敏感的檔案,包括私有 相片 和機密 文件,請使用 Proton Drive 進行端對端加密的 雲端儲存空間。與可能暴露所謂私有內容的平台不同,Drive 不會掃描、索引或將你的資料用於 AI 訓練——而且其他任何人都無法看到它,即使你選擇共享它。保持你的相片真正私有也意味著它們不會最終出現在網上,在那裡它們可能會被濫用來製作深偽。
  • 盡可能選擇退出 AI 訓練,例如在 Gemini、ChatGPT(新視窗)Claude(新視窗)Meta AI 上。政策可能會在一夜之間改變,而且幾乎沒有警告,所以如果你想要 AI 和隱私的雙重好處,請切換到 Lumo——我們不保留日誌或對你的資料進行訓練的 隱私優先 AI 助理(新視窗)

對 AI 隱私的更強法規,例如 歐盟的 AI 法案(新視窗),對於將權力轉移回網際網路使用者至關重要。在此之前,最好的防禦措施是留意你在網上共享的內容,要求建立這些系統的公司承擔責任,並選擇從根本上尊重隱私的 透明 AI 工具(新視窗)