現今創作者面臨的一個令人沮喪的現實是,他們的作品暴露於 AI 訓練之中。開發生成式 AI(例如 ChatGPT、Gemini、DeepSeek、Stable Diffusion 和 Midjourney)的科技公司需要龐大的資料集來訓練其模型,而他們一直在抓取公共網際網路來達成此目的。
這引發了關於同意、歸屬以及創意作品一旦在線上共享後的控制權等重要問題。
如果您正在尋找更能保護您創意資料的方法,本指南概述了您可以採取的實用步驟,以減少您的作品被用於 AI 訓練,同時仍能按照自己的方式參與網際網路。
AI 對公共內容的訓練如何讓創意作品面臨風險
生成式 AI 工具需要大量的資料才能運作,而其中大部分的資料來自網際網路。OpenAI 已公開聲明(新視窗),如果無法存取在線上找到的受版權保護之素材,將「不可能」訓練像 ChatGPT 這樣的 AI。
來自線上作品集、社群媒體平台和部落格的創意作品正被用來訓練這些模型,且未經同意或註明出處。例如,Meta 已承認(新視窗)抓取自 2007 年以來公開共享的 Facebook 和 Instagram 貼文、照片和評論,以訓練其生成式 AI 模型。這意味著您曾在這些平台上公開共享的任何創意作品——例如婚禮照片、作品集照片或插圖——都可能被用於 AI 訓練,除非您將能見度設為私有。
AI 公司在進行中的訴訟(新視窗)中辯稱,針對抓取的網際網路資料進行訓練屬於「合理使用」。同時,他們將產生的模型和資料集視為專有資產。OpenAI 的服務條款禁止「使用輸出內容來開發與 OpenAI 競爭的模型」,該公司還指控 DeepSeek 「不當」複製(新視窗)其模型——正是那些使用公開可用的網際網路資料訓練出來的模型。
這種明顯的雙重標準有助於解釋為什麼許多創作者覺得他們的作品在未經同意、歸屬說明或賠償的情況下,容易受到 AI 訓練的影響。這也引發了關於如何解釋「公開可用」內容的更廣泛問題,特別是當創意作品是在授權明確限制未經授權的重複使用或商業剝削的平台上共享時。因此,許多藝術家、作家和攝影師正日益反對 AI 資料抓取。
如何防止 AI 使用您的藝術作品
由於法院仍在逐案發布裁決,且沒有明確的法律標準,創作者不能僅依靠法律體系來保護他們的作品。在此同時,您可以立即採取一些實用步驟,以減少您的作品在 AI 訓練中的使用。
不過,這些策略都不是萬無一失的;保護工具和 AI 公司總是試圖智取對方。目前,請將它們視為您盔甲的各個部分,集合起來效果更好。以下是讓您對自己的創意資料擁有更多控制權的最佳方法:
隱藏您的藝術風格
像 Glaze(新視窗) 這樣的隱藏工具透過對像素進行微小的更改來混淆 AI 模型,從而使 AI 模型更難以使用您的作品進行訓練。圖像對人類來說顯示如預期,但對 AI 抓取器來說,它被註冊為不同或扭曲的風格。
「毒害」您的藝術作品
使用像 Nightshade(新視窗) 這樣的工具,您可以讓您的藝術作品對 AI 抓取器產生毒性。一張「中毒」的圖像包含細微、不可見的更改,會干擾 AI 訓練,導致系統誤解它所看到的內容,例如將貓誤認為車,或將飛機誤認為雲。隨著時間推移,如果訓練中使用了足夠多的中毒圖像,那些錯誤的關聯就會顯示在未來的模型版本中。
然而,像 Glaze 和 Nightshade 這樣的技術保護並非萬無一失,且研究(新視窗)顯示,隨著 AI 系統的演進,它們可能會被削弱。
選擇退出 AI 訓練
如果您的作品存在於線上,它很可能已被抓取到 AI 模型中。使用像 Have I Been Trained(新視窗) 和 The Atlantic 的 AI Watchdog(新視窗) 這樣的網站,您可以檢查您的圖像、寫作或其他創意作品是否出現在用於訓練 AI 模型的已知資料集中。前者允許您將作品提交到「不予訓練」註冊表,參與的公司可以識別並在未來的訓練運行中排除這些圖像。然而,這些措施是自願的,取決於個別公司遵守的意願,且不會影響已經使用您的作品訓練過之模型。
如果您居住在歐盟,您可以利用像 GDPR(新視窗) 這樣的資料保護法,要求公司將您的內容從 AI 訓練中排除。有些公司的退出流程埋藏在其應用程式的設定中;例如,這裡是如何在 Facebook、Instagram 和 WhatsApp 上選擇退出 Meta AI 資料使用。
鎖定您的隱私設定
減少您在社群媒體上公開發佈的內容,並確保您的個人檔案設為私有。公開可存取的內容越少,外部 AI 系統就越難抓取。但這可能不足以保護您免受平台本身的侵害,因為許多公司越來越多地整合 AI 功能——例如 Meta 使用所有 Meta AI 互動進行訓練和廣告——這引發了關於公開和私有內容隨時間推移可能如何被使用的問題。最好避免使用社群媒體作為您的主要封存或作品集。
有意識地進行公開共享
當公開發佈以接觸您的受眾時,請共享較小、低解析度或加浮水印版本的作品。將全品質檔案保存在離線備份或明確不使用私有內容進行 AI 訓練的雲端服務中。
安全地儲存並共享檔案
隨著 AI 工具在主要平台上的整合日益加深——例如 Google 將 Gemini 加入到各處,包括 Google Drive 和 Gmail——人們對於如何儲存和共享他們的作品越來越謹慎。
Proton Drive 為您的照片、影片、相簿、文件、試算表和其他檔案提供端對端已加密的儲存空間和共享。我們從不收集、處理您的資料,不與第三方共享,也不將其用於 AI 訓練。與大型科技公司不同,Proton 完全由我們付費訂閱者的社群支援,而不是依靠廣告或資料使用。
您可以共享受密碼保護的連結、設定過期日期、僅透過電子郵件授予特定人員存取權限,並隨時撤銷存取。您還可以從沒有 Proton Account 的人那裡安全地收集檔案。
使用私有 AI 而不放棄控制權
如果您想要 AI 的好處而不放棄對您作品的控制權,並且不擔心未來的政策變更可能會突然將您的檔案變成訓練資料,請使用我們的 私有 AI 助理(新視窗)。Lumo 從不使用您的檔案或對話進行訓練,且它基於 開放原始碼代碼,這意味著任何人都可以驗證我們的聲明。
Lumo 與 Proton Drive 整合,讓您可以安全地處理您的檔案並產生圖像,而無需助長許多個人和組織正積極反對的 AI 抓取生態系統。
您的藝術作品是敏感資料
阻止 AI 藝術竊盜並不意味著完全拒絕 AI。但這確實意味著承認創意作品是敏感資料,無論它是插圖、小說還是歌曲。創作者應得到自主權和公平對待,包括決定如何使用以及是否使用其作品的能力。
沒有單一策略可以完全防止 AI 系統將公開可用的內容——在某些情況下,還有間接暴露的私有內容——吸收到其訓練中。AI 公司會讓您相信,不使用您的資料就無法建立 AI 工具。我們不同意(新視窗)。
在監管機構和法院提供更明確的指導之前,最有效的方法是主動管理您與網際網路互動的方式,並選擇明確尊重您隱私和創意權利的平台。






