今日のクリエイターにとっての不満な現実は、自分の作品がAIトレーニングにさらされていることです。ChatGPT、Gemini、DeepSeek、Stable Diffusion、Midjourneyなどの生成AIを開発しているテック企業は、モデルのトレーニングに大量のデータセットを必要としており、そのために公開されているインターネットをスクレイピングしています。
これにより、作品がオンラインで共有された後の同意、帰属、および管理に関する重要な疑問が提起されています。
創作データをより適切に保護する方法をお探しの場合は、このガイドで、自分の条件でインターネットに関わりながら、AIトレーニングでの作品の使用を減らすために実行できる実践的な手順を概説します。
公開コンテンツでのAIトレーニングが創作物を危険にさらす仕組み
生成AIツールが機能するには大量のデータが必要であり、そのデータの多くはインターネットから供給されています。OpenAIは、オンラインで見つかる著作物にアクセスせずにChatGPTのようなAIをトレーニングすることは「不可能」であると公言しています(新しいウィンドウ)。
オンラインポートフォリオ、ソーシャルメディアプラットフォーム、ブログからの創作物は、同意や帰属なしにこれらのモデルのトレーニングに使用されています。たとえば、Metaは、生成AIモデルをトレーニングするために、公開共有されているFacebookおよびInstagramの投稿、写真、コメントを2007年までさかのぼってスクレイピングしたことを認めています(新しいウィンドウ)。つまり、結婚式の写真、ポートフォリオの写真、イラストなど、これらのプラットフォームでこれまでに公開したあらゆる創作物は、公開範囲をプライベートに設定していない限り、AIトレーニングに使用される可能性があります。
AI企業は、進行中の訴訟(新しいウィンドウ)において、スクレイピングされたインターネットデータでのトレーニングは「フェアユース」に該当すると主張しています。同時に、彼らは結果として得られるモデルやデータセットを独自の資産として扱っています。OpenAIの利用規約では「出力を使用してOpenAIと競合するモデルを開発すること」を禁止しており、同社はDeepSeekが自社のモデルを「不適切に」コピーした(新しいウィンドウ)と非難していますが、そのモデル自体が公開されているインターネットデータでトレーニングされたものです。
この明らかな二重基準は、多くのクリエイターが、自分の作品が同意、クレジット、または対価なしにAIトレーニングに対して脆弱であると感じている理由を説明するのに役立ちます。また、「公開されている」コンテンツがどのように解釈されるか、特に創作物が不正な再利用や商用利用をライセンスで明示的に制限しているプラットフォームで共有されている場合についてのより広範な疑問も提起しています。その結果、多くのアーティスト、ライター、写真家が、AIデータスクレイピングに対してますます反発しています。
AIにアートを利用させない方法
裁判所はまだケースバイケースの判決を下しており、クリアな法的基準が整備されていないため、クリエイターは自分の作品を保護するために法制度だけに頼ることはできません。その間、AIトレーニングでの作品の使用を減らすために、今すぐ実行できる実践的な手順があります。
ただし、これらの戦略はいずれも確実ではありません。保護ツールとAI企業は、常にお互いを出し抜こうとしています。今のところ、それらは集合的により良く機能する鎧の個々のパーツと考えてください。これらは、創作データの管理権を自分自身で高めるための最善の方法です:
アートスタイルをクローキングする
Glaze(新しいウィンドウ)のようなクローキングツールは、AIモデルを混乱させるようなピクセルへの微細な変更を加えることで、AIモデルがあなたの作品でトレーニングするのを難しくします。画像は人間には意図したとおりに見えますが、AIスクレイパーには異なる、または歪んだスタイルとして認識されます。
アートワークを「毒殺(Poison)」する
Nightshade(新しいウィンドウ)のようなツールを使用すると、アートワークをAIスクレイパーにとって有毒なものにすることができます。「毒殺された」画像には、AIトレーニングを妨害する微妙で目に見えない変更が含まれており、猫の代わりに車、飛行機の代わりに雲など、システムが見ているものを誤解させます。時間が経ち、十分な数の毒殺された画像がトレーニングに使用されると、それらの間違った関連付けがモデルの将来のバージョンに表示される可能性があります。
ただし、GlazeやNightshadeのような技術的な保護は確実ではなく、AIシステムが進化するにつれて弱体化する可能性があることが調査(新しいウィンドウ)で示されています。
AIトレーニングをオプトアウトする
作品がオンラインに存在する場合、AIモデルにスクレイピングされている可能性があります。Have I Been Trained(新しいウィンドウ)やThe AtlanticのAI Watchdog(新しいウィンドウ)のようなウェブサイトを使用すると、画像、文章、またはその他の創作物が、AIモデルのトレーニングに使用されている既知のデータセットに表示されているかどうかを確認できます。前者では、Do Not Trainレジストリに作品を送信でき、参加企業は将来のトレーニング実行からそれらの画像を特定して除外できます。ただし、これらの対策は任意であり、個々の企業の尊重する意思に依存しており、作品を使用してすでにトレーニングされたモデルには影響しません。
EUにお住まいの場合は、GDPR(新しいウィンドウ)などのデータ保護法を活用して、AIトレーニングからコンテンツを除外するよう企業に要求できます。一部の企業では、アプリの設定の奥深くにオプトアウトプロセスがあります。たとえば、Facebook、Instagram、WhatsAppでのMeta AIデータの使用をオプトアウトする方法は次のとおりです。
プライバシー設定をロックダウンする
ソーシャルメディアに公に投稿するものを減らし、プロフィールがプライベートに設定されていることを確認してください。オープンにアクセスできるコンテンツが少ないほど、外部のAIシステムによるスクレイピングが難しくなります。しかし、多くの企業がAI機能をますます統合しているため(MetaがすべてのMeta AIのやり取りをトレーニングと広告に使用しているなど)、これだけではプラットフォーム自体から身を守るには不十分な場合があり、公開およびプライベートコンテンツが時間の経過とともにどのように使用されるかについての疑問が生じます。ソーシャルメディアをプライマリーアーカイブやポートフォリオとして使用することは避けるのが最善です。
公開共有について意図的になる
オーディエンスにリーチするために公に投稿する場合は、作品のより小さく、低解像度の、または透かし入りのバージョンを共有してください。フルクオリティのファイルは、AIトレーニングにプライベートコンテンツを使用しないことが明確なオフラインバックアップまたはクラウドサービスに保管済みの状態にしておきます。
ファイルを安全に保管および共有する
GoogleがGoogleドライブやGmailを含むあらゆる場所にGeminiを追加するなど、AIツールが主要なプラットフォーム全体に深く統合されるにつれて、人々は作品の保管方法と共有方法についてますます慎重になっています。
Proton Driveは、写真、動画、アルバム、ドキュメント、スプレッドシート、およびその他のファイルのためのエンドツーエンド暗号化ストレージと共有を提供します。私たちは、お客様のデータを収集、処理、第三者と共有したり、AIトレーニングに使用したりすることは決してありません。Big Techとは異なり、Protonは広告やデータの使用ではなく、有料サブスクライバーのコミュニティによって完全にサポートされています。
パスワードで保護されたリンクを共有したり、有効期限を設定したり、メール経由でのみ特定の人物にアクセス権を付与したり、いつでもアクセスを失効させたりできます。また、Protonアカウントを持っていない人からファイルを安全に収集することもできます。
管理権を手放さずにプライベートAIを使用する
作品の管理権を手放さず、将来のポリシー変更によってファイルが突然トレーニングデータに変わることを心配せずにAIのメリットを享受したい場合は、当社のプライベートAIアシスタント(新しいウィンドウ)を使用してください。Lumoは、お客様のファイルや会話でトレーニングを行うことは決してなく、オープンソースコードに基づいているため、誰でも私たちの主張を検証できます。
LumoはProton Driveと統合されており、多くの個人や組織が積極的に反発しているAIスクレイピングエコシステムに貢献することなく、ファイルを安全に操作して画像を生成できます。
あなたのアートは機密データです
AIによるアートの盗用を止めることは、AIを完全に拒絶することを意味するわけではありません。しかし、イラストであれ、小説であれ、歌であれ、創作物は機密データであることを認識することを意味します。クリエイターは、自分の作品がどのように使用されるか、また使用されるかどうかを決定する能力を含め、主体性と公正な扱いを受けるに値します。
公開されているコンテンツ(場合によっては、間接的に公開されたプライベートコンテンツ)がAIシステムのトレーニングに吸収されるのを完全に防ぐことができる単一の戦略はありません。また、AI企業は、データを使用せずにAIツールを構築する方法はないと信じ込ませようとしています。私たちはそうは思いません(新しいウィンドウ)。
規制当局や裁判所がよりクリアなガイダンスを提供するまでは、インターネットとの関わり方について積極的になり、プライバシーと創作権を明確に尊重するプラットフォームを選択することが最も効果的なアプローチです。






