男たちはオンラインで見たものを信じていました。それは、彼女の顔が他人の体に合成された露骨なAI生成画像と、彼女の実際の自宅住所が掲載されたウェブサイトでした。そのサイトは、彼女の家が売春宿であると主張していました。
Twitchで最も有名なストリーマーの一人であるSweet Anitaは、オンラインで女性であることのリスクを理解しており、予防策を講じていました。彼女は本名を隠し、境界線を設け、チームを雇っていました。しかし、それらのどれも、誰かが彼女のディープフェイクを作成するのを止めることはできませんでした。
次に起こったことに対して、彼女は無防備でした。
Sweet Anitaのストーリー
匿名の男が彼女のAI生成ポルノを依頼し、彼女をセックスワーカーに仕立て上げた偽のウェブサイトを作成し、そこに彼女の自宅住所を掲載しました。このセットアップ全体が、彼女にセックスを強要できるという誤った期待を抱かせて男たちを彼女の自宅に誘い込むように設計されていました。「彼がそれをした後、特に私がライブ配信をしていて家を空けているときに、男たちが家に来るようになりました」と彼女は言いました。「自分の家なのに安全だと感じられません。」
ダッフルバッグを持った見知らぬ人たちが侵入しようとしました。彼女は郵便配達員から郵便物を受け取るのを恐れました。ドアに応対することや、家を無人にしておくことをやめざるを得ませんでした。彼女は以前引っ越しましたが、彼らは彼女を見つけ続けました。
そして、虐待は彼女の玄関先だけに留まりませんでした。娘の仕事を誇りに思っていた亡き母は、Anitaのソーシャルメディアをチェックする際、露骨なAI生成画像をスクロールせざるを得ませんでした。友人や同僚もそれらを目にしました。「YouTube、Twitch、すべてのソーシャルメディアからすべてを削除することはできます。それでも、リファレンスとして使用できる私の顔画像が大量に残ってしまうのです」と彼女は言いました。
ディープフェイクは新しいいじめ
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
Girlguidingの調査によると(新しいウィンドウ)、10代の4人に1人以上が、クラスメート、教師、友人、さらには自分自身など、知人の露骨なディープフェイクを見たことがあると答えています。CNNの報道によると(新しいウィンドウ)、学生の40%、教師の29%が、過去1年間に学校関係者のディープフェイクの存在を知っており、学生の15%が露骨なバージョンを見たことがあると答えています。ほとんどの学校には、この種の虐待に対処するためのポリシーがありません。
被害は深刻です。被害者は不安、うつ病、さらにはPTSDに苦しむ可能性があります。社会的に引きこもったり、友人を失ったり、露骨な偽画像が検索で出てくることを恐れて就職や進学を避けたりすることもあります。中には、インターネットからコンテンツを削除するために金銭を費やすことを余儀なくされる人もいます。
世界経済フォーラムは、ディープフェイクは多くの人が恐れていたほど選挙を不安定にはしなかったものの、嫌がらせや詐欺のツールになっていると指摘しています(新しいウィンドウ)。非合意ポルノが最も極端な形態ですが、攻撃者は複製された音声や偽のビデオ通話を使用して詐欺を行うこともあります。2024年には、香港の金融労働者がZoom会議に参加した後、2,500万ドルを支払わされる詐欺に遭いましたが、その会議の参加者はCFOを含め全員がディープフェイクでした(新しいウィンドウ)。
「残りの人生で、個人的にこれを避ける方法は見つからないと思います」とAnitaは言いました。「そして、私がその責任を負うべきだとも思いません。これは私の問題ではなく、私の過ちでもありません。」
これは誰にでも起こりうることです
ほんの数枚の画像があれば十分です。公開されたInstagram、学校の写真、共有アルバムなど。一度顔がオンラインに出ると、コピーされ、スクレイピングされ、悪用される可能性があります。
ウォーリック大学サイバーセキュリティセンターのCarsten Maple教授によると、今日のAIツールを使えば、わずか20枚の写真、あるいは30秒の動画だけで、誰かのリアルなプロフィールを作成でき、潜在的な危険の範囲が拡大しています。しかし、最近調査された親の53%はこの事実を知りませんでした。
The New York Timesは、AIを使って写真から服を取り除くことができるいわゆる「ヌード化アプリ」の台頭について報じました(新しいウィンドウ)。これらのアプリは安価で使いやすく、広く出回っています。調査員は、この業界が年間約3,600万ドルの収益を上げていると推定しています。同意のない偽ヌードの投稿を違法とする新しい米国の法律にもかかわらず、アプリ自体は合法のままです。「インターネットにアクセスできる子供なら誰でも、被害者にも加害者にもなり得ます」と、85のそのようなサイトを調査したチームのAlexios Mantzarlis氏はThe New York Timesに語りました。
プライベートアカウントであっても安全が保証されるわけではありません。虐待者はしばしば被害者の知人です。誕生日パーティーのような一見無害な投稿でさえ、ユーザー情報の盗難を助長する詳細を明らかにする可能性があり、2024年には推定110万人の子供が被害に遭いました。
「[ディープフェイクを作る]人々は、それが不気味で不適切であることをしばしば忘れてしまいます。もし同僚や友人が知ったら、解雇され、仲間外れにされるでしょう。知り合い全員を失い、両親はがっかりするでしょうね」と彼女は言いました。「でも、オンラインで同じ考えを持つ不気味な連中とお互いのためにこの素材を作っているときは、彼らにとってそれはただの趣味や娯楽なのです。彼らはそれが人々の生活に与える影響を完全に無視し、忘却し、思い違いをしていられるのです。」
ディープフェイクのリスクはソーシャルメディアをはるかに超えています
今日、最大のリスクはソーシャルメディアで共有されるものから来るかもしれません。しかし、まったく共有していない写真はどうでしょうか?
Google、Apple、Amazon、Metaなどはすべて、写真用のクラウドストレージを提供しており、無料の場合もあります。しかし、その利便性には代償が伴います。Googleは少なくとも2015年以来、黒人のカップルを「ゴリラ」と分類したことを謝罪(新しいウィンドウ)せざるを得なくなったときから、AIのトレーニングにお客様の写真を使用しています。それ以来、すべての主要なストレージプロバイダーは顔認識において大幅に改善しました。どうしてそうなったと思いますか?より多くの写真が絶えずAIに供給されているからです。
ビッグテック企業に保管されている何十億もの写真や動画は、いつか信じられないほど詳細で本物そっくりのディープフェイクを生成するための素材の宝庫となる可能性があります。
必要なのは、利用規約のひそかな変更だけです。
パスワードを守るように思い出も守りましょう
他人が自分の画像をどうするかをコントロールすることはできません。しかし、自分の画像がどこにあり、誰がそれにアクセスできるかはコントロールできます。Proton Driveは、最も重要な写真やファイルを保管するための、プライベートで暗号化された方法を提供します。
- エンドツーエンド暗号化:ファイルはデバイスを離れる前に暗号化されます。ビッグテック企業とは異なり、Protonでさえそれらを見ることはできません。
- デフォルトでプライベート:お客様のデータが販売されたり、共有されたり、AIのトレーニングに使用されたりすることはありません。
- 安全な共有:パスワードの追加、有効期限の設定、アクセスの取り消しがいつでも可能です。
- 自動バックアップ:携帯電話を紛失したり盗まれたりしても、思い出は安全に保たれます。
Proton Driveを使えば、お客様のデータは常にあなたのものです。






