ビッグテック企業は、私たちの私生活を商品化することで数兆ドル規模の帝国を築き上げました。人工知能は、私たちが毎日使用するツールに統合されることで、彼らの監視資本主義ビジネスモデルを大幅に強化しています。多くの場合、明確な説明もオプトアウトする機能も提供されません。

強力な大規模言語モデル(LLM)は、以前は想像もできなかったほど詳細なデータを収集し、お客様について多くのことを推測します。AIは、検索から写真ストレージ、さらにはデバイスのオペレーティングシステムに至るまで、幅広いプラットフォームに統合(新しいウィンドウ)されており、このデータ収集を把握することはおろか、同意することさえ困難になっています。これにより、Google、Meta、Microsoftなどの企業は、より包括的な個人プロファイルを構築し、データからより多くの利益を上げ、お客様が見る情報や物語に対してより多くの制御を行使できるようになります。

これらの企業は、お客様のプライベートな情報をデータブローカーやその他の第三者と共有または販売することができます。政府は、召喚状を通じてこのデータを利用(新しいウィンドウ)したり、さらに密かな形式の監視を行ったりすることができます。また、ChatGPTのようなサービスで何度も(新しいウィンドウ)繰り返されている(新しいウィンドウ)ように、データ侵害によって個人データがさらされる可能性もあります。

その結果、同意を得たり技術の結果を考慮したりするための企業への規制がさらに少ない状態で、急速かつ大規模なデータ収集が行われています。AIを取り巻くデータ保護法は、業界に大きく遅れをとっている(新しいウィンドウ)ことで有名です。

私たちは早急にプライベートな代替手段を必要としています。そのため、会話の記録を一切保持しない新しい機密AIアシスタント、Lumo(新しいウィンドウ)を構築しました。保存されたチャットはゼロアクセス暗号化によって保護され、お客様のみが利用できます。データに関しては、お客様には選択肢があります。しかし、より多くの人々が現状のリスクを理解する必要があります。

AIはビッグテックをさらに強力にする

AIにより、GoogleやMetaは、特に広告や個人データの搾取における既存の独占を、より速く、より大規模に拡大し、強固なものにすることができます。

たとえばMetaは、広告ビジネスを活性化させるためにAIを深く統合し、投稿をスキャンしたり、Meta AIを追加(新しいウィンドウ)してWhatsAppのようなエンドツーエンド暗号化チャット製品に組み込んだりして、プラットフォームからより多くの個人データを吸い上げようとしているようです。Googleは広告ビジネスでAIファースト(新しいウィンドウ)に移行しており、すべての広告が個人的に操作されるように最適化されています。そしてGoogleのGeminiは現在、エコシステム全体に深く統合されており、AIがAndroid携帯やGoogleアプリからデータを収集することを自由に許可しています。

AIは検索に似ていますが、はるかに親密で、生活に深く根ざしています。検索追跡が単純なクエリとクリックを使用して興味を予測するのに対し、AIは自然言語処理や画像認識さえも使用して、お客様に最も深く響くブランド、メッセージ、感情、イメージを予測します。検索エンジンでは決して起こらなかったことですが、人間とのつながりを極めて忠実に模倣できるため、AIチャットボットに感情移入(新しいウィンドウ)する人々さえいます。

ある広告代理店は、AIを活用した広告はクライアントに「感情や好みを測定」し、「画像や動画などの視覚データを処理してブランドロゴや製品の使用状況を特定し、コンテキスト固有の広告ターゲティングを可能にする」力を与える「地殻変動」であると豪語(新しいウィンドウ)しています。美容製品が友人に不安を打ち明けた瞬間に子供をターゲットにしたり、政治家がAIに最適化された広告を展開(デプロイ)して有権者のプライベートな恐怖につけ込んだりできるとしたら、と想像してみてください。

ビッグテックはすでに政府よりも強力です。野放しのAIを使って彼らが何を成し遂げられるか想像してみてください。

チャットが漏洩しています

プライバシーが危機に瀕していますが、安全性も同様です。AIは、さまざまな方法でさらされる危険性が高まっている、親密な情報の巨大で集中化されたプールを作成します。

これはすでに起こっています:

個人データが企業のサーバー上でエンドツーエンドまたはゼロアクセス暗号化なしで保存(保管済み)される場合、そのデータは常に漏洩する脆弱性があります。チャットログは、ハッカー、そして政府にとって信じられないほど魅力的な標的です。米国の裁判所はすでにOpenAIに対してすべてのユーザーチャットログを保持するよう命令(新しいウィンドウ)しており(同社は現在これと戦っています)、そのデータは要求に応じて政府が利用できるようになります。米国はすでに、令状なしの盗聴からビッグテック企業に従うよう義務付けられているデータ要求まで、ユーザーを密かにスパイするさまざまな方法を持っています。

AIシステムがデータを吸収すればするほど、偶発的な漏洩、偏った出力、または政府の圧力によって明らかになるリスクが高まります。

単なるデータではなく、影響力です

言うまでもないことですが、広告であなたをターゲットにしている企業や政治工作員は、あなたの最善の利益を考えているわけではありません。

AIはその操作をまったく新しいレベルに引き上げます。無視することを選択できるマスメディアとは異なり、AIは日常生活に織り込まれており、質問に答えたり、望んでもいないアプリ内提案を提供したりします。それは単に受動的ではなく、能動的です。そして、特定の意図を持つ企業によって構築されたり、政府によって悪用されたりすると、それは信じられないほど強力で危険なものになります。

私たちはすでにそれがどのようなものかを目にしています。中国では、DeepSeekが政治的に敏感な話題を回避または消去することが示されています。天安門事件について尋ねると、壁にぶつかります(新しいウィンドウ)。それはAIが知らないからではなく、その管轄区域では教えることが許可されていないからです。

これは中国特有の問題ではありません。イーロン・マスクのGrokチャットボットは、明確な政治的立場をとり(新しいウィンドウ)、内部の「ダイヤル」の設定によってまったく異なる出力を提供することで眉をひそめさせました。また、回答を共有する前に、トピックに関するマスク自身の意見を参照する(新しいウィンドウ)ことも判明しています。これは、AIのガイダンスがいかにして特定の視点を(巧妙に、あるいはそうでなく)押し付けるように形成され得るかを示しており、一次情報を確認せずに教育や情報のためにAIに依存するようになるにつれて、ますます問題になるでしょう。

では、AIがあなたの見るもの、考えること、感じることを形成しているとしたら、誰があなたが得る真実のバージョンを決定するのでしょうか?

利益ではなく、人々のために構築されたAI

ビッグテックや権威主義的な政治によって形成されず、ハッカーや漏洩からデータを保護するAIを望むなら、何か違うものを構築する必要があります。それは、下心や隠された意図のない、プライベートで独立したAIツールをサポートすることを意味します。

Lumoはその方向への一歩です。シリコンバレーの投資や外国の監視なしにヨーロッパで構築され、コミュニティのプライバシーを促進することを憲章で義務付けられている非営利団体Proton Foundationによって監督されています。2014年にCERNで出会った科学者たちによって会社が設立されて以来、私たちは投資家や広告主ではなく、専らユーザーから資金提供を受けてきました。これにより、私たちの価値観と使命は、私たちが奉仕する人々と一致し続けることが保証されます。

私たちはLumoをデフォルトでプライベートになるように設計しました。つまり、チャットログは保持されず、チャットはゼロアクセス暗号化で保管済みとなるため、あなただけが見ることができます。Lumoはオープンソースモデル上にも構築されており、データがAIのトレーニングに使用されることはありません

Lumoはほんの始まりに過ぎません。AIが利益や権力ではなく人々に奉仕する未来を望むなら、私たちはそれを要求しなければなりません。今日、プライベートな代替手段を選択することで、より透明で、より民主的で、権利を尊重するインターネットの形成に貢献することになります。ツールはここにあります。選ぶのはあなたです。