AIの「アライメント問題」は、AIシステムがより知的になるにつれて、その目標を開発者の目標と一致させることがより困難になるという仮定に基づいています。AIシステムは、理論的には「暴走」し、目的を達成するために望ましくない予測不可能な戦略を考案する可能性があります。

ペーパークリップマキシマイザー(新しいウィンドウ)は、この概念を探求する思考実験です。超知能AIがペーパークリップを作成するという単一の目的を与えられた場合、あらゆる犠牲を払って目的を達成するために世界の資源を徴発し、すべてをペーパークリップに変えてしまうかもしれません。最終的には、AIを止めようとする人間は邪魔であると認識し、排除するかもしれません。これは明らかにAIと人間の利益の不一致です。

明らかに奇妙ですが、ペーパークリップ問題はAIにとってポップカルチャーのタッチポイントとなっています。現実には、制約とルールによって、システムが意図された目的を超えないようになっています。しかし、多くのビッグテックの創業者やCEOは、この仮説を利用して、自社の大規模言語モデル(LLM)の話題作りをしています。チャットボットは本当に人類を絶滅させる力を持っているのでしょうか?いいえ。しかし、そう言うことで彼らはすごく聞こえますし、さらに重要なことに、それは現在私たちを害している本当のAIアライメント問題を隠蔽します:ビッグテックのLLMは私たちのプライバシーを侵害し、データを盗み、情報経済の価値を下げています。それは販売戦略であり、誤魔化しでもあり、私たちが現在手放しているコントロールに目を向ける代わりに、未来に目を向けさせるように設計されています。

私たちはディストピアな未来に向かっているのでしょうか?

創設者が自社製品が「何ができるか」について広範で推測的な発言をする場合、それは主にビジネスチャンスを生み出し、株主にとっての価値を生み出すための手法です。LLMと生成AIはビジネス製品です。彼らのツールが革命的であるとあなたが信じることは、所有者の利益になります。

メディアは、AIツールがユーザーによる生物兵器の作成(新しいウィンドウ)を助ける可能性や、開発者に嘘をつく(新しいウィンドウ)可能性など、あたかも生成AIが独自の意志を持っているかのような(実際には持っていません)センセーショナルなストーリーを好んで取り上げます。極端な意見や根拠のない意見の見出しでクリックを獲得するのは簡単ですが、そのような見方は今日存在するAIテクノロジーを正確に描写していません。

代わりに、LLMは単なる単語予測マシンです。これらは、大量のテキストを消化し、人間の言語のパターンを「学習」し、ユーザーの入力に対して確率的な応答を構築するコンピュータープログラムです。彼らは独自の考えを持っておらず、言語を理解することさえありません。実際、情報を処理する前に、まず単語を数字に変換する必要があります。LLMの限界は、Gary Marcus(新しいウィンドウ)や他の多くの研究者によって十分に文書化されています。

監視資本主義のための新しいツール

LLMは黙示録を引き起こすことはありませんが、別のことには非常に長けています。それは、あなたに関する非常に詳細な情報を収集することです。だからこそ、LLMは企業にとってデータの宝庫であり、犯罪者にとって魅力的な標的(マーク)なのです。

LLMは、検索エンジンのように機能するChatGPT、Copilot、Claude、Grokなどのチャットボットを動かしています。表向きは、これらのチャットボットを好きなように使用できます。食料品リストの作成、カレンダーの整理、メールの作成、コードの記述に役立ちます。彼らはあなたのパーソナルアシスタント、先生、親友、またはあなたが求めたその他の何にでもなります。

世界中の何億人もの人々が、すでに自分の質問、アイデア、考え、そして最も深い秘密をチャットボットと共有しています。彼らは、それらを運営する企業によってそうするように奨励されています。OpenAIのCEOであるSam Altmanは、最近(新しいウィンドウ)、Z世代は「ChatGPTに何をすべきか尋ねずに人生の決断をすることはない」と指摘しました。営利目的で信頼性の低いチャットボットへのこのレベルの信頼と依存を呼びかけ、奨励することは非常に無責任です。Big Techは、彼らのサービスを通じて私たちの生活や思考を仲介することを望んでいます。そうすれば、私たちがどのようにお金を使い、何をし、何を考えるかに口出しできるようになるからです。

LLMの背後にある企業は、政府や企業向けの生産性向上ソリューションとしても製品を販売しており、ユーザーの時間と労力を節約することを約束する一方で、あなたが監視される新しい機会をもたらしています。英国では、法務省のAIシステムが囚人の再犯リスク(新しいウィンドウ)を「予測」しています。警察官はチャットボットを使用して(新しいウィンドウ)犯罪報告書を作成しています。国家権力と偏ったアルゴリズム(新しいウィンドウ)を組み合わせることは危険であり、既存の偏見を強化します。

トレーニング目的でのデータの悪用

LLMは膨大なデータセットでトレーニングされたAIモデル上で実行され、サービスを改善するためにはますます多くのデータを必要とします。残念ながら、このデータはあなたから来ています。あなたのチャット、写真、ウェブ検索です。企業は常に許可を求めたり、何を集めているかをクリアにするわけではありません。

たとえば、Meta AIは、顔データを分析するために、プラットフォームにまだアップロードしていないライブラリ内の写真をスキャン(新しいウィンドウ)したいと考えています(新しいウィンドウ)。多くのユーザーは、MicrosoftのCopilot AI(新しいウィンドウ)が数分ごとにデバイスのスクリーンショットを撮るという発表に動揺しました。あなたの写真、友人や愛する人へのメッセージ、そして最も個人的な思考は、企業が欲しがる貴重なデータポイントです。

OpenAIのプライバシーポリシー(新しいウィンドウ)を見ると、ChatGPTが以下を見つけて保管することがわかります:

  • 名前、連絡先の詳細、IPアドレス、その他のデバイス識別子などの識別子
  • 取引履歴などの商業情報
  • コンテンツやChatGPTとのやり取りなどのネットワークアクティビティ情報
  • ChatGPTにアクセスする大まかな位置

この情報は、政府、ベンダー、関連会社、サービスプロバイダー、およびその他の第三者に開示される可能性があります。

基本的に、LLMはあなたのことを知るようになります。検索エンジンと同じように、あなたの習慣、設定、興味、そして行動から収集できるあらゆる側面を理解するようになります。Big Techは、利益になるため、常にあなたの個人データを取得する新しい方法を見つけることを優先します。そして、彼らはあなたが気づかないことを望んでいます。

ここ数年ソーシャルメディアを席巻したトレンドを考えてみてください。カスタムスタジオジブリ風アニメーション(新しいウィンドウ)は、宮崎駿の独特なスタイルを本人の意思に反して模倣し、バービーのような古典的なおもちゃに触発されたカスタムAIパッケージ人形(新しいウィンドウ)は、人々の個人的な好みに関する視覚的な洞察を生み出しました。このソーシャルメディアのトレンドは無害な楽しみのように感じられたかもしれませんが、これらの画像の作成に使用されたAIツールは、親会社が広告目的に使用したり、潜在的に第三者に販売したりできる人々の写真や情報を収集することができました。これらは、一時的なトレンドへの参加と引き換えにBig Techが静かに個人データを摂取している多くの例の2つにすぎません。

LLMのためのより良いソリューションがあります

これらすべてのリスクについて読んだ後、LLMは本質的に危険だと思うかもしれません。しかし、そうではありません。Big Tech企業は、侵襲的でデータを貪欲に求めるようにAIシステムを意図的に構築しました。人々のプライバシーを保護し、デフォルトでデータを安全に保つAIを構築することは可能です。私たちは、プライバシー優先のAIアシスタント(新しいウィンドウ)であるLumoでそれを実現したので、それがわかります。

Lumoが真のAIアライメント問題を解決する方法は次のとおりです:

  • Lumoは会話のログを保持しません。モデルがクエリと応答の処理を完了するとすぐに、すべてのチャットがサーバーから削除されます。
  • チャット履歴はゼロアクセス暗号化で保管済みとなります。秘密鍵でデータをロックすることで、Protonはアクセス権を持つことはなく、データを共有したり誤って漏洩したりすることも決してありません。
  • 私たちはあなたのチャットでモデルをトレーニングしません。会話を使用してAIモデルをトレーニングすると、将来の出力でデータが再表示されるリスクがあります。Lumoとの会話はあなただけのものです。
  • Lumoはオープンソースであり、オープンソースモデルのみを使用しています。コードベースが公開されているため、誰でも私たちのアプリが主張どおりに機能することを検証できます。
  • 私たちはプライバシーを尊重する法域に拠点を置いています。侵襲的な監視法の対象となる米国拠点のBig TechのAIとは異なり、Lumoはヨーロッパに拠点を置き、強力なプライバシー法によって保護されています。

あらゆるレベルで、Lumoはリスクのある外部性なしに他のLLMと同じ有用性を提供するように設計されています。Big Techも同じ方法でAIを構築できるはずです。あなたのデータが彼らの通貨であるため、彼らは単にそうしないことを選択しているだけです。

AIアライメントは本当に脅威ですか?

真実は、Big TechのCEOたちが私たちに信じさせたいことよりも単純に刺激的ではありません。AIが人々に生物兵器の作成を可能にしたり、ペーパークリップを作るために世界のすべての資源を使い果たしたりする可能性は、AIが単にBig Techがすでに従っている指令に従う可能性よりも低そうです。つまり、プライベートデータの盗用と悪用です。

AIアライメントに関する誇大宣伝を信じないでください。それは私たちが注目すべき脅威ではありません。監視、個人や中小企業の搾取、そして侵害された情報エコシステムこそが、AIに関して私たちが実際に注意を払うべき差し迫った懸念事項です。