人工知能の使用が増えるにつれて、AI アシスタント(新しいウィンドウ)は信頼できるパートナーになりつつあります。何百万人もの人々が ChatGPT、Claude、Gemini、DeepSeek などのチャットボットを利用して質問し、問題を解決しています。彼らのクエリは、健康上の懸念についての質問、クライアントデータの共有、または感情的なサポートや創造的なインスピレーションの追求など、非常に機密性が高い場合があります。
多くの人にとって、これらのチャットボットは人間的で、反応が良く、機密性が高いと感じられます。しかし、最近の動向(法的命令により OpenAI は ChatGPT の出力データを無期限に保存することを強制(新しいウィンドウ)され、OpenAI の創設者である Sam Altman は ChatGPT が「法的機密性を提供しない(新しいウィンドウ)」と述べています)は、入力したすべての言葉がログに記録、保管、分析され、場合によっては悪用されたり、サードパーティに漏洩したりするリスクに光を当てています。
それが何を意味するのか、そしてなぜ私たち全員が懸念すべきなのかを説明します。
AI ではリスクが高まる
AI アシスタントの台頭は新たなフロンティアのように感じられますが、多くの点で、私たちは以前にも同じような状況にありました。AI チャットログを取り巻く懸念は、検索エンジンの初期に浮上した懸念と呼応しており、その多くは根拠のあるものでした。検索ログは、収益性の高い広告ターゲティングプロファイルの構築に使用され、データ侵害で公開され、裁判所で召喚状が出されました。
AI では、データがより個人的で詳細であるため、リスクは高くなります。答えを求めて検索エンジンから AI チャットボットに転向する人が増えており、2026年までに検索エンジンの使用量が25%減少するという予測(新しいウィンドウ)があります。通常は短く断片的なクエリをキャプチャする検索バーとは異なり、チャットボットへの質問は、質問者が他の人と話しているかのように構成されており、その過程で自分自身についてより多くのことを明らかにします。1回の会話に、個人的な考え(新しいウィンドウ)、感情的な葛藤、健康上の懸念(新しいウィンドウ)、経済的な不安、さらにはフルネームや住所が含まれている場合があります。
要するに、チャットログは、検索エンジンログよりもはるかに豊かで親密なアイデンティティのマップを提供し、プライバシーにはるかに大きな影響を与えます。ビッグテックはチャットログにアクセスし、それを使用してあなたの心理的プロファイルを構築し、政府に開示したり、ターゲット広告に使用したりできます。例えば、Meta は AI チャットデータを使用してパーソナライズされた広告を作成しています。
「匿名」チャットが常にそうであるとは限らない
チャットログのプライバシーを心配することに対する一般的な反論は、データの量が膨大であるため、特にユーザーがログインしていない場合、個人の悪用は考えにくいというものです。しかし、最近の歴史は別の物語を語っています。
7月、記者は ChatGPT での10万件以上の会話(新しいウィンドウ)が Google によってインデックス化され、検索可能になっていることを発見しました。「共有」ボタンをクリックして会話を友人や同僚に送信したユーザーは、自分のプライベートな会話がインターネット上の誰にでも見えるようになるとは思っていなかったはずです。
この例は警告です。いわゆる「匿名」データが匿名であることはめったにありません。IP アドレス、タイムスタンプ、デバイスフィンガープリント、セッション ID や cookie ID と組み合わせると、これらのログははるかに識別可能になります。
チャットがどのように内面をさらけ出すか
人気のあるAIプラットフォームであるChatGPT(新しいウィンドウ)、Gemini(新しいウィンドウ)、DeepSeek(新しいウィンドウ)はすべて、ユーザーのチャットログはモデルのパフォーマンス向上に役立てるために使用され、広告やユーザープロファイリングのためにデータを「販売」することはないと明言しています。しかし、OpenAIの法廷闘争が示すように、ポリシーは一夜にして変わる可能性があります。
たとえば、Anthropicは2025年8月、プライバシーポリシーを予告なしに更新(新しいウィンドウ)し、データ保持期間を延長しました。ログが無期限に保管されることで、かつては利用不可と思われていた個人データが、突然利益を生む源泉となる可能性があります。
そのような事態は今回が初めてではありません。1998年にGoogleが立ち上げられた際、共同創業者のセルゲイ・ブリンとラリー・ペイジは、広告ベースの検索エンジンは必然的に「広告主に偏り、消費者のニーズから離れてしまう」と警告(新しいウィンドウ)していました。その10年後、Googleは検索履歴を利用してターゲット広告を配信し始めました(新しいウィンドウ)。
人々の内面生活に直接アクセスできるAIログは、広告ターゲティングを極限まで推し進める可能性があります。感情的なサポートを求めてチャットボットを利用する(新しいウィンドウ)ユーザーが増える中、誰かが次のように打ち明けるかもしれません。
- 「最近、精神的に追い詰められていて孤独を感じる。」
- 「私はうつ病だと思いますか?」
- 「来月の家賃が払えない場合、どうすればいいですか?」
これらの言葉は単なるキーワードややり取りの集まりではなく、感情や状況を示すクリアな指標です。これらが保管および分析されれば、心理プロファイルを作成し、ユーザーの意思決定を操作するために利用される可能性があります。
そのような親密で機密性の高い情報が搾取的な目的で使用される可能性があると示唆することは、決して大げさではありません。なぜなら、ビッグテック企業はまさにそれを行ってきたからです。2017年、Facebookは感情的に不安定な十代の若者(新しいウィンドウ)が不安を感じている瞬間に広告をターゲットにする方法を模索することで、いかなるやり取りも聖域ではないことを実証しました。
チャットボットのログは、お客様の精神を覗く窓です。そして、そのレベルのアクセスは、データの使用とアプリに関するクリアなガイドラインや規則がまだ存在しないこの分野において、重大なプライバシーおよび倫理上の懸念を引き起こします。
ユーザーにとっての法的リスク
検索履歴は長い間、犯罪捜査や裁判において役割を果たしてきました。オンラインでの検索クエリが有罪判決につながった例は多数あり、特に米国のMoira Akers対State裁判が有名です。
2018年に死産を経験した後、Akers氏は殺人の罪で起訴され、2022年に懲役30年の判決を受けました。検察側の主張の重要な部分は、Akers氏が妊娠初期に行った中絶に関するインターネット検索でした。検察によれば、これらの検索はAkers氏の意図を示す証拠であるとされましたが、実際には彼女は妊娠期間を全うしていました。メリーランド州最高裁判所は2025年に彼女の有罪判決を破棄し、検索クエリの証拠能力を否定する判決を下しました(新しいウィンドウ)。しかし、Akers氏はすでに3年近くを刑務所で過ごしていました。この事件は、たとえそれを否定する証拠があったとしても、保管されたログがいかにして不利なストーリーを作り上げるために利用され得るかを浮き彫りにしています。
法的証拠の対象となり得る、保管されたAIチャットの場合、リスクはさらに高くなる可能性があります。検索クエリとは異なり、これらのやり取りはより会話的であり、LLM(大規模言語モデル)から特定の種類の反応を引き出すための推測的な内容を含むことさえあります。AIとのプライベートで無実のやり取りが、当時の意図とは無関係に、後に法的な場で有罪の証拠として解釈される可能性があります。
操作のための強力なツール
チャットボットのログを見ることができる者は、個人の習慣、感情的な引き金、人間関係のダイナミクス、さらには職業上の脆弱性など、詳細な行動の青写真にアクセスできます。悪意ある者の手に渡れば、このデータはソーシャルエンジニアリング(心理操作を含む一般的なハッキング手口)のための強力なツールとなります。
このリスクは仮定の話ではありません。2025年1月、AIプラットフォームであるDeepSeekは巨大なデータベースをオンライン上にさらけ出しました(新しいウィンドウ)。この侵害には、100万件以上のAIチャットログとAPIキーが含まれており、場所を知っていれば誰でもアクセスできる状態でした。流出したデータの中には、家族、財政、機密プロジェクトに関する議論が含まれている可能性のあるプレーンテキストの会話もありました。これらの情報は、詐欺、恐喝、またはユーザー情報の盗難に容易に悪用される可能性があります。
一度漏洩すると、このデータはお客様になりすましたり、お客様を操作したりするための武器として使われる可能性があります。過去の会話から引き出された個人的な詳細を参照することで、攻撃者は信頼を得て、それを悪用し、深刻な金銭的またはセキュリティ上の脆弱性を作り出すことができます。
政治的監視の脅威
独裁政権下では、保管されたデジタルのやり取りがもたらす結果ははるかに深刻になる可能性があります。たとえば、ユーザーの個人情報が運営者によってどのように取り扱われるかというセキュリティ上の懸念から、中国拠点のAIプラットフォームDeepSeekの政府デバイスでの使用(新しいウィンドウ)を禁止した国がいくつかあります。韓国、オーストラリア、台湾は、このデータが中国当局によってアクセスされ、監視に使用される可能性があるとの懸念を表明しました。
反体制派、活動家、またはジャーナリストにとって、これは単なるプライバシーの問題ではなく、安全に関わる問題です。抗議する権利、メディア法、または亡命ルートに関する一見何気ないチャットが、言論の自由や市民的自由の保護が限定的な司法管轄区では、有罪の証拠として解釈される可能性があります。
知的財産への脅威
2023年、Samsungのエンジニアは、クエリがプライベートであると誤解し、ある問題をデバッグしようとして独自のソースコードを誤ってChatGPTにアップロード(新しいウィンドウ)してしまいました。一度送信されると、そのデータはOpenAIのトレーニングシステムの一部となり、AIツールと共有される知的財産のセキュリティと所有権に関する懸念を引き起こしました。
この記事の冒頭で触れた、The New York TimesがOpenAIを訴えた(新しいウィンドウ)注目の著作権裁判でも、関連する懸念が浮上しました。この裁判では、同社が許可なく数百万件の新聞記事をモデルのトレーニングに使用したという申し立てを受け、OpenAIに対しChatGPTの全出力データを無期限に保存するよう命じる裁判所命令が出されました。この裁判はOpenAIのウェブクローラーによるニュースコンテンツのスクレイピングを中心としていますが、AIプラットフォームにオリジナルの作品を提供するクリエイター(作家、デザイナー、ミュージシャンなど)にとって、より広範な問題を提起しています。
ユーザーが送信したコンテンツがモデルによって保持され再利用される場合、独自の素材やクリエイティブな素材が、帰属表示や同意なしに他のユーザーに再配布されるという現実的なリスクがあります。これはユーザーの貢献とAIトレーニングデータの境界を曖昧にし、生成AI時代における著作者人格権と所有権に関する緊急の疑問を投げかけています。
何を変えるべきか、そして身を守る方法
ほとんどの人は実生活でのプライバシーを望み、期待しています。私たちは、同じ期待が人々のデジタルライフにも適用されるべきだと信じています。私たちは、友人にメールを送るときも、お気に入りの番組をストリーミングする(新しいウィンドウ)ときも、あるいは写真をバックアップするときも、誰もがオンラインプライバシーを利用できるようにする一連の暗号化済みサービスを構築しました。インターネット初期の過ちを正すのに遅すぎることはありません。また、AIはまだ初期段階にあるため、お客様のプライバシーを尊重するこの技術のために新たな針路を描く時間はまだ残されています。
私たちは、設計段階から主要な保護機能を維持する方法で、AIアシスタント(新しいウィンドウ)Lumoを構築しました。
- データログなし:ユーザーは、送信内容が保管されたり、利益のために使用されたり、自分に不利に使用されたりする心配をすることなく、チャットボットと関わることができるべきです。
- モデルトレーニングなし:プライベートなチャットは、決してトレーニングデータとして悪用されるべきではありません。なぜなら、後でモデルの出力に再登場するリスクがあるからです。
- データ取り扱いの透明性:保管済みのユーザーデータがどのように使用されるか、誰がそれにアクセスできるか、どこに保管されるか、どのくらいの期間保持されるか、そしてどのように削除できるかがクリアであるべきです。
- ゼロアクセス暗号化(デフォルト):会話はユーザーの暗号鍵を使用して保護されるべきであり、AIプロバイダーでさえアクセスできないようにします。
データを密かにログ記録するチャットボットの危険性は現実的で差し迫ったものですが、私たちは無力ではありません。プライバシー第一のAIツールを選び、その作成者に透明性と説明責任を求めることで、私たちは力の均衡をユーザーの手に取り戻し、プライバシーは特権ではなく権利であるという信念を再確認することができます。






