AIは定着しつつあり、企業はその力を利用してビジネスを推進する方法を模索し始めたばかりです。毎日、企業は数え切れないほどのワークフローにAIを統合しようと急いでいます。ドキュメントの要約、レポートの自動化、予測分析の作成、チャットボットによるサポート提供などに使用されています。これらの変化は急速に起きており、大企業から中小企業まで新たな扉を開いていますが、同時に企業の貴重な独自データを新たなリスクにさらす可能性もあります。

企業が機密情報をAIにアクセス可能にする際、この情報が大規模言語モデル(LLM)のトレーニングデータとして再利用またはインデックス化される可能性があるかどうかは必ずしも明確ではありません。また、AIツールによって機密情報が意図せず漏洩した例も数多くあります。これらは単なるプライバシーの懸念ではありません。保管済みファイルにAIツールを使用する前に、どの企業も考慮しなければならないセキュリティリスクです。

知らない間にAIがファイルを危険にさらす方法

AIは指数関数的な速度で進化し、普及しました。ほとんどの人はChatGPTやClaudeのようなチャットボットに最も馴染みがありますが、ビッグテックはコンテンツを取り込み、インデックス化し、要約できる生成AIシステムをスプレッドシート、ドキュメント、メールサービスに統合しています。この統合は強力な機能をもたらしますが、ほとんどの人が気づいていない重大なリスクももたらします。

2025年のAIセキュリティ調査(新しいウィンドウ)によると、Excel、Word、SharePointなどのツールに埋め込まれているMicrosoft Copilotは、今年上半期だけで1組織あたり300万件近くの機密記録にアクセスしました。また、機密性の高いビジネス情報が漏洩する可能性のあるCopilotとのやり取りが、組織あたり平均3,000回以上あったことも判明しました。さらに、Googleの調査によると、テクノロジー業界の労働者の90%(新しいウィンドウ)がコードの記述や修正にAIを使用しています。これらの数字が誇張されているとしても、組織は脅威モデルにAIツールを考慮に入れる必要があります。

これは新しいタイプのセキュリティリスクです。これらのファイルは外部と共有されていませんでした。実際、全く共有されていなかったかもしれません。しかし、それらはCopilotがアクセスできるファイルに保管されていたため、そこに含まれる情報はユーザーが気づかないうちに収集されていた可能性があります。

これは深刻な影響をもたらす可能性があります。スイス(新しいウィンドウ)の警察(フランス語のソース)や米国のFBI(新しいウィンドウ)は、すでに捜査の一環としてChatGPTのログを使用していることが判明しています。ビッグテック企業の例が参考になるとすれば、AI企業も間もなく米国やEU政府から何十万ものデータ要求を受け取ることになると予想されます(まだ受け取っていないとしても)。

AIツールがこれほど深く日常使用するアプリケーションに埋め込まれている場合、安全なデータストレージは非常に困難です。企業のドライブに保管されたファイルは検索可能、要約可能、そして最終的には脆弱になり、アクセス、許可、監視という従来のセキュリティ概念を曖昧にします。

Google WorkspaceとGeminiはどうなのか?

これらのリスクはMicrosoft Copilotに限ったことではありません。Google Workspaceも同様に、AIツールであるGeminiをドライブ、シート、ドキュメントに直接統合しています。

多くの企業は、Gemini統合を備えたGoogle Workspaceを強力なデフォルトとして検討するでしょう。Google自身のサイト(新しいウィンドウ)によると、「お客様のデータは人間によってレビューされることはなく、許可なくドメイン外での生成AIモデルのトレーニングに使用されることもありません。」

しかし、GoogleがAIシステムのトレーニングに情報を使用する際のルールは、グレーゾーンを生み出し、疑問を抱かせるような形で概説されています:

  • Googleは現在、オプトアウトしない限り、デフォルトでGeminiのトレーニングに消費者のチャットやファイルのアップロードを使用しています
  • Google Gemini(新しいウィンドウ)のサポートページは、Geminiアプリと共有された情報は人間によってレビューされ、AIをトレーニングするためのデータセットとして使用される可能性があると警告しています。
  • Geminiのプライバシー解説の中で、Googleはユーザーに対し(新しいウィンドウ)機密情報を共有しないよう警告しています。
  • 企業のドキュメントには、「許可なく」といった解釈の余地を残す表現があります。
  • セキュリティベンダーは、特にAI機能がファイルストレージ、検索、ワークフローツールにさらに緊密に統合されるにつれて、ビジネスデータがトレーニングの入力となり得る条件にフラグを立てています。

Geminiがドライブ、ドキュメント、シートに統合されている場合、この不明確さは懸念事項です。これは単にファイルの共有ミスの問題ではなく、これらのファイルがどのようにして意図せずAIワークフローの一部になるかという問題です。AIはプロンプトや出力をどのように取り込み、インデックス化し、分析し、保管するのでしょうか。そしてそれらのログは依然として組織の管理下にあるのでしょうか?

Google Workspaceのように適切に統制されたシステムであっても、非プライベートでクローズドソースです。このようなシステムは多くのリスクを軽減するかもしれませんが、機密性の高いデータを保有する企業にとって、必要とされる信頼レベルは依然として高すぎる可能性があります。

ビジネスに適したプライベートなAIを見つける方法

AI対応システムにアップロードまたは共有するすべてのファイルは、攻撃対象領域を広げます。単にファイルをクラウドストレージにアップロードするだけでも、サービスやプランによっては、それらのファイルがAIトレーニングにさらされる可能性があります。それらのアップロードが、お客様が認識していない、または制御できない方法でデータ保持、インデックス化、またはアクセス可能になっている場合、独自の価値が危険にさらされます。

ビジネス用のAIツールを選択する前に、そのツールやファイルストレージシステムが重要なデータを保持または公開しないことを保証できるかどうかを尋ねる必要があります。

ビジネスAIツールに対して行うべき2つの具体的な要求は以下の通りです:

  • ゼロデータ保持:AIシステムは、明示的に必要とされない限り、ビジネスセッションを超えてプロンプト、応答、またはファイルのアップロードをログに記録したり保管したりしてはなりません。また、それらのログはビジネスの完全な管理下にあるべきです。
  • 外部トレーニングなし:ビジネスのデータ(保管済みファイルを含む)は、ビジネスドメイン外の他のモデルのトレーニングに使用されたり、テナント間で共有されたりしてはなりません。

今できること

適切なツールを選択する前に、状況を評価し、すでに機密データを意図せず公開していないか確認する必要があります:

  • AIファイルストレージのリスク監査を実施する:AIツールが接続するすべての共有ドライブ、チームフォルダー、クラウドストレージを特定し、どのツールがそれらのファイルを取り込み、インデックス化しているかをマッピングします。
  • AIへのファイル取り込みに関する明確なガバナンスポリシーを定義する:どのAIツールが承認されているか、どのファイルタイプが許可されているか、リポジトリファイルのインデックス化がオフになっているかなどを指定します。
  • 厳格な制御を備えたプライベートAIを提供するベンダー/ソリューションを要求する:「ログなし、トレーニングなし、共有なし」を基準として提供するAIアシスタントを選択します。
  • 「シャドーAI」、つまりセキュリティチームの枠組み外でAIを使用している個々のチームメンバーや、AIツールへの不正なファイルのアップロードを監視および制限します。データ損失防止(DLP)やIDおよびアクセス管理(IAM)の実践、監査ロギングを通じてこれを強制します。
  • ビジネスモデルがデータの販売や抽出に依存していないベンダーを選択します。これにより、ベンダーのインセンティブが常にお客様のデータの安全維持と一致することが保証されます。

ProtonはリスクなしでAIの生産性を提供

機密情報を知らずに手渡したいと思う企業はありません。だからこそ、Proton for Businessツールは、誰が情報にアクセスできるかをお客様が管理できる強力な暗号化を中心に構築されています。

Proton Driveはすべてのファイルにエンドツーエンド暗号化を使用しているため、お客様が共有しない限り、Protonを含め誰もそれらにアクセスできません。これにより、ファイルがAIにさらされたり、AIのトレーニングに使用されたりするのを防ぎます。Proton Driveでは、共有リンクをパスワードで保護したり、ワンクリックでアクセスをオフにしたりする機能も提供されており、お客様が管理権を保持できます。

また、お客様のためだけに働き、その逆はないプライベートAIアシスタント、Lumo for Businessも構築しました。ログは保持されず、すべてのチャットとアップロードしたファイルは暗号化されるため、Lumoはお客様の会話を内密に保ち、データを完全に管理下に置きます。共有されたり、販売されたり、盗まれたりすることはありません。

Protonでは、すべての製品をプライバシーバイデザインで構築しています。企業は、最も機密性の高い情報が保護されたままであることを確信し、安心してファイルを保管し、AIを使用できるべきです。

ビッグテックとは対照的に、Protonはお客様のデータを販売して収益を得ることはありません。私たちは広告主ではなく、コミュニティのみにサポートされています。また、プライバシーに配慮したヨーロッパに拠点を置くことで、お客様への約束を確実に果たすための法的保護を得ています。最も重要な点は、私たちの所有者が非営利団体Proton Foundationであり、その唯一の使命はプライバシーと自由を促進することです。

Lumo for Business(新しいウィンドウ)を使用することで、データが悪用されるリスクなしに、高度なAIアシスタントのメリットを享受できます。