ИИ пришел всерьез и надолго, и компании только начинают понимать, как использовать его мощь для развития своего бизнеса. Каждый день компании спешат интегрировать ИИ в бесчисленные рабочие процессы: он используется для резюмирования документов, автоматизации отчетов, создания прогнозной аналитики и предоставления поддержки с помощью чат-ботов. Эти изменения происходят быстро и открывают новые двери для большого и малого бизнеса, но эти изменения также потенциально подвергают ценные проприетарные данные компаний новым рискам.

Когда компании делают свою конфиденциальную информацию доступной для ИИ, не всегда ясно, может ли эта информация быть повторно использована или проиндексирована большими языковыми моделями (LLM) в качестве обучающих данных. Существуют также многочисленные примеры непреднамеренного раскрытия конфиденциальной информации инструментами ИИ. Это не просто проблемы конфиденциальности; это риски безопасности, которые любая компания должна учитывать, прежде чем использовать инструменты ИИ для своих сохраненных файлов.

Как ИИ может подвергнуть ваши файлы риску без вашего ведома

ИИ развивался и распространялся экспоненциальными темпами. В то время как большинство людей лучше всего знакомы с чат-ботами, такими как ChatGPT или Claude, бигтех интегрирует системы генеративного ИИ, которые могут поглощать, индексировать и резюмировать контент, в сервисы электронных таблиц, документов и электронной почты. Эта интеграция дает мощные возможности, но она привносит значительный риск, о котором мало кто знает.

Согласно опросу по безопасности ИИ 2025 года(новое окно), Microsoft Copilot, встроенный в такие инструменты, как Excel, Word и SharePoint, получил доступ к почти 3 миллионам конфиденциальных записей на организацию только за первую половину года. Он также обнаружил, что организации в среднем совершали более 3 000 взаимодействий с Copilot, в ходе которых конфиденциальная бизнес-информация могла быть раскрыта. А исследование Google показало, что 90% работников(новое окно) в технической отрасли используют ИИ для написания или изменения кода. Даже если эти цифры завышены, организациям необходимо учитывать инструменты ИИ в своей модели угроз.

Это новый тип риска безопасности. Этими файлами не делились с внешним миром. На самом деле, ими, возможно, вообще не делились. Но поскольку они хранились в файлах, к которым Copilot мог получить доступ, содержащаяся в них информация могла быть собрана без ведома пользователей.

Это может иметь серьезные последствия. Полиция в Швейцарии(новое окно) (источник на французском) и ФБР в США(новое окно) уже были замечены в использовании журналов ChatGPT в рамках своих расследований. Если пример бигтеха показателен, можно ожидать, что ИИ-компании скоро будут получать сотни тысяч запросов данных от правительств США и ЕС, если это еще не происходит.

Безопасное хранение данных невероятно сложно, когда инструменты ИИ так глубоко встроены в приложения, которые вы используете каждый день. Файлы, хранящиеся в корпоративных хранилищах, становятся доступными для поиска, резюмирования и, в конечном счете, уязвимыми, размывая традиционные концепции безопасности доступа, разрешений и надзора.

А как насчет Google Workspace и Gemini?

Эти риски не ограничиваются Microsoft Copilot. Google Workspace аналогичным образом интегрирует свой инструмент ИИ, Gemini, непосредственно в Google Drive, Таблицы и Документы.

Многие предприятия, вероятно, будут рассматривать Google Workspace с интеграцией Gemini как надежный вариант по умолчанию. Согласно собственному сайту Google(новое окно): «Ваши данные не просматриваются людьми и не используются для обучения моделей генеративного ИИ за пределами вашего домена без разрешения».

Однако правила, которые Google использует для получения информации для обучения своей системы ИИ, изложены таким образом, что создают серую зону и вызывают вопросы:

  • Google теперь действительно использует чаты потребителей и загрузки файлов для обучения Gemini по умолчанию, если от этого не отказались.
  • Страницы поддержки Google Gemini(новое окно) предупреждают, что информация, которой делятся с приложениями Gemini, будет просматриваться людьми и может быть использована в качестве набора данных для обучения ИИ.
  • В своем пояснении о конфиденциальности Gemini Google предупреждает пользователей(новое окно) не делиться конфиденциальной информацией.
  • Корпоративная документация оставляет место для интерпретации с такими фразами, как «без разрешения».
  • Поставщики услуг безопасности отметили условия, при которых бизнес-данные могут стать входными данными для обучения, особенно по мере того, как функции ИИ становятся все более тесно интегрированными в хранение файлов, поиск и инструменты рабочего процесса.

Это отсутствие ясности вызывает беспокойство, когда Gemini интегрирован в Google Drive, Документы и Таблицы. Речь идет не просто о том, чтобы по ошибке поделиться файлами, а о том, как эти файлы непреднамеренно становятся частью рабочих процессов ИИ. Как ИИ будет поглощать, индексировать, анализировать и хранить подсказки или выходные данные, и будут ли эти журналы по-прежнему под контролем вашей организации?

Даже хорошо управляемая система, такая как Google Workspace, не является конфиденциальной и имеет закрытый исходный код. Такие системы могут смягчить многие риски, но для компаний, владеющих особо важными данными, требуемый уровень доверия все равно может быть слишком высоким.

Как найти конфиденциальный ИИ для вашего бизнеса

Каждый файл, который вы загружаете в систему с поддержкой ИИ или которым делитесь с ней, расширяет вашу поверхность атаки. Просто загрузка файлов в облачное хранение может сделать эти файлы доступными для обучения ИИ, в зависимости от вашего сервиса и тарифа. Если эти загрузки сохраняются, индексируются или доступны способами, о которых вы не знаете или которые не можете контролировать, ваша проприетарная ценность находится под угрозой.

Прежде чем ваш бизнес выберет инструмент ИИ, вы должны спросить, можете ли вы гарантировать, что он или его система хранения файлов не сохранит и не раскроет критически важные данные.

Вот два конкретных требования, которые вы должны предъявить любому инструменту ИИ для бизнеса:

  • Нулевое хранение данных: Система ИИ не должна вести журналы или хранить подсказки, ответы или загрузки файлов за пределами бизнес-сеанса, если это явно не требуется — и эти журналы должны находиться под полным контролем вашего бизнеса.
  • Никакого внешнего обучения: Данные вашего бизнеса (включая сохраненные файлы) не должны использоваться для обучения других моделей за пределами бизнес-домена или передаваться между арендаторами.

Что вы можете сделать сейчас

Прежде чем вы сможете выбрать правильные инструменты, вам нужно оценить свою ситуацию и убедиться, что вы уже непреднамеренно не раскрываете конфиденциальные данные:

  • Проведите аудит рисков хранения файлов с ИИ: Определите все общие хранилища, командные папки и облачное хранение, к которым подключаются инструменты ИИ, а затем составьте карту того, какие инструменты поглощают или индексируют эти файлы.
  • Определите четкую политику управления для ввода файлов в ИИ: Укажите, какие инструменты ИИ одобрены, какие типы файлов разрешены, отключена ли индексация файлов репозитория и т. д.
  • Требуйте поставщика/решение, которое предлагает конфиденциальный ИИ со строгим контролем: Выберите ИИ-ассистента, который предлагает «никаких журналов, никакого обучения, никакого обмена» в качестве базового уровня.
  • Отслеживайте и ограничивайте «теневой ИИ» или отдельных членов вашей команды, использующих ИИ вне рамок вашей команды безопасности, и несанкционированные загрузки файлов в инструменты ИИ. Обеспечьте соблюдение с помощью методов предотвращения потери данных и управления личными данными и доступом, а также ведения журнала аудита.
  • Выбирайте поставщика, чья бизнес-модель не зависит от продажи или извлечения данных. Это гарантирует, что его стимулы всегда совпадают с обеспечением безопасности ваших данных.

Proton предлагает продуктивность ИИ без риска

Ни один бизнес не хочет невольно передавать свою конфиденциальную информацию. Вот почему инструменты Proton for Business построены на мощном шифровании, которое дает вам контроль над тем, кто может получить доступ к вашей информации.

Proton Drive использует сквозное шифрование для всех ваших файлов, поэтому никто, даже Proton, не может получить к ним доступ, если вы не поделитесь ими. Это предотвращает любое раскрытие ваших файлов или их использование для обучения ИИ. Proton Drive также дает вам возможность защищать паролем ссылки для общего доступа или отключать доступ одним щелчком, что означает, что вы сохраняете контроль.

Мы также создали Lumo for Business, конфиденциального ИИ-ассистента, который работает только на вас, а не наоборот. Поскольку журналы не ведутся, а каждый чат и загруженный вами файл зашифрованы, Lumo сохраняет ваши цепочки писем конфиденциальными, а ваши данные полностью под вашим контролем — они никогда не передаются, не продаются и не крадутся.

В Proton мы создаем все наши продукты с учетом конфиденциальности по замыслу. Компании должны иметь возможность хранить файлы и использовать ИИ с уверенностью, зная, что их самая конфиденциальная информация остается защищенной.

В отличие от бигтеха, Proton не зарабатывает деньги, продавая ваши данные. Мы поддерживаемся исключительно нашим сообществом, а не рекламодателями, и наша база в дружественной к конфиденциальности Европе дает нам правовую защиту, чтобы гарантировать, что мы можем выполнять свои обещания. Самое главное, мы принадлежим некоммерческой организации Proton Foundation, чья единственная миссия — продвигать конфиденциальность и свободу.

Используя Lumo for Business(новое окно), вы можете наслаждаться преимуществами продвинутого ИИ-ассистента без риска неправомерного использования ваших данных.