По мере роста использования искусственного интеллекта ИИ-ассистенты(новое окно) становятся доверенными спутниками. Миллионы людей обращаются к чат-ботам, таким как ChatGPT, Claude, Gemini, DeepSeek и другим, чтобы задавать вопросы и решать проблемы. Их запросы могут быть глубоко чувствительными, спрашивая о проблемах со здоровьем, делясь данными клиентов или ища эмоциональной поддержки и творческого вдохновения.
Для многих эти чат-боты кажутся человечными, отзывчивыми и конфиденциальными. Но недавние события (судебный ордер обязал OpenAI сохранять все выходные данные ChatGPT(новое окно) бессрочно, а Сэм Альтман, основатель OpenAI, говорит, что ChatGPT не предлагает «юридической конфиденциальности»(новое окно)) проливают свет на риск того, что каждое напечатанное вами слово может быть записано в журнал, сохранено, проанализировано и, возможно, использовано не по назначению или передано третьим лицам в результате утечки.
Вот что это может означать и почему это должно беспокоить нас всех.
Ставки выше с ИИ
Рост популярности ИИ-ассистентов кажется новым рубежом, но во многих отношениях мы здесь уже были. Опасения вокруг журналов ИИ-чатов повторяют те, что возникли на заре поисковых систем, многие из которых оказались обоснованными. Журналы поиска использовались для создания прибыльных профилей для таргетинга рекламы, были раскрыты в утечках данных и были затребованы в суде.
С ИИ ставки выше, потому что данные более личные и подробные. Все больше людей обращаются за ответами не к поисковым системам, а к чат-ботам с ИИ, при этом прогнозируется, что использование поисковых систем сократится на 25% к 2026 году(новое окно). В отличие от строки поиска, которая обычно фиксирует короткие, фрагментарные запросы, вопросы к чат-ботам формулируются так, будто спрашивающие разговаривают с другим человеком, раскрывая о себе гораздо больше в процессе. Один разговор может содержать личные мысли(новое окно), эмоциональную борьбу, проблемы со здоровьем(новое окно), финансовые страхи или даже полные имена и адреса.
Короче говоря, журналы чатов предлагают невероятно богатую и интимную карту вашей личности, более подробную, чем журналы поисковых систем — и с гораздо большими последствиями для вашей конфиденциальности. Технологические гиганты могут получить доступ к вашим журналам чатов и использовать их для создания вашего психологического профиля, который может быть раскрыт правительству или использован для таргетированной рекламы. Например, Meta использует данные чатов с ИИ для создания персонализированной рекламы.
Ваши «анонимные» чаты не всегда останутся таковыми
Распространенный аргумент против беспокойства о конфиденциальности журналов чатов заключается в том, что огромный объем данных делает эксплуатацию отдельных лиц маловероятной, особенно когда пользователи не вошли в систему. Но недавняя история говорит об обратном.
В июле репортеры обнаружили, что более 100 000 цепочек писем в ChatGPT(новое окно) были проиндексированы Google и стали доступны для поиска. Пользователи, нажимающие кнопку «поделиться», чтобы отправить цепочку писем друзьям или коллегам, почти наверняка не осознавали, что их конфиденциальные цепочки писем будут видны всем в интернете.
Этот пример является предупреждением: так называемые «анонимные» данные редко бывают анонимными. В сочетании с IP-адресами, временными метками, отпечатками устройств, а также ID сеансов и файлов cookie эти журналы становятся гораздо более идентифицируемыми.
Как чаты могут раскрыть нашу внутреннюю жизнь
Популярные ИИ-платформы ChatGPT(новое окно), Gemini(новое окно) и DeepSeek(новое окно) утверждают, что журналы чатов пользователей используются для улучшения работы моделей и не применяются для «продажи» ваших данных рекламодателям или создания профилей пользователей. Но политика может измениться в одночасье, как показывает судебная тяжба OpenAI.
Например, в августе 2025 года Anthropic обновила свою политику конфиденциальности(новое окно) без предупреждения, чтобы продлить срок хранения данных. Поскольку журналы хранятся неопределенно долго, личные данные, которые когда-то казались неприкосновенными, могут внезапно стать прибыльным источником дохода.
Это случается не впервые. Когда в 1998 году был запущен Google, соучредители Сергей Брин и Ларри Пейдж предупреждали(новое окно), что поисковые системы, основанные на рекламе, неизбежно будут «по своей сути предвзяты в пользу рекламодателей и в ущерб потребностям потребителей». Десятилетие спустя Google начал использовать историю поиска для таргетинга рекламы(новое окно).
Имея прямой доступ к внутренней жизни людей, журналы ИИ могут довести таргетинг рекламы до предела. Учитывая, что все больше пользователей обращаются к чат-ботам за эмоциональной поддержкой(новое окно), кто-то может признаться:
- «В последнее время я чувствую себя подавленным и одиноким».
- «Как думаешь, у меня депрессия?»
- «Что мне делать, если я не смогу заплатить за аренду в следующем месяце?»
Эти утверждения — не просто ключевые слова или набор взаимодействий, это четкие эмоциональные и ситуативные маркеры. Если их сохранить и проанализировать, они могут быть использованы для создания психологических профилей и манипулирования решениями пользователей.
Предположение о том, что такая интимная, конфиденциальная информация может быть использована в корыстных целях, не является паникерством — ведь именно так и поступали крупные технологические компании. В 2017 году Facebook продемонстрировал, что нет ничего запретного, изучая способы таргетинга на эмоционально уязвимых подростков(новое окно) с помощью рекламы в моменты их неуверенности в себе.
Журналы чат-ботов — это окно в вашу психику. И такой уровень доступа вызывает серьезные опасения по поводу конфиденциальности и этики в секторе, где еще нет четких руководящих принципов и правовых норм по использованию и применению данных.
Юридические риски для пользователей
История поиска давно играет роль в уголовных расследованиях и судебных делах. Существует множество примеров, когда онлайн-запросы способствовали вынесению обвинительных приговоров, в частности, дело Мойра Эйкерс против штата в США.
После мертворождения в 2018 году Эйкерс обвинили в убийстве, а в 2022 году приговорили к 30 годам тюрьмы. Ключевой частью обвинения стали интернет-запросы Эйкерс об аборте, сделанные на ранних сроках беременности. По мнению обвинения, эти поисковые запросы служили доказательством намерения Эйкерс — несмотря на то, что она выносила ребенка до полного срока. Верховный суд Мэриленда отменил приговор в 2025 году, признав доказательства в виде поисковых запросов недопустимыми(новое окно). Но Эйкерс уже провела в тюрьме почти три года. Этот случай подчеркивает, как сохраненные журналы могут быть использованы для создания истории, соответствующей неблагоприятному нарративу, даже если есть доказательства, противоречащие ему.
Ставки могут быть еще выше с сохраненными чатами ИИ, которые могут стать предметом судебных доказательств. В отличие от поисковых запросов, эти взаимодействия более разговорны и даже гипотетичны, иногда являясь способом вызвать определенный тип ответа от LLM (большой языковой модели). Частный, невинный обмен мнениями с ИИ может быть позже истолкован как уличающий в юридическом контексте, независимо от намерений в то время.
Мощный инструмент для манипуляции
Те, кто видит журналы чат-ботов, могут получить доступ к детальным поведенческим схемам: личным привычкам, эмоциональным триггерам, динамике отношений и даже профессиональным уязвимостям. В чужих руках эти данные становятся мощным инструментом социальной инженерии — распространенной тактики взлома, включающей психологические манипуляции.
Этот риск далеко не гипотетический. В январе 2025 года ИИ-платформа DeepSeek оставила огромную базу данных открытой в сети(новое окно). Утечка включала более миллиона журналов чатов ИИ и ключей API, доступных всем, кто знал, где искать. Среди раскрытых данных были переписки в открытом виде, которые могли содержать обсуждения семьи, финансов и конфиденциальных проектов — информацию, которую легко использовать для мошенничества, шантажа или кражи личных данных.
После утечки эти данные могут быть использованы против вас: для выдачи себя за вас или манипулирования вами. Ссылаясь на личные данные, почерпнутые из прошлых переписок, злоумышленники могут войти к вам в доверие и использовать это для создания серьезных финансовых уязвимостей или проблем с безопасностью.
Угроза политической слежки
В авторитарных режимах последствия сохранения цифровых взаимодействий могут быть гораздо более серьезными. Например, несколько стран запретили использование китайской ИИ-платформы DeepSeek на правительственных устройствах(новое окно) из-за опасений по поводу безопасности того, как оператор обрабатывает личную информацию пользователей. Южная Корея, Австралия и Тайвань выразили обеспокоенность тем, что китайские власти могут получить доступ к этим данным и использовать их для слежки.
Для диссидентов, активистов или журналистов это не просто вопрос конфиденциальности, это вопрос безопасности. На первый взгляд обычный чат о правах на протест, законах о СМИ или путях получения убежища может быть истолкован как уличающее доказательство в юрисдикциях с ограниченной защитой свободы слова и гражданских свобод.
Угроза интеллектуальной собственности
В 2023 году инженеры Samsung непреднамеренно загрузили проприетарный исходный код(новое окно) в ChatGPT, пытаясь отладить проблему, ошибочно полагая, что их запросы были конфиденциальными. После отправки эти данные стали частью системы обучения OpenAI, что вызвало опасения по поводу безопасности и права собственности на интеллектуальную собственность, передаваемую инструментам ИИ.
Связанная с этим проблема возникла в ходе громкого дела об авторских правах, возбужденного The New York Times против OpenAI(новое окно), упомянутого в начале этой статьи. Это дело привело к судебному постановлению, требующему от OpenAI сохранять все выходные данные ChatGPT неопределенно долго после утверждений о том, что компания использовала миллионы статей газеты для обучения своих моделей без разрешения. Хотя дело касается веб-сканеров OpenAI, собирающих новостной контент, оно поднимает более широкие вопросы для творческих людей — писателей, дизайнеров, музыкантов и других, — которые предоставляют оригинальные работы платформам ИИ.
Если контент, предоставленный пользователем, сохраняется и повторно используется моделью, существует реальный риск того, что проприетарный или творческий материал может быть перераспределен другим пользователям без указания авторства или согласия. Это размывает грань между вкладом пользователя и данными для обучения ИИ и поднимает острые вопросы об авторстве и праве собственности в эпоху генеративного ИИ.
Что нужно изменить и как защитить себя
Большинство людей хотят и ожидают конфиденциальности в реальной жизни. Мы считаем, что те же ожидания должны распространяться и на цифровую жизнь людей. Мы создали набор зашифрованных сервисов, которые делают онлайн-конфиденциальность доступной для каждого, будь то отправка электронных писем друзьям, просмотр любимых шоу(новое окно) или создание резервных копий фотографий. Еще не поздно исправить ранние ошибки интернета, и, поскольку ИИ находится на ранней стадии развития, еще есть время проложить новый курс для этой технологии, который уважает вашу конфиденциальность.
Мы создали нашего ИИ-ассистента(новое окно) Lumo таким образом, чтобы он по своей сути обеспечивал ключевые меры защиты:
- Никакого ведения журналов данных: Пользователи должны иметь возможность взаимодействовать с чат-ботами, не беспокоясь о том, что их сообщения будут сохранены, использованы для получения прибыли или использованы против них.
- Никакого обучения моделей: Конфиденциальные чаты никогда не должны использоваться в качестве данных для обучения, так как существует риск их появления в ответах модели позже.
- Прозрачность обработки данных: Должно быть ясно, как используются сохраненные данные пользователей, кто может получить к ним доступ, где они хранятся, как долго они удерживаются и как их можно удалить.
- Шифрование с нулевым доступом по умолчанию: Переписки должны быть защищены с использованием ключей шифрования пользователя, чтобы даже поставщик ИИ не мог получить доступ.
Хотя опасности чат-ботов, которые незаметно регистрируют наши данные, реальны и актуальны, мы не бессильны. Выбирая инструменты ИИ, ориентированные на конфиденциальность, и требуя прозрачности и подотчетности от их создателей, мы можем вернуть баланс сил в руки пользователей, утверждая веру в то, что конфиденциальность — это право, а не привилегия.






