Крупные технологические компании построили империи стоимостью в триллионы долларов, превратив нашу личную жизнь в товар. Искусственный интеллект усиливает их бизнес-модель капитализма слежки, интегрируясь в инструменты, которыми мы пользуемся каждый день — часто без четких объяснений или возможности отказаться.
Мощные большие языковые модели (LLM) собирают еще более подробные данные и делают о вас больше выводов, чем можно было представить ранее. ИИ интегрируется в широкий спектр платформ(новое окно), от поиска до хранения фотографий и даже операционной системы вашего устройства, что затрудняет отслеживание, не говоря уже о согласии на этот сбор данных. Это, в свою очередь, позволяет таким компаниям, как Google, Meta и Microsoft, создавать более полные личные профили, получать больше прибыли от данных и осуществлять больший контроль над информацией и нарративами, которые вы видите.
Эти компании могут делиться или продавать вашу конфиденциальную информацию брокерам данных и другим третьим лицам. Правительства могут получить доступ к этим данным через повестки в суд(новое окно) или даже более тайные формы слежки. А личные данные могут быть раскрыты в результате утечки данных, как это происходило снова(новое окно) и снова(новое окно) с такими сервисами, как ChatGPT.
Результатом является быстрый и масштабный сбор данных при еще меньшем контроле компаний над получением согласия или учетом последствий технологии. Законы о защите данных, касающиеся ИИ, печально известны тем, что сильно отстают от отрасли(новое окно).
Нам срочно нужна конфиденциальная альтернатива, поэтому мы создали нового конфиденциального ИИ-помощника Lumo(новое окно), который не ведет никаких записей ваших разговоров. Ваши сохраненные чаты доступны только вам и защищены шифрованием с нулевым доступом. Когда дело доходит до ваших данных, у вас есть выбор — но больше людей должны понимать риски статус-кво.
ИИ делает Big Tech еще мощнее
ИИ позволяет Google и Meta масштабировать и укреплять свои существующие монополии, особенно в сфере рекламы и эксплуатации личных данных, но гораздо быстрее и масштабнее.
Meta, например, глубоко интегрирует ИИ для оживления своего рекламного бизнеса, сканируя ваши посты и даже добавляя Meta AI(новое окно) в свои продукты для чатов со сквозным шифрованием, такие как WhatsApp, в очевидной попытке выкачать больше личных данных с платформы. Google перешел на принцип «сначала ИИ» в своем рекламном бизнесе(новое окно), поэтому каждое объявление оптимизируется для манипулирования вами лично. А Gemini от Google теперь глубоко интегрирован во всю его экосистему, давая его ИИ карт-бланш на сбор данных с телефонов Android и приложений Google.
ИИ похож на поиск, но гораздо более интимен и глубоко укоренен в вашей жизни. В то время как отслеживание поиска использует простые запросы и клики для прогнозирования ваших интересов, ИИ использует обработку естественного языка и даже распознавание изображений для прогнозирования брендов, сообщений, эмоций и образов, которые найдут у вас глубокий отклик. Некоторые люди даже становятся эмоционально привязанными(новое окно) к чат-ботам с ИИ из-за того, насколько точно они могут имитировать человеческое общение — то, чего никогда не случалось с поисковыми системами.
Одно рекламное агентство хвастается(новое окно), что реклама на основе ИИ — это «сейсмический сдвиг», который дает клиентам возможность «оценивать настроения и предпочтения» и даже «обрабатывать визуальные данные, такие как изображения и видео, для идентификации логотипов брендов и использования продуктов, обеспечивая таргетинг рекламы с учетом контекста». Представьте, если бы косметические продукты могли нацеливаться на вашего ребенка в тот момент, когда он выражает беспокойство другу, или если бы политики могли использовать оптимизированную ИИ рекламу, чтобы играть на личных страхах избирателей.
Big Tech уже могущественнее правительств — представьте, чего они могли бы достичь с помощью необузданного ИИ.
Ваши чаты утекают
На карту поставлена ваша конфиденциальность, но также и ваша безопасность. ИИ создает огромный централизованный пул интимной информации, который все более уязвим для раскрытия различными способами.
Это уже происходило:
- В июле 2025 года репортеры обнаружили, что более 100 000 разговоров в ChatGPT(новое окно) были проиндексированы Google и доступны для поиска. Пользователи, нажимающие кнопку «поделиться», чтобы отправить разговор друзьям или коллегам, почти наверняка не осознавали, что их частные разговоры будут видны всем в интернете.
- В 2024 году исследователи использовали инъекцию промпта в Slack AI(новое окно) для раскрытия контента, которым делились в закрытых каналах.
- В 2023 году другая группа исследователей извлекла реальные учетные данные программного обеспечения(новое окно) (известные как «секреты») из ИИ-помощника Copilot от GitHub, который обучен на миллиардах строк кода. Некоторый обучающий код содержал учетные данные, и исследователи убедили ИИ выдать более 200 из них.
- В январе 2025 года, после громкого запуска стартапа в области ИИ DeepSeek, исследовательская группа обнаружила публичную базу данных(новое окно), которая содержала огромный объем журналов чатов, секретов и других конфиденциальных данных.
- В августе 2025 года подрядчики, работающие на Meta AI, заявили, что читали личные разговоры(новое окно), в которых люди делились конфиденциальными данными с чат-ботом.
Всякий раз, когда личные данные сохраняются без сквозного шифрования или шифрования с нулевым доступом на серверах компании, эти данные уязвимы для утечки. Журналы чатов являются невероятно привлекательной целью для хакеров — и правительств. Суд США уже обязал OpenAI сохранять все журналы чатов пользователей(новое окно) (с чем компания в настоящее время борется). Эти данные затем будут доступны правительству по требованию. У США уже есть различные методы тайной слежки за пользователями, от прослушивания телефонных разговоров без ордера до запросов данных, которым обязаны подчиняться компании Big Tech.
Чем больше данных поглощают системы ИИ, тем больше они рискуют раскрыть, будь то через случайные утечки, предвзятые результаты или давление со стороны правительства.
Это не просто данные — это влияние
Вероятно, само собой разумеется: компании и политические деятели, нацеливающие на вас рекламу, не заботятся о ваших интересах.
ИИ выводит эту манипуляцию на совершенно новый уровень. В отличие от средств массовой информации, которые вы можете отключить, ИИ вплетен в вашу повседневную жизнь — отвечая на ваши вопросы и предлагая рекомендации в приложениях, которые вы даже не просили. Это не просто реактивно; это проактивно. И когда он создан компаниями или используется правительствами с определенными планами, это делает его невероятно мощным и опасным.
Мы уже видим, как это выглядит. В Китае было показано, что DeepSeek избегает или стирает политически чувствительные темы. Спросите о протестах на площади Тяньаньмэнь, и вы упретесь в стену(новое окно) — не потому, что ИИ не знает, а потому, что его юрисдикция означает, что ему не разрешено говорить вам.
Это проблема не только Китая. Чат-бот Илона Маска Grok вызвал удивление тем, что занимал четкие политические позиции(новое окно) и выдавал совершенно разные результаты в зависимости от того, как был настроен его внутренний «переключатель». Также было обнаружено, что он консультируется с собственным мнением Маска(новое окно) по теме, прежде чем поделиться своим ответом. Это показывает, как руководство ИИ может быть сформировано для продвижения определенных взглядов, тонко или нет, что будет становиться все более проблематичным, поскольку мы все больше полагаемся на ИИ в образовании и информации, не проверяя первоисточники.
Итак, если ИИ формирует то, что вы видите, что вы думаете и как вы себя чувствуете, кто решает, какую версию правды вы получаете?
ИИ создан для людей, а не для прибыли
Если мы хотим ИИ, который не формируется Big Tech или авторитарной политикой и который защищает ваши данные от хакеров и утечек, нам нужно создать что-то другое. Это означает поддержку частных, независимых инструментов ИИ без скрытых мотивов или скрытых повесток.
Lumo — это шаг в этом направлении. Он создан в Европе, без инвестиций Кремниевой долины или иностранного наблюдения, и контролируется некоммерческим фондом Proton Foundation, который по своему уставу обязан содействовать конфиденциальности нашего сообщества. Поскольку наша компания была основана учеными, которые встретились в CERN в 2014 году, мы финансируемся исключительно нашими пользователями, а не инвесторами или рекламодателями. Это гарантирует, что наши ценности и миссия остаются согласованными с людьми, которым мы служим.
Мы разработали Lumo как конфиденциальный по умолчанию, что означает, что он не ведет журналы чатов, а ваши чаты хранятся с шифрованием с нулевым доступом, поэтому только вы можете их видеть. Lumo также построен на моделях с открытым исходным кодом, и ваши данные никогда не используются для обучения ИИ.
Lumo — это только начало. Если мы хотим будущего, где ИИ служит людям — не прибыли, не власти — мы должны этого требовать. Выбирая конфиденциальные альтернативы сегодня, вы помогаете формировать интернет, который более прозрачен, более демократичен и более уважителен к вашим правам. Инструменты уже здесь. Выбор за вами.

