Распространенное заблуждение заключается в том, что если вы не используете большие языковые модели (LLM), такие как ChatGPT для чатов, Midjourney для создания изображений или Sora для создания видео, вы защищены от искусственного интеллекта (ИИ). Используете вы его или нет, ИИ уже затрагивает вашу жизнь.
Например, когда вы делаете фотографии на Android, Google Photos автоматически сканирует и помечает каждого человека в вашей медиатеке с помощью распознавания лиц. Публикация в социальных сетях без изменения настроек по умолчанию создает публичные посты, которые могут быть собраны в огромные наборы данных, используемые для обучения LLM. Даже персонализированная реклама на веб-сайтах или в приложениях работает на основе ИИ, обученного на ваших предпочтениях в просмотре и покупках.
Это удобство стоит вам конфиденциальности и может оказать глубокое влияние на вашу жизнь. Двадцати фотографий, взятых из социальной ленты вашего ребенка, достаточно, чтобы создать 30-секундное дипфейк-видео, которое можно использовать для шантажа, травли или кражи личных данных.
Вот что поставлено на карту, когда ИИ имеет доступ к вашим персональным данным, и что вы можете сделать, чтобы защитить свою конфиденциальность онлайн.
- Как ИИ угрожает вашей конфиденциальности?
- Ваши персональные данные могут быть собраны
- Вас могут повторно идентифицировать
- Вашими данными могут поделиться с третьими лицами
- Запросы на удаление данных могут не сработать
- Другие люди могут видеть ваши конфиденциальные чаты
- К вам могут относиться несправедливо
- Таргетинг рекламы становится острее
- Облачное хранилище может раскрыть ваши данные
- ИИ может совершать ошибки
- Любой может создавать дипфейки
- Как скрыть свои данные от систем ИИ
Как ИИ угрожает вашей конфиденциальности?
ИИ может подорвать конфиденциальность, собирая слишком много, делая слишком много выводов и делясь слишком многим.
Ваши персональные данные могут быть собраны
Системы ИИ становятся более точными, обучаясь на огромных объемах данных, часто собранных из общедоступных источников, таких как ваши посты в Facebook(новое окно), фотографии Flickr(новое окно) или ветки обсуждений Reddit(новое окно). Обычные посты в социальных сетях, семейные фотографии и информация профиля — часто содержащие чувствительную информацию и изначально опубликованные для личных или социальных целей — были включены в наборы данных, используемые для обучения многомиллиардных LLM и систем распознавания лиц. Это происходит потому, что Big Tech рассматривает онлайн-контент как свободно доступный для использования ИИ, без явного согласия или уважения к интеллектуальной собственности.
Вас могут повторно идентифицировать
Технологические компании утверждают, что ваши персональные данные нельзя отследить до вас после того, как они были обезличены или псевдоанонимизированы, что означает удаление очевидных идентификаторов, таких как имена или номера телефонов. Но эта защита хрупка, так как анонимизированные наборы данных можно повторно идентифицировать, сопоставив их с другими источниками данных, такими как профили в социальных сетях или следы геолокации.
Например, пользователи Netflix были повторно идентифицированы(новое окно) путем сравнения их анонимных оценок фильмов с информацией IMDb. Одно исследование(новое окно) показывает, что почти каждого американца можно выделить в любом наборе данных, имея всего 15 демографических маркеров. С учетом возможности ИИ сопоставлять паттерны, повторная идентификация стала быстрее, проще и доступнее для всех.
Вашими данными могут поделиться с третьими лицами
Когда вы используете системы ИИ, ваши данные не всегда остаются у компании, в которой вы зарегистрировались. Ими могут поделиться с партнерами или сторонними обработчиками — о некоторых из них вы, вероятно, никогда не слышали — которые могут обрабатывать ваши данные в соответствии со своими собственными условиями и стандартами безопасности.
В этот момент конфиденциальность превращается в вопрос доверия. Вы больше не полагаетесь только на известную вам компанию для защиты вашей информации, но и на целую цепочку неизвестных внешних участников, каждый из которых имеет свою инфраструктуру, политику и уязвимости. Каждая рука, которая касается ваших данных, расширяет поверхность атаки, а ответственность размывается.
Например, взлом с участием партнера OpenAI привел к раскрытию данных пользователей API, показав, как сторонний доступ может стать самым слабым звеном в системе.
Запросы на удаление данных могут не сработать
Как только ваши данные обучили модель ИИ, забрать их практически невозможно, потому что они формируют общее поведение модели. Машинное “разучивание” — методы, позволяющие модели забыть — все еще находится на ранних стадиях, поэтому единственным вариантом сегодня было бы переобучить модель. И даже если компания утверждает, что выполнила ваш запрос на удаление данных, практически нет способа это подтвердить(новое окно).
Другие люди могут видеть ваши конфиденциальные чаты
LLM, такие как ChatGPT(новое окно), Meta AI(новое окно) и Grok(новое окно), раскрыли конфиденциальные разговоры через свои функции обмена, при этом чаты индексировались поисковыми системами и становились общедоступными. Платформы не были достаточно прозрачны в отношении этого риска, оставляя пользователей в неведении, что то, что казалось конфиденциальным обменом мнениями, могло стать видимым для всех в интернете.
К вам могут относиться несправедливо
Если данные, используемые системами ИИ для изучения закономерностей, содержат скрытые предубеждения — например, из-за исторического неравенства или неполных наборов данных — ИИ может усилить или усугубить эти закономерности. Ставки выше с неконфиденциальными системами ИИ от Big Tech, которые имеют закрытый исходный код и работают как черные ящики, которые нельзя независимо проверить. Эти системы могут использовать чувствительные атрибуты, такие как раса, пол или почтовый индекс, для принятия автоматизированных решений в прогнозной полицейской деятельности(новое окно), найме(новое окно), здравоохранении(новое окно) или кредитном скоринге(новое окно).
Таргетинг рекламы становится острее
Хотя неконфиденциальный ИИ делает рекламу умнее, обеспечивая гипертаргетинг, он часто вторгается в конфиденциальность всей вашей семьи. Например, Publicis, брокер данных и крупнейшая в мире рекламная компания, утверждает, что профилирует 2,3 миллиарда человек и отслеживает такие детали, как семейные предпочтения и доход(новое окно), чтобы решать, предлагать ли им бюджетные или премиальные продукты.
Поскольку чат-боты с ИИ заменяют традиционный поиск, реклама следует за нами в это новое пространство. Например, Perplexity встраивает рекламу в ответы, сгенерированные ИИ(новое окно), и сделала ставку в 34,5 миллиарда долларов на покупку Google Chrome — шаг, направленный на получение доступа к более чем 3 миллиардам пользователей браузера и интимным поведенческим данным, которые с ним связаны.
Облачное хранилище может раскрыть ваши данные
Провайдеры облачного хранилища без сквозного шифрования (E2EE) могут получить доступ к фотографиям, документам и чувствительным файлам, которые вы загружаете. Они также могут использовать эти данные для работы инструментов ИИ, получения информации о вас или показа персонализированной рекламы.
Google Drive, например, сохраняет доступ к вашим данным и использует их для функций ИИ, таких как проверка орфографии и автозаполнение в Google Docs. Если Gemini, ИИ-помощник Google, останется тесно интегрированным с Google Workspace, запросы, которые вы делаете о своих файлах Drive, также могут попасть в обучение ИИ.
Аналогичным образом, Microsoft объявила, что Word, Excel и PowerPoint скоро будут автосохраняться в OneDrive по умолчанию, еще одном сервисе без E2EE, где будущее использование ваших данных для рекламы или обучения ИИ остается неопределенным.
ИИ может совершать ошибки
Автоматизированные системы могут сканировать ваши личные сообщения и помечать их как подозрительные. Предлагаемый ЕС закон Chat Control потребует от сервисов обмена сообщениями, таких как WhatsApp и Signal, использовать ИИ для сканирования каждого личного сообщения и фотографии для обнаружения материалов о сексуальном насилии над детьми (CSAM).
Но это означает мониторинг разговоров каждого, а не только подозреваемых преступников. И история показывает, как легко ИИ может совершать ошибки. Аккаунт Google одного отца, например, был аннулирован(новое окно), а о нем сообщили властям после отправки фотографии его ребенка врачу. То, что должно оставаться между вами и вашим врачом или вами и вашей семьей, может внезапно стать доступным технологическим компаниям и правоохранительным органам.
Любой может создавать дипфейки
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Злоумышленники используют дипфейки для кражи личных данных, мошенничества, шантажа или нанесения репутационного ущерба — и риски распространяются на детей. В 2019 году преступники использовали дипфейк-аудио, чтобы имитировать голос генерального директора(новое окно), и обманом заставили сотрудника перевести 220 000 евро. Риски также распространяются и на детей. В одном инциденте хищник создал дипфейк-изображение 14-летнего подростка(новое окно), чтобы вымогать деньги, угрожая поделиться им.
Как скрыть свои данные от систем ИИ
Существует множество проблем конфиденциальности с системами ИИ, особенно с неконфиденциальными моделями с закрытым исходным кодом, управляемыми Big Tech. И хотя вы не можете полностью предотвратить сбор или неправильное использование ваших данных этими системами, как только они окажутся там, вы можете уменьшить свой цифровой след, потребовать ответственности и выбрать ИИ, ориентированный на конфиденциальность, который не эксплуатирует ваши данные. Вот что вы можете сделать:
- В социальных сетях сделайте свои профили и посты конфиденциальными, удалите старые загрузки, очистите данные EXIF с фотографий перед тем, как поделиться ими, и избегайте публикации идентифицирующей информации — например, адресов, полных имен детей или школ, которые они посещают. Узнайте больше о том, как управлять интернетом для вашей семьи.
- Проверьте настройки конфиденциальности ваших приложений. Например, Meta AI может сканировать фотографии из вашей фотопленки и видео в приложении Facebook для Android и iOS.
- Защититесь от дипфейков, размывая или скрывая лица членов вашей семьи перед публикацией фотографий онлайн.
- Замаскируйте свой цифровой след, используя VPN(новое окно), чтобы скрыть свой IP-адрес, и используйте псевдонимы, чтобы защитить свой адрес электронной почты при публикации чувствительной информации, которую вы не хотели бы, чтобы отследили до вас.
- Используйте сервисы, ориентированные на конфиденциальность, которые не монетизируют ваши данные, такие как Signal для безопасного обмена сообщениями и Brave или DuckDuckGo для конфиденциального просмотра.
- Для безопасного хранения ваших самых чувствительных файлов, включая конфиденциальные фотографии и конфиденциальные документы, используйте Proton Drive для облачного хранилища со сквозным шифрованием. В отличие от платформ, которые могут раскрыть предположительно конфиденциальный контент, Drive не сканирует, не индексирует и не использует ваши данные для обучения ИИ — и их не может видеть никто другой, даже когда вы решите поделиться ими. Сохранение ваших фотографий по-настоящему конфиденциальными также означает, что они не окажутся онлайн, где их могут использовать для создания дипфейков.
- Откажитесь от обучения ИИ, когда это возможно, например, в Gemini, ChatGPT(новое окно), Claude(новое окно) или Meta AI. Политика может измениться в одночасье без предупреждения, поэтому, если вы хотите пользоваться преимуществами и ИИ, и конфиденциальности, переключитесь на Lumo — наш ИИ-помощник, ориентированный на конфиденциальность(новое окно), который не ведет журналы и не обучается на ваших данных.
Более строгие правовые нормы в области конфиденциальности ИИ, такие как Закон ЕС об ИИ(новое окно), будут иметь решающее значение для возвращения власти пользователям интернета. До тех пор лучшая защита — это помнить о том, чем вы делитесь онлайн, требовать ответственности от компаний, создающих эти системы, и выбирать прозрачные инструменты ИИ(новое окно), которые уважают конфиденциальность с самого начала.






