«Проблема согласования» ИИ утверждает, что по мере того, как системы ИИ становятся более интеллектуальными, будет все труднее согласовывать их цели с целями их разработчиков. Система ИИ теоретически может «выйти из-под контроля», разрабатывая нежелательные и непредсказуемые стратегии для достижения цели.

Максимизатор скрепок(новое окно) — это мысленный эксперимент, который исследует эту концепцию: если бы суперинтеллектуальному ИИ была поставлена единственная цель — создавать скрепки, он мог бы захватить мировые ресурсы для достижения своей цели любой ценой, превратив все в скрепки. В конечном итоге он мог бы даже понять, что люди, пытающиеся остановить ИИ, являются помехой, и уничтожить нас: явное несовпадение интересов ИИ и человека.

Хотя проблема скрепок явно диковинная, она стала точкой соприкосновения поп-культуры с ИИ. В реальной жизни ограничения и правила не позволяют системам выходить за рамки своих предполагаемых целей. Но многие основатели и генеральные директора Big Tech используют эту гипотезу, чтобы создать шумиху вокруг своих больших языковых моделей (LLM). Действительно ли чат-боты способны привести человечество к вымиранию? Нет. Но это заставляет их звучать впечатляюще и, что более важно, это скрывает настоящую проблему согласования ИИ, которая вредит нам прямо сейчас: LLM от Big Tech вторгаются в нашу конфиденциальность, крадут наши данные и обесценивают нашу информационную экономику. Это одновременно стратегия продаж и отвлечение внимания, предназначенные для того, чтобы мы смотрели в будущее, а не на контроль, который мы уступаем в настоящем.

Мы на пути к антиутопическому будущему?

Когда основатели делают широкие, спекулятивные заявления о том, что их продукты «могли бы» сделать, это в первую очередь метод создания бизнес-возможностей и создания ценности для их акционеров. LLM и генеративный ИИ — это бизнес-продукты. В интересах их владельцев, чтобы вы верили, что их инструмент революционен.

СМИ стремятся продвигать сенсационные истории, такие как потенциал инструментов ИИ помочь пользователям создавать биологическое оружие(новое окно) или лгать разработчикам(новое окно), как будто у генеративного ИИ есть свой собственный разум (его нет). Легко получать клики заголовками о крайних или необоснованных мнениях, но такие взгляды не являются точным изображением технологии ИИ, которая существует сегодня.

Вместо этого LLM — это просто машины для предсказания слов. Это компьютерные программы, которые переваривают огромные объемы текста, «изучая» шаблоны человеческого языка, а затем строят вероятностные ответы на вводимые пользователем данные. У них нет собственных мыслей, и они даже не понимают язык. На самом деле, они должны сначала преобразовать слова в числа, прежде чем смогут обрабатывать информацию. Ограничения LLM были хорошо задокументированы Гэри Маркусом(новое окно) и многими другими исследователями.

Новые инструменты для капитализма слежки

LLM не вызовут апокалипсис, но они довольно хороши в чем-то другом: сборе чрезвычайно подробной информации о вас. Вот почему LLM — это золотая жила данных для бизнеса и привлекательная мишень для преступников.

LLM питают чат-ботов, таких как ChatGPT, Copilot, Claude и Grok, которые функционируют как поисковые системы. Якобы вы можете использовать этих чат-ботов для чего угодно: они могут помочь вам создавать списки покупок, организовывать ваш календарь, писать электронные письма или писать код. Они ваш личный помощник, ваш учитель, ваше доверенное лицо или кто угодно еще, кем вы их попросите быть.

Сотни миллионов людей по всему миру уже делятся своими вопросами, идеями, мыслями и самыми глубокими секретами с чат-ботами. Их поощряют к этому компании, управляющие ими: Сэм Альтман, генеральный директор Open AI, недавно отметил(новое окно), что поколение Z «на самом деле не принимает жизненных решений, не спросив ChatGPT, что им делать». Призыв к такому уровню доверия и зависимости от коммерческого и ненадежного чат-бота и его поощрение глубоко безответственны. Big Tech хочет, чтобы мы посредничали в нашей жизни и мыслях через их сервисы, потому что тогда они получают право голоса в том, как мы тратим наши деньги, что мы делаем и что мы думаем.

Компании, стоящие за LLM, также продают свои продукты как решения для повышения производительности для правительств и бизнеса, обещая сэкономить время и усилия для своих пользователей, одновременно предоставляя новые возможности для слежки за вами. В Великобритании система ИИ Министерства юстиции «предсказывает» риск рецидива(новое окно) заключенных. Полицейские используют чат-ботов(новое окно) для написания отчетов о преступлениях. Сочетание государственных полномочий с предвзятыми алгоритмами(новое окно) опасно и усиливает существующие предубеждения.

Эксплуатация ваших данных в целях обучения

LLM работают на моделях ИИ, обученных на огромных наборах данных, и для улучшения своих сервисов им требуется все больше и больше данных. К сожалению, эти данные поступают от вас: ваши чаты, ваши фотографии, ваши поисковые запросы в интернете. Компании не всегда будут спрашивать вашего разрешения или четко давать понять, что они собирают от вас.

Например, Meta AI хочет сканировать (новое окно)фотографии(новое окно) в вашей библиотеке, которые вы даже не загрузили на ее платформы, чтобы проанализировать ваши лицевые данные. Многие пользователи были обеспокоены объявлением о том, что ИИ Copilot от Microsoft(новое окно) будет делать снимки экрана их устройств каждые несколько минут. Ваши фотографии, ваши сообщения друзьям и близким и ваши самые личные мысли — это ценные данные, которые нужны компаниям.

Глядя на политику конфиденциальности(новое окно) Open AI, мы видим, что ChatGPT будет находить и хранить:

  • Идентификаторы, такие как ваше имя, контактная информация, IP-адрес и другие идентификаторы устройств
  • Коммерческую информацию, такую как история ваших транзакций
  • Информацию об активности в сети, такую как контент и то, как вы взаимодействуете с ChatGPT
  • Общее местоположение, из которого вы получаете доступ к ChatGPT

Эта информация может быть раскрыта правительствам, поставщикам, аффилированным лицам, поставщикам услуг и другим третьим сторонам.

По сути, LLM узнает вас. Подобно поисковой системе, она начинает понимать ваши привычки, ваши предпочтения, ваши интересы и каждый аспект вас, который она может почерпнуть из вашего поведения. Big Tech всегда будет отдавать приоритет поиску новых способов получения ваших персональных данных, потому что это прибыльно. И они надеются, что вы не заметите.

Просто подумайте о трендах, которые захлестнули социальные сети в последние годы: пользовательские анимации в стиле Studio Ghibli(новое окно) подражали отличительному стилю Хаяо Миядзаки против его воли, а пользовательские куклы в упаковке, созданные ИИ(новое окно) и вдохновленные классическими игрушками, такими как Барби, создавали визуальное представление о личных вкусах людей. Этот тренд в социальных сетях мог показаться безобидной забавой, но инструменты ИИ, использованные для создания этих изображений, могли собирать фотографии и информацию о людях, которую их материнские компании могут использовать в рекламных целях и потенциально продавать третьим лицам. Это всего лишь два из многих примеров того, как Big Tech тихо поглощает ваши персональные данные в обмен на участие в мимолетном тренде.

Существует лучшее решение для LLM

Прочитав обо всех этих рисках, вы можете подумать, что LLM по своей сути опасны. Но это совсем не так. Компании Big Tech создали свои системы ИИ инвазивными и жадными до данных намеренно. Можно создать ИИ, который защищает конфиденциальность людей и сохраняет данные в безопасности по умолчанию. Мы знаем, потому что мы сделали это с Lumo, нашим ориентированным на конфиденциальность ИИ-помощником(новое окно).

Вот как Lumo решает настоящую проблему согласования ИИ:

  • Lumo не хранит журналы ваших переписок. Каждый чат удаляется с наших серверов, как только модель завершает обработку вашего запроса и ответа.
  • Истории чатов хранятся с шифрованием с нулевым доступом. Блокируя ваши данные вашим секретным ключом, Proton никогда не имеет доступа и, следовательно, никогда не может поделиться или случайно слить ваши данные.
  • Мы не обучаем модели на ваших чатах. Использование переписок для обучения моделей ИИ подвергает ваши данные риску всплыть в будущих результатах. Переписки с Lumo принадлежат только вам.
  • Lumo имеет открытый исходный код и использует только модели с открытым исходным кодом. Поскольку наша база кода публична, любой может проверить, что наши приложения делают именно то, что мы заявляем.
  • Мы базируемся в юрисдикции, уважающей конфиденциальность. В отличие от ИИ американских Big Tech, которые подчиняются инвазивным законам о слежке, Lumo базируется в Европе и защищен строгими законами о конфиденциальности.

На каждом уровне Lumo разработан для предоставления той же полезности, что и другие LLM, без рискованных внешних эффектов. Big Tech могли бы строить свои ИИ так же. Они просто предпочитают этого не делать, потому что ваши данные — это их валюта.

Действительно ли согласование ИИ является угрозой?

Правда просто менее захватывающая, чем хотели бы заставить нас поверить генеральные директора Big Tech. Кажется менее вероятным, что ИИ даст людям возможность создавать биологическое оружие или потратит все наши глобальные ресурсы на создание скрепок, чем то, что он просто будет следовать директивам, которым уже следует Big Tech: красть и эксплуатировать конфиденциальные данные.

Не верьте хайпу вокруг согласования ИИ. Это не та угроза, на которой кому-либо из нас следует сосредотачиваться. Слежка, эксплуатация отдельных лиц и малого бизнеса и скомпрометированная информационная экосистема — вот насущные проблемы, на которые мы на самом деле должны обращать внимание, когда речь идет об ИИ.