Разочаровывающая реальность для современных авторов заключается в том, что их работы используются для обучения ИИ. Технологическим компаниям, разрабатывающим генеративный ИИ, такой как ChatGPT, Gemini, DeepSeek, Stable Diffusion и Midjourney, нужны огромные наборы данных для обучения своих моделей, и для этого они собирают информацию в открытом интернете.
Это поднимает важные вопросы о согласии, авторстве и контроле над творческими работами после того, как ими поделились онлайн.
Если вы ищете способы лучше защитить свои творческие данные, в этом руководстве описаны практические шаги, которые вы можете предпринять, чтобы ограничить использование ваших работ при обучении ИИ, продолжая взаимодействовать с интернетом на своих условиях.
- Как обучение ИИ на общедоступном контенте может поставить под угрозу творческую работу
- Как запретить ИИ использовать ваше творчество
- Ваше творчество — это конфиденциальные данные
Как обучение ИИ на общедоступном контенте может поставить под угрозу творческую работу
Инструменты генеративного ИИ требуют большого количества данных для работы, и большая часть этих данных берется из интернета. OpenAI публично заявила(новое окно), что было бы «невозможно» обучить ИИ, подобный ChatGPT, не получив доступ к материалам, защищенным авторским правом, найденным онлайн.
Творческие работы из онлайн-портфолио, платформ социальных сетей и блогов используются для обучения этих моделей без согласия или указания авторства. Например, Meta признала(новое окно), что собирала общедоступные посты, фотографии и комментарии в Facebook и Instagram начиная с 2007 года для обучения своих моделей генеративного ИИ. Это означает, что любая творческая работа, которой вы когда-либо делились публично на этих платформах — например, свадебные фотографии, снимки портфолио или иллюстрации — могла быть использована для обучения ИИ, если вы не установили настройки видимости как конфиденциальные.
ИИ-компании утверждали в текущих судебных процессах(новое окно), что обучение на собранных в интернете данных подпадает под «добросовестное использование». В то же время они рассматривают полученные модели и наборы данных как проприетарные активы. Условия использования OpenAI запрещают «использовать Выходные данные для разработки моделей, конкурирующих с OpenAI», а компания обвинила DeepSeek в «ненадлежащем» копировании(новое окно) ее моделей — тех самых моделей, обученных на общедоступных данных интернета.
Этот очевидный двойной стандарт объясняет, почему многие авторы чувствуют, что их работы уязвимы для обучения ИИ без их согласия, указания авторства или компенсации. Это также поднимает более широкие вопросы о том, как интерпретируется «общедоступный» контент, особенно когда творческими работами делятся на платформах, лицензии которых явно ограничивают несанкционированное повторное использование или коммерческую эксплуатацию. В результате многие художники, писатели и фотографы все активнее выступают против сбора данных ИИ.
Как запретить ИИ использовать ваше творчество
Поскольку суды все еще выносят решения по каждому конкретному делу, а четкого правового стандарта не существует, авторы не могут полагаться только на правовую систему для защиты своих работ. Тем временем существуют практические шаги, которые вы можете предпринять прямо сейчас, чтобы ограничить использование ваших работ при обучении ИИ.
Ни одна из этих стратегий не является надежной на 100%, тем не менее; инструменты защиты и ИИ-компании всегда пытаются перехитрить друг друга. На данный момент думайте о них как об отдельных частях вашей брони, которые работают лучше в совокупности. Вот лучшие способы дать себе больше контроля над своими творческими данными:
Скройте свой художественный стиль
Инструменты маскировки, такие как Glaze(новое окно), затрудняют обучение моделей ИИ на ваших работах, внося крошечные изменения в пиксели, которые сбивают с толку модели ИИ. Для людей изображение выглядит так, как и предполагалось, но для скрепера ИИ оно воспринимается как другой или искаженный стиль.
«Отравите» свои работы
Используя такие инструменты, как Nightshade(новое окно), вы можете сделать свои произведения «ядовитыми» для сборщиков данных ИИ. «Отравленное» изображение содержит незаметные, невидимые изменения, которые мешают обучению ИИ, заставляя систему неправильно интерпретировать то, что она видит, например, автомобили вместо кошек или облака вместо самолетов. Со временем, если для обучения будет использовано достаточно отравленных изображений, эти неправильные ассоциации могут проявиться в будущих версиях модели.
Однако технические средства защиты, такие как Glaze и Nightshade, не являются надежными на 100%, и исследования(новое окно) показывают, что их эффективность может снижаться по мере развития систем ИИ.
Откажитесь от обучения ИИ
Если ваша работа существует онлайн, велика вероятность, что она была собрана в модель ИИ. Используя веб-сайты, такие как Have I Been Trained(новое окно) и AI Watchdog(новое окно) от The Atlantic, вы можете проверить, появляются ли ваши изображения, тексты или другие творческие работы в известных наборах данных, используемых для обучения моделей ИИ. Первый позволяет вам отправить свою работу в реестр «Не обучать» (Do Not Train), где компании-участники могут идентифицировать и исключить эти изображения из будущих циклов обучения. Однако эти меры являются добровольными, зависят от готовности отдельных компаний соблюдать их и не влияют на модели, которые уже были обучены с использованием ваших работ.
Если вы живете в ЕС, вы можете использовать законы о защите данных, такие как GDPR(новое окно), в своих интересах, требуя от компаний исключить ваш контент из обучения ИИ. У некоторых компаний процессы отказа от использования спрятаны в настройках их приложений; например, вот как отказаться от использования данных Meta AI в Facebook, Instagram и WhatsApp.
Защитите свои настройки конфиденциальности
Сократите количество того, что вы публикуете публично в социальных сетях, и убедитесь, что ваш профиль установлен как конфиденциальный. Чем меньше контента находится в открытом доступе, тем сложнее внешним системам ИИ его собрать. Но этого может быть недостаточно, чтобы защитить вас от самой платформы, поскольку многие компании все чаще интегрируют функции ИИ — например, Meta использует все взаимодействия с Meta AI для обучения и рекламы — что вызывает вопросы о том, как публичный и конфиденциальный контент могут использоваться со временем. Лучше избегать использования социальных сетей в качестве основного архива или портфолио.
Осознанно подходите к публикации в открытом доступе
При публичном размещении постов для охвата аудитории делитесь уменьшенными версиями работ, версиями с низким разрешением или с водяными знаками. Храните файлы полного качества в офлайн-резервных копиях или облачных сервисах, которые четко заявляют, что не используют конфиденциальный контент для обучения ИИ.
Безопасно храните файлы и делитесь ими
Поскольку инструменты ИИ все глубже интегрируются в основные платформы — например, Google добавляет Gemini повсюду, включая Google Drive и Gmail — люди все более осторожно относятся к тому, как хранить свои работы и делиться ими.
Proton Drive обеспечивает хранение, зашифрованное сквозным методом, и обмен вашими фотографиями, видео, альбомами, документами, электронными таблицами и другими файлами. Мы никогда не собираем, не обрабатываем, не делимся вашими данными с третьими лицами и не используем их для обучения ИИ. В отличие от Big Tech, Proton полностью поддерживается нашим сообществом платных подписчиков, а не рекламой или использованием данных.
Вы можете делиться защищенными паролем ссылками, устанавливать сроки действия, предоставлять доступ конкретным людям только по электронной почте и отзывать доступ в любое время. Вы также можете безопасно собирать файлы от людей без аккаунта Proton.
Используйте конфиденциальный ИИ, не теряя контроля
Если вы хотите пользоваться преимуществами ИИ, не теряя контроля над своими работами и не беспокоясь о том, что будущее изменение политики может внезапно превратить ваши файлы в данные для обучения, используйте наш конфиденциальный ИИ-помощник(новое окно). Lumo никогда не обучается на ваших файлах или переписках, и он основан на коде с открытым исходным кодом, что означает, что любой может проверить наши заявления.
Lumo интегрируется с Proton Drive, позволяя вам безопасно работать с вашими файлами и генерировать изображения, не внося вклад в экосистему сбора данных ИИ, против которой активно выступают так много людей и организаций.
Ваше творчество — это конфиденциальные данные
Прекращение кражи произведений искусства ИИ не означает полный отказ от ИИ. Но это означает признание того, что творческая работа — это конфиденциальные данные, будь то иллюстрация, роман или песня. Авторы заслуживают свободы действий и справедливого обращения, включая возможность решать, как и будет ли использоваться их работа.
Ни одна стратегия не может полностью предотвратить поглощение системами ИИ общедоступного контента — а в некоторых случаях и косвенно раскрытого конфиденциального контента — для их обучения. И компании ИИ заставят вас поверить, что нет способа создавать инструменты ИИ без использования ваших данных. Мы не согласны(новое окно).
Пока регуляторы и суды не предоставят более четких указаний, наиболее эффективный подход — проявлять инициативу в отношении того, как вы взаимодействуете с интернетом, и выбирать платформы, которые явно уважают вашу конфиденциальность и творческие права.






