오늘날 창작자들이 직면한 답답한 현실은 자신의 작품이 AI 훈련에 노출된다는 것입니다. ChatGPT, Gemini, DeepSeek, Stable Diffusion, Midjourney와 같은 생성형 AI를 개발하는 기술 기업들은 모델 훈련을 위해 방대한 데이터세트가 필요하며, 이를 위해 공개 인터넷을 크롤링해 왔습니다.
이는 동의, 저작자 표시, 그리고 온라인에 공유된 창작물에 대한 통제권에 관한 중요한 의문을 제기했습니다.
창의적인 데이터를 더 잘 보호할 방법을 찾고 있다면, 이 가이드는 자신의 방식대로 인터넷 활동을 계속하면서도 AI 훈련에 작업물이 사용되는 것을 줄이기 위해 취할 수 있는 실질적인 단계를 간략히 설명합니다.
공개 콘텐츠에 대한 AI 훈련이 창작물을 위험에 빠뜨리는 방식
생성형 AI 도구는 작동을 위해 방대한 양의 데이터를 필요로 하며, 그 데이터의 대부분은 인터넷에서 수집됩니다. OpenAI는 온라인에서 발견되는 저작권이 있는 자료에 접근하지 않고는 ChatGPT와 같은 AI를 훈련하는 것이 “불가능”할 것이라고 공개적으로 밝혔습니다(새 창).
온라인 포트폴리오, 소셜 미디어 플랫폼, 블로그의 창작물들이 동의나 출처 표시 없이 모델 훈련에 사용되고 있습니다. 예를 들어, Meta는 생성형 AI 모델을 훈련하기 위해 2007년까지 거슬러 올라가는 공개적으로 공유된 Facebook 및 Instagram 게시물(포스트), 사진, 댓글을 수집했음을 인정했습니다(새 창). 이는 귀하가 결혼 사진, 포트폴리오 사진, 일러스트레이션 등 해당 플랫폼에 공개적으로 공유한 모든 창작물이 공개 설정을 비공개(private)로 설정하지 않는 한 AI 훈련에 사용될 수 있음을 의미합니다.
AI 기업들은 진행 중인 소송(새 창)에서 스크랩된 인터넷 데이터로 훈련하는 것이 “공정 이용”에 해당한다고 주장해 왔습니다. 동시에 그들은 결과물인 모델과 데이터세트를 독점 자산으로 취급합니다. OpenAI의 서비스 약관은 “Output을 사용하여 OpenAI와 경쟁하는 모델을 개발하는 것”을 금지하고 있으며, 이 회사는 DeepSeek가 공개적으로 이용 가능한 인터넷 데이터로 훈련된 것과 동일한 모델을 “부적절하게” 복제(새 창)했다고 비난했습니다.
이러한 명백한 이중 잣대는 왜 많은 창작자가 자신의 작업물이 동의, 크레딧, 보상 없이 AI 훈련에 취약하다고 느끼는지 설명해 줍니다. 또한 라이선스가 무단 재사용이나 상업적 이용을 명시적으로 제한하는 플랫폼에 창작물이 공유될 때, “공개적으로 이용 가능”한 콘텐츠가 어떻게 해석되는지에 대한 광범위한 질문을 제기합니다. 결과적으로 많은 예술가, 작가, 사진작가가 AI 데이터 스크래핑에 점점 더 반발하고 있습니다.
AI가 내 예술 작품을 사용하지 못하게 하는 방법
법원이 여전히 개별 사건별로 판결을 내리고 명확한(clear) 법적 기준이 마련되지 않은 상황에서, 창작자들은 법적 시스템에만 의존하여 작품을 보호할 수 없습니다. 그동안 AI 훈련에 작업물이 사용되는 것을 줄이기 위해 지금 당장 취할 수 있는 실질적인 조치들이 있습니다.
하지만 이러한 전략 중 어느 것도 완벽하지는 않습니다. 보호 도구와 AI 기업들은 항상 서로를 앞서려고 노력하기 때문입니다. 현재로서는 이들을 함께 사용할 때 더 효과적인 갑옷의 개별 부품으로 생각하십시오. 창의적인 데이터에 대한 통제권을 강화하는 가장 좋은 방법은 다음과 같습니다:
예술 스타일 숨기기 (Cloak)
Glaze(새 창)와 같은 클로킹(Cloaking) 도구는 픽셀에 AI 모델을 혼란스럽게 하는 미세한 변화를 주어 AI 모델이 작업물을 훈련하기 어렵게 만듭니다. 이미지는 사람에게는 의도한 대로 보이지만, AI 스크래퍼에게는 다른 스타일이나 왜곡된 스타일로 인식됩니다.
작품에 “독” 풀기
Nightshade(새 창)와 같은 도구를 사용하면 작품을 AI 스크래퍼에게 유해하게 만들 수 있습니다. “독이 든” 이미지에는 AI 훈련을 방해하는 미세하고 보이지 않는 변화가 포함되어 있어, 시스템이 고양이를 자동차로, 비행기를 클라우드로 인식하는 등 보고 있는 것을 잘못 해석하게 만듭니다. 시간이 지나면서 충분한 독이 든 이미지가 훈련에 사용되면, 이러한 잘못된 연관성이 모델의 향후 버전에 나타날 수 있습니다.
그러나 Glaze나 Nightshade와 같은 기술적 보호 장치는 완벽하지 않으며, 연구(새 창)에 따르면 AI 시스템이 진화함에 따라 약화될 수 있음이 밝혀졌습니다.
AI 훈련 거부
작업물이 온라인에 존재한다면, 이미 AI 모델에 스크랩되었을 가능성이 큽니다. Have I Been Trained(새 창) 및 The Atlantic의 AI Watchdog(새 창)과 같은 웹사이트를 사용하여 이미지, 글 또는 기타 창작물이 AI 모델 훈련에 사용된 알려진 데이터세트에 포함되어 있는지 확인할 수 있습니다. 첫 번째 도구를 사용하면 훈련 거부(Do Not Train) 레지스트리에 작업을 제출할 수 있으며, 참여 기업은 향후 훈련 실행에서 해당 이미지를 식별하고 제외할 수 있습니다. 그러나 이러한 조치는 자발적이며, 이를 준수하려는 개별 기업의 의지에 달려 있고, 이미 귀하의 작업물을 사용하여 훈련된 모델에는 영향을 미치지 않습니다.
EU에 거주하는 경우, GDPR(새 창)과 같은 데이터 보호법을 유리하게 활용하여 기업에 AI 훈련에서 콘텐츠를 제외하도록 요청할 수 있습니다. 일부 기업은 앱 설정 깊숙한 곳에 거부(opt-out) 절차를 숨겨두기도 합니다. 예를 들어, Facebook, Instagram 및 WhatsApp에서 Meta AI 데이터 사용을 거부하는 방법은 다음과 같습니다.
개인정보 보호 설정 강화하기
소셜 미디어에 공개적으로 게시하는 포스트를 줄이고 프로필을 비공개(private)로 설정하십시오. 공개적으로 접근 가능한 콘텐츠가 적을수록 외부 AI 시스템이 스크랩하기 어려워집니다. 하지만 이는 플랫폼 자체로부터 귀하를 보호하기에는 충분하지 않을 수 있습니다. 많은 기업이 AI 기능을 점점 더 통합하고 있기 때문입니다. 예를 들어 Meta는 훈련 및 광고를 위해 모든 Meta AI 상호 작용을 사용하며, 이는 공개 및 개인(private) 콘텐츠가 시간이 지남에 따라 어떻게 사용될지에 대한 의문을 제기합니다. 소셜 미디어를 주 보관함이나 포트폴리오로 사용하지 않는 것이 가장 좋습니다.
공개 공유에 신중하기
관객에게 다가가기 위해 공개적으로 게시(post)할 때는 작업물의 작거나 해상도가 낮은 버전 또는 워터마크가 표시된 버전을 공유하십시오. 전체 품질의 파일은 오프라인 백업이나 AI 훈련에 개인 콘텐츠를 사용하지 않음을 명확히 하는 클라우드 서비스에 저장하십시오.
안전하게 파일 저장 및 공유하기
AI 도구가 주요 플랫폼 전반에 더 깊이 통합됨에 따라 — 예를 들어 Google이 Google 드라이브 및 Gmail을 포함한 모든 곳에 Gemini를 추가하는 것처럼 — 사람들은 자신의 작업물을 저장하고 공유하는 방법에 대해 점점 더 신중해지고 있습니다.
Proton Drive는 사진, 동영상, 앨범, 문서, 스프레드시트 및 기타 파일을 위한 종단간 암호화된 저장공간과 공유를 제공합니다. 우리는 귀하의 데이터를 수집, 처리하거나 제3자와 공유하거나 AI 훈련에 사용하지 않습니다. Big Tech와 달리, Proton은 광고나 데이터 사용이 아닌 유료 구독자 커뮤니티의 전적인 지원을 받습니다.
비밀번호로 보호된 링크를 공유하고, 유효기간을 설정하고, 이메일을 통해 특정 사람에게만 접근 권한을 부여하고, 언제든지 취소할 수 있습니다. 또한 Proton Account가 없는 사람들에게서도 파일을 안전하게 수집할 수 있습니다.
통제권을 포기하지 않고 개인 AI 사용하기
작업물에 대한 통제권을 포기하지 않고, 향후 정책 변경으로 파일이 갑자기 훈련 데이터로 바뀌는 것을 걱정하지 않으면서 AI의 이점을 누리고 싶다면, 당사의 개인 AI 어시스턴트(새 창)를 사용하십시오. Lumo는 귀하의 파일이나 대화로 훈련하지 않으며, 오픈 소스 코드를 기반으로 하므로 누구나 우리의 주장을 확인할 수 있습니다.
Lumo는 Proton Drive와 통합되어 파일을 안전하게 작업하고 이미지를 생성할 수 있게 해주며, 수많은 개인과 조직이 적극적으로 반대하고 있는 AI 스크래핑 생태계에 기여하지 않습니다.
예술 작품은 민감한 데이터입니다
AI 예술 절도를 멈추는 것이 AI를 완전히 거부하는 것을 의미하지는 않습니다. 하지만 일러스트레이션이든, 소설이든, 노래든 창작물이 민감한 데이터라는 점을 인식하는 것을 의미합니다. 창작자는 자신의 작품이 어떻게 사용될지, 사용 여부를 결정할 수 있는 능력을 포함하여 주체성과 공정한 대우를 받을 자격이 있습니다.
어떤 단일 전략도 AI 시스템이 공개적으로 이용 가능한 콘텐츠를 — 그리고 경우에 따라 간접적으로 노출된 개인(private) 콘텐츠를 — 훈련에 흡수하는 것을 완전히 막을 수는 없습니다. 그리고 AI 기업들은 귀하의 데이터를 사용하지 않고는 AI 도구를 만들 방법이 없다고 믿게 만들 것입니다. 우리는 동의하지 않습니다(새 창).
규제 기관과 법원이 더 명확한(clear) 지침을 제공할 때까지, 가장 효과적인 접근 방식은 인터넷과의 상호 작용 방식에 대해 능동적으로 대처하고 개인정보와 창작 권리를 명확히(clearly) 존중하는 플랫폼을 선택하는 것입니다.






