남자들은 온라인에서 본 것을 믿었습니다. 다른 사람의 몸에 그녀의 얼굴을 합성한 노골적인 AI 생성 이미지와 실제 집 주소가 가득한 웹사이트였습니다. 그 사이트는 그녀의 집이 성매매 업소라고 주장했습니다.

Twitch에서 가장 잘 알려진 스트리머 중 한 명인 스위트 아니타(Sweet Anita)는 온라인에서 여성으로서의 위험을 이해하고 예방 조치를 취했습니다. 그녀는 실명을 숨기고 경계를 설정했으며 팀을 고용했습니다. 그 어떤 것도 누군가가 그녀를 딥페이크하는 것을 막지 못했습니다.

그 어떤 것도 그 다음에 일어날 일에 대해 그녀를 대비시키지 못했습니다.

스위트 아니타의 이야기

한 익명의 남자가 그녀의 AI 생성 포르노를 의뢰한 뒤, 그녀를 성 노동자로 묘사하는 가짜 웹사이트를 만들고 집 주소를 게시했습니다. 전체 설정은 그녀와 성관계를 강요할 수 있다는 거짓된 기대를 가지고 남자들을 그녀의 집으로 유인하기 위해 설계되었습니다. “그가 그런 짓을 한 후, 남자들이 제 집으로 찾아오기 시작했어요. 특히 제가 라이브 스트리밍을 하거나 집을 비웠을 때요.”라고 그녀는 말했습니다. “제 집에서도 안전하다고 느끼지 않아요.”

더플 백을 든 낯선 사람들이 침입하려고 시도했습니다. 그녀는 우체부에게서 우편물을 받는 것조차 두려웠습니다. 문을 열어주거나 집을 비워두는 것을 중단해야 했습니다. 그녀는 이전에 이사를 했었지만, 그들은 계속 그녀를 찾아냈습니다.

그리고 학대는 그녀의 현관에만 국한되지 않았습니다. 딸의 일을 자랑스러워하던 그녀의 돌아가신 어머니는 아니타의 소셜 미디어를 확인하다가 노골적인 AI 생성 이미지를 지나쳐 스크롤해야 했습니다. 친구와 동료들도 그것들을 보았습니다. “YouTube, Twitch, 모든 소셜 미디어에서 모든 것을 삭제할 수 있겠죠. 하지만 제 얼굴 이미지는 여전히 참고 자료로 사용될 수 있는 수많은 비디오에 남아 있을 거예요.”라고 그녀는 말했습니다.

딥페이크는 새로운 괴롭힘입니다

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Girlguiding의 연구에 따르면(새 창), 10대 4명 중 1명 이상이 급우, 교사, 친구 또는 심지어 자신 등 아는 사람의 노골적인 딥페이크를 본 적이 있다고 답했습니다. CNN 보도에 따르면(새 창) 학생의 40%와 교사의 29%가 지난 1년 동안 학교와 관련된 누군가의 딥페이크를 인지하고 있었으며, 학생의 15%는 노골적인 버전을 보았다고 답했습니다. 대부분의 학교에는 이러한 형태의 학대를 다루는 정책이 없습니다.

피해는 심각합니다. 피해자는 불안, 우울증, 심지어 PTSD를 겪을 수 있습니다. 그들은 사회적으로 위축되거나 친구를 잃거나, 검색 중에 노골적인 가짜가 나타날 수 있기 때문에 취업이나 대학 지원을 피할 수도 있습니다. 일부는 인터넷에서 콘텐츠를 지우기 위해 돈을 써야 하기도 합니다.

세계경제포럼(World Economic Forum)은 딥페이크가 많은 사람들이 우려했던 것처럼 선거를 불안정하게 만들지는 않았지만, 괴롭힘과 사기의 도구가 되었다고 지적합니다(새 창). 비동의 포르노가 가장 극단적인 형태이지만, 공격자들은 복제된 목소리와 가짜 화상 통화를 사용하여 사기를 저지르기도 합니다. 2024년 홍콩의 한 금융 직원은 CFO를 포함한 모든 참가자가 딥페이크였던(새 창) Zoom 통화에 참여한 후 2,500만 달러를 송금하는 사기를 당했습니다.

“제 평생 동안 개인적으로 이것을 피할 수 있는 방법은 없다고 봅니다.”라고 아니타는 말했습니다. “그리고 제가 그에 대해 책임져야 한다고 생각하지도 않아요. 이건 제 문제가 아니고, 제 잘못도 아니니까요.”

이것은 누구에게나 일어날 수 있는 일입니다

몇 장의 이미지만 있으면 됩니다. 공개된 Instagram. 학교 사진. 공유 앨범. 얼굴이 온라인에 공개되면 복사, 스크래핑 및 오용될 수 있습니다.

워릭 대학교 사이버 보안 센터의 카스텐 메이플 교수에 따르면, 오늘날의 AI 도구를 사용하면 단 20장의 사진이나 30초 분량의 비디오만으로도 누군가의 사실적인 프로필을 만들기에 충분하며, 이는 잠재적 위험의 범위를 확장합니다. 최근 설문 조사에 참여한 부모의 53%는 이 사실을 모르고 있었습니다.

The New York Times는 AI를 사용하여 사진에서 옷을 제거할 수 있는 이른바 “누디파이어(nudifier) 앱”의 증가에 대해 보도했습니다(새 창). 이러한 앱은 저렴하고 사용하기 쉬우며 널리 이용 가능합니다. 수사관들은 이 산업이 연간 약 3,600만 달러를 벌어들이는 것으로 추정합니다. 비동의 가짜 누드 게시를 불법화하는 새로운 미국 법률에도 불구하고 앱 자체는 여전히 합법입니다. 85개 사이트를 조사한 팀의 알렉시오스 만찰리스는 The New York Times에 “인터넷에 접근할 수 있는 아이라면 누구나 피해자가 되거나 가해자가 될 수 있습니다”라고 말했습니다.

개인 계정이 안전을 보장하지는 않습니다. 학대자는 종종 피해자가 아는 사람입니다. 생일 파티와 같은 겉보기에 무해한 포스트조차 2024년 약 110만 명의 어린이에게 영향을 미친 신원 도용을 부추기는 세부사항을 드러낼 수 있습니다.

“[딥페이크를 만드는] 사람들은 종종 그것이 소름 끼치고 부적절하다는 것을 잊어요. 동료나 친구들이 알면 해고당하고 배척당할 텐데 말이죠. 아는 모든 사람을 잃고 부모님은 그들에게 실망하실 텐데, 그렇죠?”라고 그녀는 말했습니다. “하지만 온라인에서 비슷한 생각을 가진 괴짜들과 함께 이런 자료를 만들 때, 그들에게는 그저 취미이자 소일거리일 뿐이에요. 그들은 그것이 사람들의 삶에 미치는 영향을 완전히 외면하고 잊어버리며 착각 속에 빠질 수 있어요.”

딥페이크 위험은 소셜 미디어를 훨씬 넘어섭니다

오늘날 가장 큰 위험은 소셜 미디어에 공유되는 것에서 올 수 있습니다. 하지만 전혀 공유하지 않는 사진은 어떨까요?

Google, Apple, Amazon, Meta 등은 모두 사진을 위한 클라우드 저장공간을 제공하며, 때로는 무료로 제공합니다. 하지만 그 편리함에는 대가가 따릅니다. Google은 최소 2015년부터 AI 훈련에 귀하의 사진을 사용해 왔으며, 당시 흑인 커플을 “고릴라”로 분류한 것에 대해 사과해야 했습니다(새 창). 그 이후로 모든 주요 저장공간 제공업체는 안면 인식 기술이 훨씬 더 발전했습니다. 어떻게 그런 일이 일어났다고 생각하시나요? 더 많은 사진이 끊임없이 AI에게 공급되었기 때문입니다.

빅테크에 저장되고 있는 수십억 장의 사진과 비디오는 언젠가 놀랍도록 상세하고 실물 같은 딥페이크를 생성하기 위한 먹잇감이 될 수 있는 방대한 자료의 보고입니다.

서비스 약관의 조용한 변경만 있으면 됩니다.

비밀번호를 보호하는 것처럼 추억을 보호하세요

다른 사람이 귀하의 이미지를 가지고 무엇을 하는지는 통제할 수 없습니다. 하지만 이미지가 어디에 저장되고 누가 접근할 수 있는지는 통제할 수 있습니다. Proton Drive는 가장 중요한 사진과 파일을 저장할 수 있는 개인적이고 암호화된 방법을 제공합니다.

  • 종단 간 암호화: 파일은 기기를 떠나기 전에 암호화됩니다. 빅테크와 달리 Proton조차도 파일을 볼 수 없습니다.
  • 기본적인 개인정보 보호: 귀하의 데이터는 결코 판매되거나, 공유되거나, AI 훈련에 사용되지 않습니다.
  • 안전한 공유: 비밀번호를 추가하고, 유효기간을 설정하거나, 언제든지 접근을 취소하세요.
  • 자동 백업: 휴대폰을 분실하거나 도난당해도 추억은 안전하게 유지됩니다.

Proton Drive를 사용하면 귀하의 데이터는 항상 귀하의 것입니다.