인공지능 사용이 증가함에 따라 AI 어시스턴트(새 창)는 신뢰할 수 있는 동반자가 되고 있습니다. 수백만 명의 사람들이 질문을 하고 문제를 해결하기 위해 ChatGPT, Claude, Gemini, DeepSeek 등과 같은 챗봇을 찾습니다. 이들의 쿼리는 건강 문제에 대해 묻거나, 고객 데이터를 공유하거나, 정서적 지원과 창의적인 영감을 구하는 등 매우 민감할 수 있습니다.
많은 사람들에게 이러한 챗봇은 인간적이고 반응이 좋으며 기밀을 지키는 것처럼 느껴집니다. 그러나 최근의 상황들(법적 명령으로 OpenAI가 ChatGPT 출력 데이터를 무기한 보존하도록 강요받았으며(새 창), OpenAI 창립자인 Sam Altman은 ChatGPT가 “법적 기밀 유지”를 제공하지 않는다고(새 창) 말했습니다)은 귀하가 입력하는 모든 단어가 로그로 기록되고, 저장되고, 분석되며, 오용되거나 제3자에게 유출될 수 있는 위험을 조명합니다.
그 의미와 우리 모두가 우려해야 하는 이유는 다음과 같습니다.
AI와 함께라면 위험 부담이 더 큽니다
AI 어시스턴트의 부상은 새로운 개척지처럼 느껴지지만, 여러 면에서 우리는 이전에 겪어본 일입니다. AI 채팅 로그를 둘러싼 우려는 검색 엔진 초기에 표면화되었던 것과 유사하며, 그중 많은 부분이 사실로 입증되었습니다. 검색 로그는 수익성 있는 광고 타겟팅 프로필을 구축하는 데 사용되었고, 데이터 보안 사고로 노출되었으며, 법원에 소환되기도 했습니다.
AI의 경우 데이터가 더 개인적이고 상세하기 때문에 위험 부담이 더 큽니다. 점점 더 많은 사람들이 답을 얻기 위해 검색 엔진에서 AI 챗봇으로 눈을 돌리고 있으며, 2026년까지 검색 엔진 사용량이 25% 감소할 것이라는 예측(새 창)이 있습니다. 일반적으로 짧고 단편적인 쿼리를 캡처하는 검색창과 달리, 챗봇에 대한 질문은 질문자가 다른 사람과 이야기하는 것처럼 구성되어 과정에서 자신에 대해 훨씬 더 많은 것을 드러냅니다. 단 한 번의 대화에도 개인적인 생각(새 창), 정서적 어려움, 건강 우려(새 창), 재정적 두려움 또는 전체 이름과 주소까지 포함될 수 있습니다.
간단히 말해서, 채팅 로그는 검색 엔진 로그보다 훨씬 더 풍부하고 친밀한 신원 지도를 제공하며, 개인정보에 훨씬 더 큰 영향을 미칩니다. 빅테크는 채팅 로그에 접근하여 정부에 공개되거나 타겟팅 광고에 사용될 수 있는 심리 프로필을 구축할 수 있습니다. 예를 들어, Meta는 개인화된 광고를 만들기 위해 AI 채팅 데이터를 사용하고 있습니다.
‘익명’ 채팅이 항상 익명으로 유지되지는 않습니다
채팅 로그 개인정보 보호에 대한 걱정에 반대하는 흔한 주장은 데이터 양이 방대하여 특히 사용자가 로그인하지 않은 경우 개인적인 악용 가능성이 낮다는 것입니다. 하지만 최근 역사는 다른 이야기를 들려줍니다.
지난 7월, 기자들은 ChatGPT의 10만 건 이상의 대화(새 창)가 Google에 인덱싱되어 검색 가능하다는 사실을 발견했습니다. “공유” 버튼을 클릭하여 대화를 친구나 동료에게 보낸 사용자는 자신의 비공개 대화가 인터넷의 모든 사람에게 공개될 것이라고는 거의 깨닫지 못했을 것입니다.
이 사례는 경고입니다: 소위 “익명” 데이터는 거의 익명이 아닙니다. IP 주소, 타임스탬프, 기기 지문, 세션 및 쿠키 ID와 결합되면 이러한 로그는 훨씬 더 식별 가능해집니다.
채팅이 우리의 내면을 드러내는 방식
인기 AI 플랫폼 ChatGPT(새 창), Gemini(새 창), DeepSeek(새 창)은 모두 사용자 채팅 로그가 모델 성능 향상에 사용되며 광고나 사용자 프로파일링을 위해 데이터를 “판매”하는 데 사용되지 않는다고 명시합니다. 그러나 OpenAI의 법적 분쟁에서 볼 수 있듯이 정책은 하루아침에 바뀔 수 있습니다.
예를 들어, Anthropic은 2025년 8월 데이터 보존 기간을 연장하기 위해 경고 없이 개인정보취급방침을 업데이트했습니다(새 창). 로그가 무기한 저장됨에 따라 한때 접근 금지 구역으로 여겨졌던 개인 데이터가 갑자기 수익성 있는 이익 창출원이 될 수 있습니다.
이런 일이 처음은 아닐 것입니다. 1998년 Google이 출범했을 때, 공동 창업자 세르게이 브린과 래리 페이지는 광고 기반 검색 엔진이 필연적으로 “광고주에게 편향되고 소비자의 필요와 멀어질 것”이라고 경고했습니다(새 창). 10년 후, Google은 검색 기록을 사용하여 사용자 맞춤형 광고를 타겟팅하기 시작했습니다(새 창).
사람들의 내면에 직접 접근할 수 있는 AI 로그는 광고 타겟팅을 한계까지 밀어붙일 수 있습니다. 정서적 지원을 위해 챗봇을 찾는 사용자(새 창)가 늘어나면서 누군가는 다음과 같이 털어놓을 수 있습니다:
- “요즘 너무 벅차고 외로워요.”
- “제가 우울증인 것 같나요?”
- “다음 달 월세를 낼 수 없으면 어떻게 해야 하나요?”
이러한 진술은 단순한 키워드나 상호 작용의 모음이 아니라 명확한 감정적, 상황적 기호입니다. 저장되고 분석될 경우, 심리적 프로필을 구축하고 사용자 결정을 조작하는 데 사용될 수 있습니다.
민감한 개인 정보가 착취적인 목적으로 사용될 수 있다고 말하는 것은 기우가 아닙니다. 거대 기술 기업들이 이미 그렇게 해왔기 때문입니다. 2017년 Facebook은 불안정한 시기에 정서적으로 취약한 청소년을 타겟팅(새 창)하는 방법을 모색함으로써 어떤 상호 작용도 접근 금지 영역이 아님을 보여주었습니다.
챗봇 로그는 귀하의 정신 세계를 들여다보는 창입니다. 그리고 데이터 사용 및 어플리케이션에 대한 명확한 지침과 규정이 아직 없는 분야에서 이러한 수준의 접근은 심각한 개인정보 및 윤리적 우려를 제기합니다.
사용자에 대한 법적 위험
검색 기록은 오랫동안 범죄 수사와 재판에서 역할을 해왔습니다. 온라인 쿼리가 유죄 판결에 기여한 여러 사례가 있으며, 특히 미국의 Moira Akers 대 주 정부 사건이 그렇습니다.
2018년 사산을 겪은 후, Akers는 살인 혐의로 기소되어 2022년 징역 30년형을 선고받았습니다. 검찰 측 주장의 핵심 부분은 임신 초기 단계에 수행된 낙태에 대한 Akers의 인터넷 검색이었습니다. 검찰에 따르면 이러한 검색은 Akers의 의도를 보여주는 증거였습니다. 그녀가 만삭까지 임신을 유지했음에도 불구하고 말이죠. 메릴랜드 대법원은 2025년 검색 쿼리 증거를 인정할 수 없다고 판결(새 창)하며 그녀의 유죄 판결을 뒤집었습니다. 하지만 Akers는 이미 감옥에서 거의 3년을 보낸 뒤였습니다. 이 사건은 저장된 로그가 반대되는 증거가 있음에도 불구하고 불리한 서사에 맞춰 이야기를 꾸며내는 데 어떻게 사용될 수 있는지를 보여줍니다.
법적 증거의 대상이 될 수 있는 AI 저장된 채팅의 경우 위험이 훨씬 더 높을 수 있습니다. 검색 쿼리와 달리 이러한 상호 작용은 더 대화적이며 심지어 추측성이 짙기도 한데, 때로는 LLM(대규모 언어 모델)으로부터 특정 유형의 반응을 이끌어내기 위한 방법일 수 있습니다. AI와의 사적이고 순수한 대화가 나중에 법적 환경에서 당시의 의도와 관계없이 자신에게 불리하게 해석될 수 있습니다.
조작을 위한 강력한 도구
챗봇 로그를 볼 수 있는 사람은 개인적인 습관, 감정적 트리거, 관계 역학, 심지어 직업적 취약점과 같은 상세한 행동 청사진에 접근할 수 있습니다. 악의적인 사람의 손에 들어가면 이 데이터는 심리적 조작을 포함하는 일반적인 해킹 전술인 소셜 엔지니어링을 위한 강력한 도구가 됩니다.
이러한 위험은 가정이 아닙니다. 2025년 1월, AI 플랫폼 DeepSeek은 방대한 데이터베이스를 온라인에 노출했습니다(새 창). 이 보안 사고에는 100만 개 이상의 AI 채팅 로그와 API 키가 포함되어 있었으며, 찾는 방법만 알면 누구나 공개적으로 접근할 수 있었습니다. 노출된 데이터 중에는 가족, 재정 및 기밀 프로젝트에 대한 논의가 포함되었을 수 있는 일반 텍스트 대화가 있었으며, 이는 사기, 협박 또는 신원 도용에 쉽게 악용될 수 있는 정보입니다.
일단 유출되면 이 데이터는 귀하를 사칭하거나 조작하는 데 무기화될 수 있습니다. 공격자는 과거 대화에서 가져온 개인 세부사항을 참조하여 귀하의 신뢰를 얻고 이를 악용하여 심각한 재정적 또는 보안 취약점을 만들 수 있습니다.
정치적 감시의 공포
권위주의 정권에서는 저장된 디지털 상호 작용의 결과가 훨씬 더 심각할 수 있습니다. 예를 들어, 여러 국가에서는 운영자가 사용자의 개인 정보를 처리하는 방식에 대한 보안 우려로 인해 정부 기기에서의 중국 기반 AI 플랫폼 DeepSeek 사용을 금지했습니다(새 창). 한국, 호주, 대만은 중국 당국이 이 데이터에 접근하여 잠재적으로 감시에 사용할 수 있다는 우려를 제기했습니다.
반체제 인사, 활동가 또는 언론인에게 이것은 단순한 개인정보 문제가 아니라 안전의 문제입니다. 시위 권리, 미디어 법률 또는 망명 경로에 대한 겉보기에 가벼운 채팅이 언론의 자유와 시민의 자유에 대한 보호가 제한된 관할권에서는 유죄 증거로 해석될 수 있습니다.
지적 재산에 대한 위협
2023년, 삼성 엔지니어들은 쿼리가 비공개라고 잘못 믿고 문제를 디버그하려다가 실수로 독점 소스 코드를 ChatGPT에 업로드했습니다(새 창). 제출된 데이터는 OpenAI의 훈련 시스템의 일부가 되었으며, AI 도구와 공유된 지적 재산의 보안 및 소유권에 대한 우려를 불러일으켰습니다.
이 기사의 시작 부분에서 언급된 The New York Times가 OpenAI를 상대로 제기한(새 창) 세간의 이목을 끄는 저작권 소송에서도 관련 우려가 제기되었습니다. 이 사건으로 인해 OpenAI가 허가 없이 신문사의 기사 수백만 건을 사용하여 모델을 훈련했다는 혐의를 받은 후 모든 ChatGPT 출력 데이터를 무기한 보존하라는 법원 명령이 내려졌습니다. 이 사건은 OpenAI의 웹 크롤러가 뉴스 콘텐츠를 스크래핑하는 데 중점을 두고 있지만, AI 플랫폼에 원본 작업을 제공하는 작가, 디자이너, 음악가 등 창작자들에게 더 광범위한 질문을 제기합니다.
사용자 제출 콘텐츠가 모델에 의해 보존되고 재사용되는 경우, 독점 또는 창작물이 출처 표시나 동의 없이 다른 사용자에게 재배포될 수 있는 실질적인 위험이 있습니다. 이는 사용자 기여와 AI 훈련 데이터 사이의 경계를 모호하게 하며, 생성형 AI 시대의 저작권과 소유권에 대한 긴급한 질문을 제기합니다.
바뀌어야 할 점과 자신을 보호하는 방법
대부분의 사람들은 실제 생활에서 개인정보 보호를 원하고 기대합니다. 우리는 동일한 기대가 사람들의 디지털 생활로 확장되어야 한다고 믿습니다. 우리는 친구에게 이메일을 보내거나, 좋아하는 쇼를 스트리밍하거나(새 창), 사진을 백업하는 등 누구나 온라인 개인정보 보호에 접근할 수 있도록 하는 암호화된 서비스 제품군을 구축했습니다. 인터넷의 초기 실수를 바로잡기에 너무 늦지 않았으며, AI 초기 단계인 지금은 귀하의 개인정보를 존중하는 이 기술의 새로운 방향을 제시할 시간이 아직 남아 있습니다.
우리는 설계상 주요 보호 기능을 유지하는 방식으로 AI 비서(새 창) Lumo를 구축했습니다:
- 데이터 로깅 없음: 사용자는 제출 내용이 저장되거나, 이익을 위해 사용되거나, 자신에게 불리하게 사용될 것이라는 우려 없이 챗봇과 소통할 수 있어야 합니다.
- 모델 훈련 없음: 개인 채팅은 나중에 모델의 출력에 다시 나타날 위험이 있으므로 훈련 데이터로 악용되어서는 안 됩니다.
- 데이터 처리의 투명성: 저장된 사용자 데이터가 어떻게 사용되는지, 누가 접근할 수 있는지, 어디에 저장되는지, 얼마나 오래 보존되는지, 어떻게 삭제할 수 있는지 명확해야 합니다.
- 기본적으로 제로 액세스 암호화: 대화는 사용자의 암호화 키를 사용하여 보호되어야 하며, AI 제공자조차 접근할 수 없어야 합니다.
데이터를 조용히 로그하는 챗봇의 위험은 현실적이고 시급하지만, 우리는 무력하지 않습니다. 개인정보 보호 우선 AI 도구를 선택하고 제작자에게 투명성과 책임성을 요구함으로써, 우리는 권력의 균형을 다시 사용자의 손으로 되돌리고 개인정보 보호는 특권이 아니라 권리라는 믿음을 확인할 수 있습니다.






