OpenAI는 웹에서의 모든 상호작용에 ChatGPT를 직접 구축하는 새로운 브라우저인 ChatGPT Atlas를 출시했습니다. 이 회사는 이를 사용자와 함께 웹사이트를 이동하며, 사용자가 보는 것을 해석하고, 요청한 작업을 완료하는 디지털 비서로 나아가는 단계라고 설명합니다.
현재 Mac에서만 사용할 수 있는 Atlas는 놀라운 편리함을 약속합니다. 하지만 동시에 결과를 알 수 없는 새로운 개인정보 및 보안 위험을 초래합니다. OpenAI는 제품이 사용자 데이터를 어떻게 보호하는지에 대한 몇 가지 핵심 질문에 아직 답하지 않았습니다.
하지만 주요 이점과 그에 따른 심각한 개인정보 위험을 검토하기에는 이미 충분한 정보가 있습니다.
ChatGPT Atlas 작동 방식
Atlas는 브라우징 기능을 변경하는 두 가지 핵심 시스템을 도입합니다. 첫 번째인 브라우저 메모리는 방문한 사이트와 상호 작용 방식을 기록하여 ChatGPT의 답변을 더 개인적으로 만드는 것을 목표로 합니다. 두 번째인 에이전트 모드는 AI가 브라우저 창 내에서 페이지를 열고, 양식을 채우고, 작업을 수행할 수 있도록 합니다.
OpenAI는 이러한 기능이 선택 사항이라고 말합니다. 비활성화하거나 데이터를 삭제하거나 비공개로 탐색할 수 있습니다. 또한 회사는 사용자가 동의(opt-in)하지 않는 한 브라우징 콘텐츠가 모델 학습에서 제외된다고 말합니다.
하지만 재창조에 대한 모든 이야기에도 불구하고 ChatGPT Atlas는 여전히 Chrome 및 Edge와 동일한 오픈 소스 엔진인 Chromium에서 실행됩니다(새 창).
해당 프레임워크는 사용자 설정과 습관에 의존합니다. 많은 연구에 따르면 대부분의 사람들은 기본 설정을 변경하지 않습니다(새 창). 그리고 이전 AI 브라우저들은 실제 환경에서 이러한 통제가 얼마나 취약할 수 있는지 보여줍니다.
AI 브라우저의 보안 위험: 지금까지 연구원들이 밝혀낸 것
최초의 AI 브라우저 중 하나는 2025년 7월에 출시된 Perplexity의 Comet이었습니다. Time지에서 처음 보도한(새 창) 브라우저 AI 시스템의 취약점은 AI 브라우징이 어떻게 새로운 공격 벡터를 열 수 있는지 보여주었습니다. LayerX의 연구원들은 악성 링크가 URL 내부에 지침을 숨길 수 있는 CometJacking이라는 취약점을 발견했습니다(새 창). 클릭하면 Comet의 AI가 해당 프롬프트를 실제 명령으로 해석했습니다.
테스트 결과 브라우저가 Gmail과 캘린더에서 데이터를 가져오고, 악성 파일을 다운로드하고, 어떤 경우에는 사기 웹사이트에서 구매를 시도할 수도 있는 것으로 나타났습니다. iTnews는 나중에(새 창) Comet을 행동은 빠르지만 의심스러운 지침에 의문을 제기하는 데는 느린 지나치게 열성적인 어시스턴트로 묘사한 Guardio 연구원들의 유사한 발견을 상술했습니다. Kaspersky의 분석(새 창)은 더 나아가 AI를 브라우저에 직접 통합하면 악성 웹 콘텐츠가 이를 조작할 수 있는 직접적인 채널을 제공한다고 경고했습니다.
Atlas가 설계상 위험한 이유
검색은 항상 감시였습니다. AI 검색은 이를 친밀한 감시로 만듭니다. Atlas는 이를 전체적인 감시로 만듭니다.
Google과 같은 기존 엔진은 의학적 증상, 레시피, 법적 쿼리와 같은 고립된 질문을 포착합니다. 대화형 AI는 이러한 조각을 이야기로 바꿉니다. 설명을 요청하고, 후속 질문을 유도하고, 문맥을 기록합니다. 시간이 지나면서 이러한 교환은 귀하의 사생활에 대한 상세한 초상화를 만들어 의도, 취약점 및 의사 결정 패턴에 대한 내러티브를 구축합니다.
이는 ChatGPT 앱에 국한되더라도 이미 위험합니다. Atlas를 사용하면 동일한 메커니즘이 브라우저 내부에 존재하여 OpenAI에 귀하가 온라인에서 하는 모든 상호 작용에 대한 전체적인 감시를 제공합니다.
OpenAI의 자체 문서(새 창)는 Atlas가 방문하는 페이지를 보고, 브라우저 메모리를 통해 내용을 기억하고, 에이전트 모드를 통해 귀하를 대신하여 행동할 수 있음을 확인합니다. 각 계층은 가시성을 높입니다. Atlas는 단순히 쿼리를 등록하는 것이 아니라 귀하가 무엇을 읽고, 얼마나 오래 머무르며, 다음에 무엇을 하는지 관찰합니다.
결과적으로 의도와 행동에 대한 단일하고 포괄적인 기록이 남습니다. OpenAI가 이 콘텐츠가 기본적으로 학습에 사용되지 않는다고 말하더라도, 여전히 개인화를 위해 처리되고 분석됩니다. 추론을 통해 Atlas는 일상적인 행동을 연결하여 불안 증상 검색을 치료사 목록 및 약물 연구와 연결하여 개인의 정신 건강에 대한 그림을 형성하는 것과 같이 드러나는 내러티브를 구축할 수 있습니다.
개인정보 제어 기능은 존재하지만 지속적인 경계를 요구합니다. 사용자는 가시성을 토글하거나 기억을 삭제할 수 있지만 대부분은 이러한 설정을 관리하는 것을 잊어버릴 것입니다. 데이터를 가져오거나 삭제할 수 있습니다. 하지만 모델은 이미 귀하가 한 행동에 대해 학습되었습니다.
Atlas는 검색과 브라우저 데이터를 결합하여 Google이 달성한 것 이상의 감시를 확장합니다. OpenAI는 AI 대화, 웹 상호 작용(검색 엔진 외부 포함), 개인 데이터 수집을 문맥을 이해하고 이에 따라 행동할 수 있는 단일 인터페이스로 통합했습니다.
개인정보 보호 및 데이터 노출 우려
TechCrunch는 Atlas가 답변을 개인화하기 위해 브라우징 활동 기록을 유지한다고 보도했습니다(새 창). Kaspersky는 이 수준으로 통합된 AI가 웹 트래픽과 기기의 파일에 대한 완전한 가시성을 갖는다고 경고합니다(새 창). 이러한 가시성에는 구독, 업무 문서 또는 금융 데이터와 같은 개인적인 자료가 포함될 수 있습니다.
AI 브라우저는 수동적인 데이터 수집에서 지속적인 행동 매핑으로의 전환을 의미합니다. 방문한 모든 페이지, 작성된 모든 프롬프트, 위임된 모든 작업은 행동을 예측하고 영향을 미치도록 설계된 피드백 루프의 또 다른 신호가 됩니다.
OpenAI는 사용자 설정을 안전장치로 지적합니다: 개인정보 토글, 데이터 삭제 및 시크릿 브라우징. 하지만 이것들은 표면적인 통제일 뿐입니다. AI가 점들을 연결하면 데이터 조각 하나를 제거한다고 해서 이미 구축된 이야기가 지워지는 것은 아닙니다. Atlas는 개별 항목을 잊을 수 있지만 추론은 남습니다.
이 모델은 웹의 가장 강력한 두 가지 데이터 수집 엔진인 검색 인덱스와 브라우저를 통합하고 관찰한 내용에 대해 추론할 수 있는 AI를 덧입힙니다.
문제는 이것이 도움이 된다는 점입니다. 식료품 목록을 정리하는 도구는 금융 행동도 매핑합니다. 치료법 조사를 돕는 도구는 감정 상태도 추론합니다. 개인화처럼 보이는 것은 공감을 가장한 데이터 추출입니다.
초기 감시 자본주의는 사용자의 무관심, 즉 사람들이 개인정보 보호 설정을 업데이트하기에는 너무 게으르다는 점에 의존했습니다. Atlas는 참여에 의존합니다: 너무 똑똑하고 편리해서 신뢰할 수밖에 없게 만듭니다.
Atlas가 민감한 용도로 사용하기에 아직 준비되지 않은 이유
Atlas는 핸즈프리 브라우징을 향한 대담한 단계이지만 신뢰를 위해 구축되지는 않았습니다. 강력하게 만드는 동일한 설계 선택이 안전하지 않게 만듭니다. 보안 연구원과 테스터들은 AI 브라우저에 대해 일관된 결론에 도달했습니다: 놀라운 시연이지만 일상생활에는 신뢰할 수 없습니다.
Atlas를 사용해 본다면 테스트 환경처럼 취급하세요. 뱅킹, 업무 및 개인 계정은 다른 곳에 두세요. 안전장치가 실제 위협을 견딜 것이라고 가정하지 마세요.
OpenAI는 Atlas의 보안을 개선할 가능성이 높지만, 오늘날 AI 브라우저를 사용한다는 것은 회사에 온라인 행동에 대한 직접적인 가시성을 부여하고 그 접근 권한이 보호된 상태로 유지되기를 바라는 것을 의미합니다.
그 우려는 OpenAI 자체에서 끝나지 않습니다. 회사는 파트너 및 타사 서비스 제공업체와 데이터를 공유하여 직접적인 통제 범위를 넘어 접근 범위를 확장하기 때문입니다. 예를 들어, OpenAI 파트너와 관련된 침해 사고로 API 사용자 데이터가 노출되었습니다. 이는 정보가 ChatGPT 생태계에 들어가면 모든 추가 당사자가 잠재적인 약한 고리가 됨을 상기시켜 줍니다.
안전하게 지켜주는 개인형 AI 어시스턴트를 사용하세요
다른 접근 방식이 있으며 이미 수백만 명의 사람들이 사용하고 있습니다.
Lumo는 Proton의 개인 AI 비서(새 창)로, 지능과 개인정보가 공존할 수 있음을 증명하기 위해 구축되었습니다. 엄격한 무로그 방침 하에 운영됩니다. 대화 기록은 제로 액세스 암호화로 보호되므로 Proton조차 읽을 수 없습니다. 대화는 훈련에 절대 사용되지 않습니다. 코드와 모델 모두 오픈 소스이므로 누구나 내부에서 무슨 일이 일어나는지 확인할 수 있습니다. 사용자는 자신의 데이터를 완전히 소유합니다. 또한 Lumo는 광고주가 아닌 커뮤니티의 후원을 받기 때문에 개인정보를 이용할 상업적 유인이 없습니다.
그것이 감시 AI와 개인정보 보호 AI의 차이입니다. 하나는 데이터를 수집하기 위해 만들어졌고, 다른 하나는 데이터를 보호하기 위해 만들어졌습니다.






