ChatGPT는 수백만 명의 사용자가 매일 사용하는 강력한 AI assistant(새 창)이지만, 사용해도 안전할까요? 이는 세계 최대 기술 기업 중 하나인 OpenAI가 소유하고 운영합니다. 그리고 많은 Big Tech 플랫폼과 마찬가지로 OpenAI는 대량의 사용자 데이터를 수집합니다. 해당 데이터는 제로 액세스 암호화로 보호되지 않으므로, 회사는 이를 비즈니스 파트너(광고 및 분석 회사 포함), 정부, 그리고 데이터 보안 사고 발생 시 해커에게 공개할 수 있습니다.
그 이면에서 OpenAI의 대형 언어 모델(LLM)은 사용자가 입력하는 내용에서 끊임없이 학습합니다. 건강 증상, 법적 문제 또는 지적 재산과 같은 민감한 질문을 묻는 것은 복잡한 프로파일링 시스템에 정보를 제공하거나, 사용자의 원래 의도를 훨씬 넘어서 사용되는 AI 모델을 학습하는 데 도움이 될 수 있습니다.
AI 회사가 사용자 데이터를 핸들하는 방식에 대한 우려가 커지고 있습니다. 2026년 3월, 미국 정부와의 논란이 된 파트너십으로 인해 AI 시스템이 배치되고 관리되는 방식에 대한 의문이 제기된 후 250만 명 이상의 사용자(새 창)가 ChatGPT를 떠나겠다고 약속했습니다. 이는 강력한 개인정보 보호 조치 없이 AI 비서와 상호 작용할 때 생각보다 더 많은 정보를 공유하게 될 수 있다는 것을 상기시켜줍니다.
- ChatGPT는 안전한가요? ChatGPT 및 기타 빅 테크와 같은 AI 사용의 위험
- ChatGPT와 절대 공유해서는 안 되는 것들
- ChatGPT 사용 시 안전을 유지하는 방법
- 개인 AI 비서로 전환
ChatGPT는 안전한가요? ChatGPT 및 기타 빅 테크와 같은 AI 사용의 위험
ChatGPT, Gemini, Meta AI, Copilot, DeepSeek와 같은 AI 도구를 선택하기 전에, 해당 도구의 보안 및 개인정보 위험을 이해해 둘 필요가 있습니다:
| 위험 | 잠재적 영향 | 중요한 이유 |
| 데이터 수집 및 로깅 | 프롬프트, 파일 업로드 및 상호 작용 패턴이 저장됨 상태일 수 있음 | AI 학습, 행동 프로파일링 또는 사람에 의한 검토에 사용될 수 있음 |
| 제로 액세스 암호화의 부재 | OpenAI와 그 파트너가 대화에 접근할 수 있습니다 | 민감한 데이터의 노출 위험 증가 |
| 규제 및 지적 재산 문제 | GDPR/HIPAA 노출 또는 독점 데이터 유출 | 법적 책임 및 재정적 결과 |
| 클로즈드 소스 시스템 | 데이터 처리에 대한 제한된 투명성 | OpenAI에 대한 신뢰가 필요함 |
| 앱 내 광고 | 추적 및 프로파일링 증가 | 채팅 데이터가 개인 맞춤형 광고에 어떻게 정보를 제공하는지 불분명함 |
개인 개인정보
ChatGPT를 사용함으로써 감수해야 할 위험은 다음과 같습니다:
- ChatGPT는 귀하가 입력하는 정보(예: 질문, 응답, 도구와 상호작용하는 방식)를 AI 모델 학습에 수집할 수 있습니다. 귀하가 이력서, 법률 문서, 의료 보고서 또는 개인 데이터가 포함된 다른 파일을 업로드하면, 해당 콘텐츠도 저장되고 처리될 수 있습니다.
- 귀하가 이름이나 기타 개인 데이터를 직접 입력하지 않더라도 프롬프트는 시간이 지남에 따라 건강 문제, 종교적 의심, 정치적 성향, 가족 상태 또는 감정 상태와 같은 패턴을 드러낼 수 있습니다. 이러한 패턴은 귀하의 IP 주소(새 창) 및 기타 기술 식별자와 결합되어 상세한 행동 프로필을 작성하는 데 사용될 수 있습니다.
- AI 훈련에서 옵트아웃할 수는 있지만 대화 내용은 여전히 로그에 기록되며 의견 제출과 같이 신고된 경우 사람 검토자가 민감한 세부사항을 볼 수 있습니다.
- 귀하의 채팅 기록은 전송되고 저장되는 동안 보호되지만, 제로 액세스 암호화로 보호되지는 않으므로 OpenAI나 제3자가 귀하의 과거 대화에 여전히 접근할 수 있습니다.
- 2025년 7월, 공유된 수천 개의 ChatGPT 대화가 Google 검색 결과에 나타나(새 창), 사용자가 개인적이라고 생각했던 매우 사적인 내용이 노출되었습니다. OpenAI는 곧 해당 기능을 중단하고 Google과 협력하여 결과를 색인에서 제외하고 있다고 밝혔지만, 이 사건은 귀하가 인식하지 못하는 사이에 AI와의 상호 작용이 얼마나 쉽게 공개 도메인으로 넘어갈 수 있는지를 잘 보여줍니다.
- 2026년 초, OpenAI는 무료 및 ChatGPT Go 요금제를 사용하는 ChatGPT 사용자를 위한 광고를 도입했습니다. 광고가 응답에 영향을 미치거나 광고주와 개인 데이터를 공유하지 않을 것이라는 보장에도 불구하고, 이러한 움직임은 초기 개인정보 우려 이후 결국 광고가 일상화되는 전형적인 빅테크 패턴을 따르고 있습니다.
비즈니스 위험
OpenAI는 미국 기업이므로 ChatGPT를 사용하면 데이터 보호에 대한 우려와 민감한 정보 유출 위험이 발생할 수 있습니다. 귀하가 유럽이나 다른 지역에 거주하더라도 귀하의 데이터는 미국 기업에서 처리되므로 여전히 미국 관할권의 적용을 받을 수 있습니다. 이것이 의미하는 바는 다음과 같습니다.
- 강력한 데이터 보호 보장이 없다면 귀하의 조직은 GDPR 및 HIPAA(새 창)와 같은 법률에 따라 벌금이나 규제 조사를 받을 위험이 있습니다.
- 회사 데이터로 AI 모델을 학습시키면 유출의 위험이 있습니다. 예를 들어, 직원이 ChatGPT에 독점 코드, 기밀 계약 또는 클라이언트 정보를 입력하여 지적 재산, 영업 비밀 또는 고객 데이터가 노출될 가능성이 있습니다.
- OpenAI는 파트너, 공급업체, 기타 제3자 또는 앱 연동을 통해 데이터를 공유할 수 있으며, 이 경우 개인정보 보호가 취약하거나 다른 데이터 정책이 적용될 수 있습니다. 2025년에는 OpenAI의 분석 공급업체 중 한 곳과 관련된 보안 사고로 인해 API 고객에 대한 식별 정보가 노출되었습니다.
- 애국법(Patriot Act) 또는 해외정보감시법(FISA)과 같은 미국 법률에 따라 기업은 종종 사용자에게 알리는 것을 금지하는 비밀 유지 명령과 함께 정부 기관에 데이터를 제공해야 할 수 있습니다.
투명성 부족
위에서 언급한 내용은 알려진 위험입니다. 하지만 ChatGPT(및 기타 비공개 소스 소프트웨어)에서 특히 위험한 것은 귀하가 알 수 없도록 허용되지 않은 부분입니다.
- ChatGPT 앱의 코드는 오픈 소스가 아니므로 어떻게 작동하는지, 어떤 로그를 남기는지, 이면에서 귀하의 데이터를 어떻게 처리하는지에 대한 공개적인 감독이 불가능합니다. 귀하는 OpenAI의 정책에 의존해야 하며 시스템이 책임감 있게 데이터를 처리한다고 신뢰해야 합니다.
- OpenAI가 공개적으로 검토할 수 있는 개방형 가중치 모델(open-weight models)을 출시했지만, ChatGPT가 사용하는 AI 모델은 오픈 소스가 아니므로 대규모 데이터 세트에서 데이터가 어떻게 사전 학습되었는지 확인할 수 없습니다.
ChatGPT와 절대 공유해서는 안 되는 항목

ChatGPT가 유용할 수 있지만, 민감한 정보를 위한 안전한 보관함처럼 취급해서는 절대 안 됩니다. 저장됨, 검토 또는 우발적으로 노출될 경우 귀하, 귀하의 회사 또는 타인에게 해를 끼칠 수 있는 내용은 절대 입력하지 마십시오:
계정 비밀번호, 2단계 인증(2FA) 코드, 백업 인증 코드 또는 개인 API 키와 같은 비밀번호 및 인증 데이터.
사회보장번호, 주민등록번호, 여권, 운전면허증 및 납세자 식별 번호를 포함한 정부 식별 번호.
신용카드 또는 체크카드 번호, IBAN, 온라인 뱅킹 자격 증명, 투자 계정 로그인 또는 Bitcoin 지갑 개인 비밀 키와 같은 금융 및 뱅킹 정보.
집 주소 및 전화번호, 생년월일, 개인 사진 또는 문서와 같이 귀하 또는 귀하의 가족을 식별하거나 추적하는 데 사용될 수 있는 매우 민감한 개인 데이터.
의료 보고서, 진단 기록, 보험 번호, 환자 ID 또는 귀하의 신원과 연결된 상세한 건강 기록과 같은 건강 정보.
독점 소스 코드, 내부 전략 문서, 기밀 계약, 고객 데이터베이스, 클라이언트 세부사항, 재무 예측, 미공개 보고서 또는 NDA를 포함한 기밀 업무 또는 회사 데이터.
변호사와 의뢰인 간의 커뮤니케이션, 법적 사건 전략, 증거 문서 또는 기밀 합의 논의와 같은 법적 및 특권 정보.
ChatGPT를 사용할 때 안전을 유지하는 방법
AI 도구를 완전히 피할 필요는 없지만 개인 작업 공간이 아닌 대중을 향한 서비스처럼 취급해야 합니다. 몇 가지 간단한 습관만으로도 위험을 크게 줄일 수 있습니다.
- 저장됨, 검토 또는 공개적으로 노출되는 것을 원하지 않는 민감한 정보는 공유하지 마십시오.
- 식별 가능한 세부사항을 삭제하거나 임시 표시(placeholder) 또는 가상의 예로 교체하십시오.
- 민감하거나 기밀 정보가 포함되지 않은 파일만 업로드하십시오.
- AI 채팅을 다른 사람이 볼 수 있는 이메일이나 지원 티켓처럼 취급하십시오.
- 개인정보 보호 설정을 검토하고 채팅 기록, 메모리 또는 AI 학습과 같은 설정을 비활성화하십시오.
- 계정과 연결되어 남는 개인정보의 양을 줄이려면 더 이상 필요 없는 대화를 삭제하십시오.
개인 AI 어시스턴트로 전환하세요
AI 도구와 개인 또는 비즈니스 정보를 공유하는 것이 우려된다면 Lumo를 사용해 보세요. 당사의 개인 ChatGPT 대안은 귀하의 대화를 절대 로그에 남기지 않으며 모델 학습에 사용하지도 않습니다. 귀하의 데이터는 양방향 비대칭 암호화(종단 간 암호화의 한 형태)로 보호되며 Proton이 제어하는 유럽 서버에서 처리됩니다.
Proton 계정과 함께 Lumo를 사용하면 대화가 제로 액세스 암호화로 보호되므로 Proton조차도 내용을 볼 수 없고 오직 귀하만 읽을 수 있습니다. 개인정보 보호를 극대화하기 위해, 고스트 모드를 사용하면 기록을 전혀 저장하지 않고 Lumo를 사용할 수 있습니다.
Lumo는 오픈 소스 모델을 사용하므로 숨겨진 추적이나 데이터 수집이 발생하지 않는지 누구나 확인할 수 있습니다.
지금 Lumo를 사용해 보고 개인정보가 가장 중요할 때 AI가 어떤 모습인지 확인해 보십시오. 그리고 직장에 동일한 수준의 개인정보 보호를 도입할 준비가 되셨다면, Lumo for Business는 민감한 회사 데이터를 유출하지 않고도 팀이 안전하게 공동 작업하고 생산성을 유지할 수 있도록 도와줍니다.
Google Play(새 창) 또는 App Store(새 창)에서 Lumo를 다운로드할 수도 있습니다.






