빅테크 기업들은 우리의 개인적인 삶을 상품으로 만들어 수조 달러 규모의 제국을 건설했습니다. 인공지능은 우리가 매일 사용하는 도구에 통합됨으로써 그들의 감시 자본주의 비즈니스 모델을 강화하고 있으며, 종종 명확한 설명이나 거부할 수 있는 기능을 제공하지 않습니다.
강력한 거대 언어 모델(LLM)은 이전에 상상할 수 있었던 것보다 훨씬 더 자세한 데이터를 수집하고 귀하에 대해 더 많은 것을 추론합니다. AI는 검색에서 사진 저장공간, 심지어 기기의 운영 체제에 이르기까지 광범위한 플랫폼에 통합(새 창)되고 있어 이러한 데이터 수집을 추적하는 것은 물론 동의하는 것조차 더 어려워지고 있습니다. 이는 결국 Google, Meta, Microsoft와 같은 기업이 더 포괄적인 개인 프로필을 구축하고, 데이터로 더 많은 수익을 창출하며, 귀하가 보는 정보와 이야기에 대해 더 많은 통제권을 행사할 수 있게 합니다.
이러한 기업은 귀하의 개인 정보를 데이터 브로커 및 기타 제3자와 공유하거나 판매할 수 있습니다. 정부는 소환장을 통해 이 데이터에 접근(새 창)하거나 훨씬 더 은밀한 형태의 감시를 할 수 있습니다. 또한 ChatGPT와 같은 서비스에서 반복적으로(새 창) 발생한(새 창) 것처럼 데이터 유출로 인해 개인 데이터가 노출될 수 있습니다.
그 결과 기업이 동의를 얻거나 기술의 결과를 고려하도록 하는 통제 장치는 줄어들고 광범위하고 대규모의 데이터 수집이 이루어지고 있습니다. AI를 둘러싼 데이터 보호법은 업계에 비해 훨씬 뒤쳐져 있는 것(새 창)으로 악명 높습니다.
우리는 시급히 개인적인 대안이 필요하며, 이것이 바로 대화 기록을 전혀 보관하지 않는 새로운 기밀 AI 비서인 Lumo(새 창)를 만든 이유입니다. 저장된 채팅은 제로 액세스 암호화로 보호되어 본인만 사용할 수 있습니다. 데이터와 관련하여 선택권은 귀하에게 있지만, 더 많은 사람들이 현상 유지의 위험성을 이해해야 합니다.
AI는 빅테크를 더욱 강력하게 만듭니다
AI는 Google과 Meta가 특히 광고 및 개인 데이터 착취 분야에서 기존의 독점을 확장하고 공고히 할 수 있게 해주지만, 그 속도와 규모는 훨씬 더 빠르고 큽니다.
예를 들어, Meta는 광고 사업을 활성화하기 위해 AI를 깊이 통합하고 있으며, 게시물을 스캔하고 심지어 WhatsApp과 같은 종단간 암호화된 채팅 제품에 Meta AI를 추가(새 창)하여 플랫폼에서 더 많은 개인 데이터를 빼내려는 것으로 보입니다. Google은 광고 사업에서 AI 우선주의(새 창)를 채택하여 모든 광고가 개인을 조작하도록 최적화되었습니다. 또한 Google의 Gemini는 이제 전체 생태계에 깊이 통합되어 AI가 Android 휴대폰과 Google 앱에서 데이터를 수집할 수 있는 프리패스를 제공합니다.
AI는 검색과 유사하지만 훨씬 더 친밀하고 삶에 깊이 뿌리박혀 있습니다. 검색 추적은 간단한 쿼리와 클릭을 사용하여 관심사를 예측하는 반면, AI는 자연어 처리와 이미지 인식을 사용하여 귀하에게 가장 깊이 공감할 브랜드, 메시지, 감정 및 이미지를 예측합니다. 어떤 사람들은 AI 챗봇이 인간관계를 얼마나 비슷하게 모방할 수 있는지 때문에 감정적으로 투자(새 창)하기도 하는데, 이는 검색 엔진에서는 결코 일어나지 않았던 일입니다.
한 광고 대행사는 AI 기반 광고가 고객에게 “감정과 선호도를 측정”하고 심지어 “이미지 및 비디오와 같은 시각적 데이터를 처리하여 브랜드 로고와 제품 사용을 식별하여 문맥에 맞는 광고 타겟팅을 가능하게” 하는 힘을 제공하는 “지각 변동”이라고 자랑(새 창)합니다. 뷰티 제품이 자녀가 친구에게 불안감을 표현하는 순간을 타겟팅하거나 정치인이 AI 최적화 광고를 배포하여 유권자의 개인적인 두려움을 먹잇감으로 삼는다면 어떨지 상상해 보세요.
빅테크는 이미 정부보다 더 강력합니다. 통제되지 않는 AI로 그들이 무엇을 성취할 수 있을지 상상해 보세요.
채팅이 유출되고 있습니다
귀하의 개인정보가 위태로울 뿐만 아니라 안전도 위태롭습니다. AI는 친밀한 정보의 거대하고 중앙 집중화된 풀을 생성하여 다양한 방식으로 노출될 위험이 점점 더 커지고 있습니다.
이런 일은 이미 일어났습니다.
- 2025년 7월, 기자들은 ChatGPT의 10만 개 이상의 대화(새 창)가 Google에 의해 색인화되어 검색 가능하다는 사실을 발견했습니다. 사용자가 “공유” 버튼을 클릭하여 대화를 친구나 동료에게 보낼 때 자신의 사적인 대화가 인터넷상의 모든 사람에게 공개될 것이라고는 거의 생각하지 못했습니다.
- 2024년, 연구원들은 Slack AI의 프롬프트 주입(새 창)을 사용하여 비공개 채널에서 공유된 콘텐츠를 공개했습니다.
- 2023년, 다른 연구팀은 수십억 줄의 코드로 훈련된 GitHub의 Copilot AI 비서에서 실제 소프트웨어 자격 증명(새 창)(“비밀”이라고 함)을 추출했습니다. 해당 훈련 코드 중 일부에는 자격 증명이 포함되어 있었고, 연구원들은 AI가 200개 이상의 자격 증명을 뱉어내도록 유도했습니다.
- 2025년 1월, AI 스타트업 DeepSeek의 화려한 출시 이후, 연구팀은 방대한 양의 채팅 로그, 비밀 및 기타 민감한 데이터가 포함된 공개 데이터베이스를 발견(새 창)했습니다.
- 2025년 8월, Meta AI에서 일하는 계약자들은 사람들이 챗봇과 민감한 데이터를 공유한 개인적인 대화를 읽었다고 말했습니다(새 창).
개인 데이터가 회사의 서버에 종단간 또는 제로 액세스 암호화 없이 저장될 때마다 해당 데이터는 유출될 위험이 있습니다. 채팅 로그는 해커와 정부에게 매우 매력적인 표적입니다. 미국 법원은 이미 OpenAI에 모든 사용자 채팅 로그를 보관하도록 명령(새 창)했습니다(회사는 현재 이에 맞서 싸우고 있습니다). 그러면 해당 데이터는 요청 시 정부에 제공될 수 있습니다. 미국은 영장 없는 도청부터 빅테크 기업이 따라야 하는 데이터 요청에 이르기까지 사용자를 비밀리에 감시하는 다양한 방법을 이미 보유하고 있습니다.
AI 시스템이 더 많은 데이터를 흡수할수록 우발적인 유출, 편향된 출력 또는 정부 압력을 통해 데이터가 공개될 위험이 커집니다.
단순한 데이터가 아니라 영향력입니다
두말할 필요도 없이, 광고로 여러분을 타겟팅하는 기업과 정치 공작원은 여러분의 이익을 생각하지 않습니다.
AI는 이러한 조작을 완전히 새로운 차원으로 끌어올립니다. 시청하지 않기로 선택할 수 있는 매스미디어와 달리 AI는 질문에 답하고 원하지도 않은 인앱 제안을 제공하는 등 일상 생활에 깊이 스며들어 있습니다. 이는 단순히 반응하는 것이 아니라 주도적입니다. 그리고 특정 의도를 가진 기업이나 정부가 이를 악용할 때 엄청나게 강력하고 위험해집니다.
우리는 이미 그것이 어떤 모습인지 보고 있습니다. 중국에서 DeepSeek는 정치적으로 민감한 주제를 피하거나 지우는 것으로 나타났습니다. 톈안먼 광장 시위에 대해 물어보면 벽에 부딪힐 것입니다(새 창). AI가 몰라서가 아니라 관할권 때문에 말할 수 없기 때문입니다.
이것은 중국만의 문제가 아닙니다. 일론 머스크의 Grok 챗봇은 명확한 정치적 입장(새 창)을 취하고 내부 “다이얼” 설정에 따라 완전히 다른 결과를 제공하여 눈살을 찌푸리게 했습니다. 또한 주제에 대한 응답을 공유하기 전에 머스크 본인의 의견을 참고(새 창)하는 것으로 밝혀졌습니다. 이는 AI의 안내가 특정 견해를 미묘하게든 그렇지 않게든 밀어붙이도록 형성될 수 있음을 보여주며, 이는 우리가 1차 소스를 확인하지 않고 교육과 정보를 AI에 더 많이 의존함에 따라 점점 더 문제가 될 것입니다.
그렇다면 AI가 당신이 보는 것, 생각하는 것, 느끼는 방식을 형성하고 있다면, 당신이 얻는 진실의 버전을 누가 결정할까요?
이익이 아닌 사람을 위해 만들어진 AI
빅테크나 권위주의 정치에 휘둘리지 않고 해커와 유출로부터 데이터를 보호하는 AI를 원한다면 다른 것을 만들어야 합니다. 이는 불순한 동기나 숨겨진 의도가 없는 개인적이고 독립적인 AI 도구를 지원하는 것을 의미합니다.
Lumo는 그 방향으로 나아가는 단계입니다. 유럽에서 구축되었으며, 실리콘 밸리의 투자나 외국 감시가 없으며, 헌장에 따라 커뮤니티의 개인정보 보호를 증진해야 하는 비영리 Proton Foundation의 감독을 받습니다. 2014년 CERN에서 만난 과학자들이 회사를 설립한 이래로 투자자나 광고주가 아닌 사용자들의 자금 지원만으로 운영되어 왔습니다. 이를 통해 우리의 가치와 사명은 우리가 봉사하는 사람들과 일치합니다.
우리는 Lumo를 기본적으로 프라이빗하게 설계했습니다. 즉, 채팅 로그를 보관하지 않으며, 채팅은 제로 액세스 암호화로 저장되므로 본인만 볼 수 있습니다. Lumo는 오픈 소스 모델을 기반으로 구축되었으며 귀하의 데이터는 AI 훈련에 절대 사용되지 않습니다.
Lumo는 시작일 뿐입니다. 이익이나 권력이 아닌 사람을 섬기는 AI가 있는 미래를 원한다면 우리는 그것을 요구해야 합니다. 오늘 개인적인 대안을 선택함으로써 귀하는 더 투명하고 민주적이며 귀하의 권리를 존중하는 인터넷을 형성하는 데 도움을 줄 수 있습니다. 도구는 여기에 있습니다. 선택은 귀하의 몫입니다.






