A OpenAI lançou o ChatGPT Atlas, um novo navegador que integra o ChatGPT diretamente em cada interação que as pessoas têm na web. A empresa descreve-o como um passo em direção a um assistente digital que se move através de sítios web consigo, interpreta o que vê e completa tarefas que solicita.
Atualmente disponível apenas em Mac, o Atlas promete uma conveniência extraordinária. No entanto, também introduz novos riscos de privacidade e segurança com consequências desconhecidas. A OpenAI ainda não respondeu a várias questões fundamentais sobre como o produto protege os dados do utilizador.
Já sabemos o suficiente, no entanto, para examinar os seus principais benefícios e os graves riscos de privacidade que vêm com eles.
Como funciona o ChatGPT Atlas
O Atlas introduz dois sistemas centrais que alteram o funcionamento da navegação. O primeiro, memórias do navegador, regista que sites visita e como interage com eles, visando tornar as respostas do ChatGPT mais pessoais. O segundo, modo agente, permite à IA abrir páginas, preencher formulários ou realizar tarefas dentro da janela do navegador.
A OpenAI diz que estas funcionalidades são opcionais. Pode desativá-las, apagar os seus dados ou navegar de forma privada. A empresa diz também que o seu conteúdo de navegação é excluído do treino de modelos, a menos que opte por participar.
Apesar de toda a conversa sobre reinvenção, no entanto, o ChatGPT Atlas ainda corre sobre Chromium(nova janela) — o mesmo motor de código aberto por trás do Chrome e Edge.
Essa estrutura depende das definições e hábitos do utilizador. Ampla pesquisa mostra que a maioria das pessoas não altera as suas definições predefinidas(nova janela). E navegadores de IA anteriores mostram o quão frágeis tais controlos podem ser sob condições do mundo real.
Riscos de segurança dos navegadores de IA: O que os investigadores descobriram até agora
Um dos primeiros navegadores de IA foi o Comet da Perplexity, lançado em julho de 2025. Uma vulnerabilidade no sistema de IA do navegador, comunicada pela primeira vez pela Time(nova janela), revelou como a navegação com IA poderia abrir novos vetores de ataque. Investigadores na LayerX descobriram uma vulnerabilidade chamada CometJacking(nova janela), que permitia que ligações maliciosas ocultassem instruções dentro de URLs. Quando clicadas, a IA do Comet interpretava esses prompts como comandos reais.
Os testes mostraram que o navegador podia extrair dados do Gmail e calendários, transferir ficheiros maliciosos e, em alguns casos, até tentar compras em sítios web fraudulentos. A iTnews detalhou mais tarde(nova janela) descobertas semelhantes de investigadores da Guardio, que descreveram o Comet como um assistente demasiado ansioso — rápido a agir e lento a questionar instruções suspeitas. A análise da Kaspersky(nova janela) foi mais longe, alertando que integrar IA diretamente num navegador dá ao conteúdo web malicioso um canal direto para manipulá-lo.
Porque o Atlas é arriscado por conceção
A pesquisa sempre foi vigilância. A pesquisa com IA torna-a vigilância íntima. O Atlas torna-a vigilância total.
Motores tradicionais como o Google capturam perguntas isoladas — um sintoma médico, uma receita, uma consulta legal. A IA conversacional transforma esses fragmentos em histórias. Pede-lhe esclarecimentos, encoraja seguimentos e regista o contexto. Com o tempo, estas trocas criam retratos detalhados da sua vida privada, construindo uma narrativa sobre a sua intenção, vulnerabilidades e padrões de tomada de decisão.
Isto já é arriscado quando confinado às aplicações ChatGPT. Com o Atlas, esse mesmo mecanismo vive dentro do seu navegador, oferecendo à OpenAI vigilância total de cada interação que tem online.
A própria documentação da OpenAI(nova janela) confirma que o Atlas pode ver as páginas que visita, lembrar o seu conteúdo através de memórias do navegador e agir em seu nome através do modo agente. Cada camada aumenta a visibilidade. O Atlas não regista apenas as suas consultas; observa o que lê, quanto tempo fica e o que faz a seguir.
O resultado é um registo único e abrangente de intenção e comportamento. Mesmo quando a OpenAI diz que este conteúdo não é usado para treino por predefinição, ainda é processado e analisado para personalização. Através da inferência, o Atlas pode ligar ações comuns para construir narrativas reveladoras — como ligar pesquisas por sintomas de ansiedade com diretórios de terapeutas e pesquisa de medicação para formar uma imagem da saúde mental de uma pessoa.
Os controlos de privacidade existem, mas exigem vigilância constante. Os utilizadores podem alternar a visibilidade ou eliminar memórias, mas a maioria esquecer-se-á de gerir essas definições. Pode obter os seus dados, ou eliminá-los. Mas os modelos já foram treinados com o que fez.
O Atlas estende a vigilância para além do que a Google alcançou ao combinar dados de pesquisa e navegador. A OpenAI fundiu conversação de IA, interações web (incluindo aquelas fora do motor de busca) e recolha de dados pessoais numa única interface que compreende o contexto e age sobre ele.
Preocupações com privacidade e exposição de dados
O TechCrunch relata(nova janela) que o Atlas mantém um registo da atividade de navegação para personalizar respostas. A Kaspersky alerta(nova janela) que uma IA integrada a este nível tem visibilidade total sobre o tráfego web e ficheiros no dispositivo. Essa visibilidade pode incluir material privado como subscrições, documentos de trabalho ou dados financeiros.
Os navegadores de IA marcam uma mudança da recolha passiva de dados para o mapeamento comportamental contínuo. Cada página visitada, cada prompt escrito, cada tarefa delegada torna-se outro sinal num ciclo de feedback concebido para prever e influenciar o comportamento.
A OpenAI aponta para as definições do utilizador como salvaguardas: alternadores de privacidade, eliminação de dados e navegação anónima. Mas estes são controlos superficiais. Assim que uma IA liga os pontos, remover um pedaço de dados não apaga a história que já construiu. O Atlas pode esquecer entradas discretas; as inferências, no entanto, permanecem.
Este modelo une os dois motores de recolha de dados mais poderosos da web — o índice de pesquisa e o navegador — e sobrepõe-lhes uma IA capaz de raciocinar sobre o que observa.
O chamariz é que é útil. Uma ferramenta que organiza listas de compras também mapeia o comportamento financeiro. Uma ferramenta que o ajuda a pesquisar terapia também infere o seu estado emocional. O que parece personalização é extração de dados com empatia como a sua máscara.
O capitalismo de vigilância anterior dependia da apatia do utilizador: pessoas com preguiça de atualizar as suas definições de privacidade. O Atlas depende do envolvimento: É tão inteligente e conveniente que não pode deixar de confiar nele.
Porque o Atlas não está pronto para uso sensível
O Atlas é um passo ousado em direção à navegação mãos-livres, mas não foi construído para confiança. As mesmas escolhas de design que o tornam poderoso também o tornam inseguro. Investigadores de segurança e testadores chegaram a uma conclusão consistente sobre navegadores de IA: são demonstrações notáveis, mas não fiáveis para a vida diária.
Se experimentar o Atlas, trate-o como um ambiente de teste. Mantenha contas bancárias, de trabalho e pessoais noutro lugar. Não assuma que as suas salvaguardas resistirão a ameaças do mundo real.
A OpenAI provavelmente melhorará a segurança do Atlas, mas hoje, usar um navegador de IA significa conceder à empresa visibilidade direta sobre o seu comportamento online e esperar que esse acesso permaneça protegido.
Essa preocupação não termina com a própria OpenAI, pois a empresa partilha os seus dados com parceiros e fornecedores de serviços terceiros, expandindo o círculo de acesso para além do seu controlo direto. Por exemplo, um incidente envolvendo um parceiro da OpenAI expôs dados de utilizadores da API — um lembrete de que, assim que a sua informação entra no ecossistema ChatGPT, cada parte adicional torna-se um elo fraco potencial.
Use um assistente de IA privado que o mantenha seguro
Existe outra abordagem, e já está a ser usada por milhões de pessoas.
O Lumo, o assistente de IA(nova janela) privado da Proton, foi construído para provar que a inteligência e a privacidade podem coexistir. Opera sob uma rigorosa política sem registos. O histórico de chat é protegido com encriptação de acesso zero, o que significa que nem a Proton o pode ler. As conversas nunca são usadas para treino. Tanto o código como os modelos são de código aberto, permitindo a qualquer pessoa verificar o que acontece nos bastidores. Os utilizadores detêm os seus dados integralmente. E porque o Lumo é financiado pela comunidade, não por anunciantes, não há incentivo comercial para explorar informações pessoais.
Essa é a diferença entre IA de vigilância e IA de privacidade. Uma é construída para recolher dados; a outra é construída para os proteger.






