À medida que o uso de inteligência artificial aumenta, os assistentes de IA(nova janela) estão a tornar-se companheiros de confiança. Milhões de pessoas recorrem a chatbots como o ChatGPT, Claude, Gemini, DeepSeek e outros para fazer perguntas e resolver problemas. As suas consultas podem ser profundamente sensíveis, perguntando sobre preocupações de saúde, partilhando dados de clientes ou procurando apoio emocional e inspiração criativa.
Para muitos, estes chatbots parecem humanos, responsivos e confidenciais. Mas desenvolvimentos recentes (Uma ordem judicial obrigou a OpenAI a preservar dados de saída do ChatGPT(nova janela) indefinidamente, e Sam Altman, o fundador da OpenAI, diz que o ChatGPT não oferece “confidencialidade legal”(nova janela)) lançam luz sobre o risco de que cada palavra que escreve pode ser registada, armazenada, analisada e possivelmente mal utilizada ou alvo de uma fuga para terceiros.
Eis o que isso pode significar e porque nos deve preocupar a todos.
Os riscos são mais elevados com a IA
A ascensão dos assistentes de IA parece uma nova fronteira, mas de muitas formas, já estivemos aqui antes. As preocupações em torno dos registos de chat de IA ecoam as que surgiram nos primeiros dias dos motores de busca, muitas das quais provaram ser bem fundamentadas. Os registos de pesquisa foram usados para construir perfis de segmentação de anúncios lucrativos, foram expostos em incidentes de dados e foram intimados em tribunal.
Com a IA, os riscos são mais elevados porque os dados são mais pessoais e detalhados. Um número crescente de pessoas está a virar-se dos motores de busca para os chatbots de IA para as suas respostas, com previsões de que o volume dos motores de busca cairá 25 % até 2026(nova janela). Ao contrário de uma barra de pesquisa, que normalmente captura consultas curtas e fragmentadas, as perguntas aos chatbots são formuladas como se os inquiridores estivessem a falar com outra pessoa, revelando muito mais sobre si mesmos no processo. Uma única conversa pode conter pensamentos pessoais(nova janela), lutas emocionais, preocupações de saúde(nova janela), medos financeiros ou até nomes completos e endereços.
Em suma, os registos de chat oferecem um mapa incrivelmente rico e íntimo da sua identidade, mais do que os registos dos motores de busca — e com implicações muito maiores para a sua privacidade. As grandes empresas tecnológicas poderiam aceder aos seus registos de chat e usá-los para construir um perfil psicológico sobre si que pode ser divulgado ao governo ou usado para publicidade direcionada. Por exemplo, a Meta está a usar dados de chat de IA para criar anúncios personalizados.
Os seus chats ‘anónimos’ nem sempre permanecerão assim
Um argumento comum contra a preocupação com a privacidade dos registos de chat é que o enorme volume de dados torna a exploração individual improvável, especialmente quando os utilizadores não iniciaram sessão. Mas a história recente conta uma história diferente.
Em julho, repórteres descobriram que mais de 100 000 conversas no ChatGPT(nova janela) foram indexadas pela Google e tornadas pesquisáveis. Os utilizadores que clicaram no botão “partilhar” para enviar uma conversa a amigos ou colegas quase certamente não se aperceberam de que as suas conversas privadas seriam visíveis para todos na internet.
Este exemplo é um aviso: Os chamados dados “anónimos” raramente são anónimos. Emparelhados com endereços IP, registos de data e hora, impressões digitais de dispositivos e IDs de sessão e cookie, estes registos tornam-se muito mais identificáveis.
Como os chats podem expor as nossas vidas interiores
As plataformas de IA populares ChatGPT(nova janela), Gemini(nova janela) e DeepSeek(nova janela) afirmam todas que os registos de chat do utilizador são utilizados para ajudar a melhorar o desempenho do modelo e não são utilizados para “vender” os seus dados para publicidade ou definição de perfis de utilizador. Mas as políticas podem mudar da noite para o dia, como mostra a batalha legal da OpenAI.
Por exemplo, a Anthropic atualizou a sua política de privacidade(nova janela) sem aviso prévio em agosto de 2025 para alargar o período de retenção de dados. Com os registos armazenados indefinidamente, os dados pessoais que outrora pareciam fora dos limites poderiam tornar-se subitamente numa fonte lucrativa de lucros.
Não seria a primeira vez que isso acontecia. Quando a Google foi lançada em 1998, os cofundadores Sergey Brin e Larry Page avisaram(nova janela) que os motores de busca baseados em publicidade seriam inevitavelmente “intrinsecamente tendenciosos a favor dos anunciantes e contra as necessidades dos consumidores”. Uma década mais tarde, a Google começou a utilizar históricos de pesquisa para direcionar anúncios(nova janela).
Com acesso direto à vida interior das pessoas, os registos de IA podem levar a segmentação de anúncios aos seus limites. Com um número crescente de utilizadores a recorrer a chatbots para apoio emocional(nova janela), alguém pode confidenciar:
- “Sinto-me sobrecarregado e sozinho ultimamente.”
- “Acha que tenho depressão?”
- “O que posso fazer se não conseguir pagar a renda no próximo mês?”
Estas afirmações não são apenas palavras-chave ou uma coleção de interações, são significantes emocionais e situacionais claros. Se armazenadas e analisadas, poderiam ser utilizadas para criar perfis psicológicos e manipular as decisões do utilizador.
Não é alarmista sugerir que tais informações íntimas e sensíveis possam ser utilizadas para fins de exploração — porque as grandes empresas tecnológicas fizeram exatamente isso. Em 2017, o Facebook demonstrou que nenhuma interação está fora dos limites ao explorar formas de atingir adolescentes emocionalmente vulneráveis(nova janela) com anúncios durante momentos de insegurança.
Os registos de chatbot são uma janela para a sua psique. E esse nível de acesso levanta preocupações éticas e de privacidade significativas num setor que ainda não tem diretrizes e regulamentos claros sobre a utilização e aplicação de dados.
Os riscos legais para os utilizadores
O histórico de pesquisa desempenha há muito um papel em investigações criminais e processos judiciais. Existem vários casos em que as consultas online contribuíram para veredictos de culpabilidade, nomeadamente Moira Akers vs State nos EUA.
Depois de sofrer um nado-morto em 2018, Akers foi acusada de homicídio e, em 2022, condenada a 30 anos de prisão. Uma parte fundamental do caso da acusação foram as pesquisas na internet de Akers sobre o aborto, realizadas durante as fases iniciais da gravidez. Segundo a acusação, estas pesquisas serviram de prova da intenção de Akers — apesar de ter levado a gravidez até ao fim. O Supremo Tribunal de Maryland anulou a condenação em 2025, decidindo que a prova da consulta de pesquisa era inadmissível(nova janela). Mas Akers já tinha passado quase três anos na prisão. O caso destaca como os registos armazenados podem ser usados para contar uma história que se enquadre numa narrativa desfavorável, mesmo que existam provas que a contradigam.
Os riscos podem ser ainda maiores com conversas de IA armazenadas que podem ser sujeitas a prova legal. Ao contrário das consultas de pesquisa, estas interações são mais coloquiais e até especulativas, por vezes como uma forma de solicitar um determinado tipo de resposta do LLM, ou grande modelo de linguagem. Uma troca privada e inocente com uma IA pode mais tarde ser interpretada como incriminatória num ambiente legal, independentemente da intenção na altura.
Uma ferramenta poderosa para manipulação
Aqueles que conseguem ver os registos de chatbot podem obter acesso a planos comportamentais detalhados: hábitos pessoais, gatilhos emocionais, dinâmicas de relacionamento e até vulnerabilidades profissionais. Nas mãos erradas, estes dados são uma ferramenta poderosa para a engenharia social, que é uma tática de hacking comum que envolve manipulação psicológica.
Este risco está longe de ser hipotético. Em janeiro de 2025, a plataforma de IA DeepSeek deixou uma enorme base de dados exposta online(nova janela). O incidente incluiu mais de um milhão de registos de chat de IA e chaves de API, todos acessíveis publicamente a qualquer pessoa que soubesse onde procurar. Entre os dados expostos estavam conversas em texto simples que podem ter contido discussões sobre família, finanças e projetos confidenciais — informações que poderiam ser facilmente exploradas para fraude, chantagem ou roubo de identidade.
Uma vez divulgados, estes dados podem ser transformados em armas para se fazerem passar por si ou manipulá-lo. Ao referenciar detalhes pessoais retirados de conversas passadas, os atacantes podem ganhar a sua confiança e explorá-la para criar vulnerabilidades financeiras ou de segurança graves.
O espectro da vigilância política
Em regimes autoritários, as consequências das interações digitais armazenadas podem ser muito mais graves. Por exemplo, vários países proibiram a plataforma de IA baseada na China, DeepSeek, de ser usada em dispositivos governamentais(nova janela) devido a preocupações de segurança sobre como as informações pessoais dos utilizadores são tratadas pelo operador. A Coreia do Sul, a Austrália e Taiwan levantaram preocupações de que estes dados poderiam ser acedidos pelas autoridades chinesas e potencialmente utilizados para vigilância.
Para dissidentes, ativistas ou jornalistas, isto não é apenas um problema de privacidade, é uma questão de segurança. Uma conversa aparentemente casual sobre direitos de protesto, leis de media ou rotas de asilo poderia ser interpretada como prova incriminatória em jurisdições com proteções limitadas para a liberdade de expressão e liberdades civis.
Uma ameaça à propriedade intelectual
Em 2023, engenheiros da Samsung carregaram acidentalmente código-fonte proprietário(nova janela) para o ChatGPT enquanto tentavam depurar um problema, sob a crença errada de que as suas consultas eram privadas. Uma vez submetidos, esses dados tornaram-se parte do sistema de treino da OpenAI, provocando preocupações sobre a segurança e propriedade da propriedade intelectual partilhada com ferramentas de IA.
Uma preocupação relacionada surgiu no caso de direitos de autor de alto perfil apresentado pelo The New York Times contra a OpenAI(nova janela) mencionado no início deste artigo. O caso motivou uma ordem judicial exigindo que a OpenAI preservasse todos os dados de saída do ChatGPT indefinidamente após alegações de que a empresa utilizou milhões de artigos do jornal para treinar os seus modelos sem permissão. Embora o caso se centre nos web crawlers da OpenAI a extrair conteúdo de notícias, levanta questões mais amplas para criativos — escritores, designers, músicos e outros — que contribuem com trabalho original para plataformas de IA.
Se o conteúdo submetido pelo utilizador for retido e reutilizado pelo modelo, existe um risco real de que material proprietário ou criativo possa ser redistribuído a outros utilizadores sem atribuição ou consentimento. Isto confunde a linha entre a contribuição do utilizador e os dados de treino de IA, e levanta questões urgentes sobre autoria e propriedade na era da IA generativa.
O que precisa de mudar e como proteger-se
A maioria das pessoas quer e espera privacidade nas suas vidas reais. Acreditamos que as mesmas expectativas se devem estender às vidas digitais das pessoas. Construímos um conjunto de serviços encriptados que tornam a privacidade online acessível a qualquer pessoa, quer esteja a enviar e-mails aos seus amigos, a ver em streaming os seus programas favoritos(nova janela), ou a fazer cópia de segurança de fotografias. Não é demasiado tarde para corrigir os erros iniciais da internet, e com a IA nos seus primeiros dias ainda há tempo para traçar um novo rumo para esta tecnologia que respeite a sua privacidade.
Construímos o nosso assistente de IA(nova janela) Lumo de uma forma que mantém as proteções fundamentais desde a conceção:
- Sem registo de dados: Os utilizadores devem poder interagir com chatbots sem preocupação de que as suas submissões sejam armazenadas, utilizadas para lucro ou usadas contra eles.
- Sem treino de modelos: Os chats privados nunca devem ser explorados como dados de treino, porque correm o risco de reaparecer nas saídas do modelo mais tarde.
- Transparência no tratamento de dados: Deve ser claro como os dados do utilizador armazenados são utilizados, quem pode ter acesso a eles, onde são armazenados, durante quanto tempo são retidos e como podem ser eliminados.
- Encriptação de acesso zero por predefinição: As conversas devem ser protegidas utilizando as chaves de encriptação do utilizador, para que nem mesmo o fornecedor de IA possa ter acesso.
Embora os perigos dos chatbots que registam silenciosamente os nossos dados sejam reais e prementes, não estamos impotentes. Ao escolher ferramentas de IA focadas na privacidade e ao exigir transparência e responsabilidade aos seus criadores, podemos transferir o equilíbrio de poder de volta para as mãos dos utilizadores, afirmando a crença de que a privacidade é um direito, não um privilégio.






