Um equívoco comum é que, se não usar grandes modelos de linguagem (LLM) como o ChatGPT para chats, Midjourney para gerar imagens ou Sora para gerar vídeos, está a salvo da inteligência artificial (IA). Quer a use ou não, a IA já toca a sua vida.
Por exemplo, quando tira fotografias no Android, o Google Photos digitaliza e rotula automaticamente cada pessoa na sua biblioteca de fotografias usando reconhecimento facial. Publicar nas redes sociais sem alterar as suas definições padrão cria publicações públicas que podem ser recolhidas para os conjuntos de dados massivos usados para treinar LLMs. Até anúncios personalizados em sítios web ou em aplicações são alimentados por IA treinada nas suas preferências de navegação e compras.
Essa conveniência custa a sua privacidade e pode ter um impacto profundo na sua vida. Vinte fotografias tiradas do feed social do seu filho são suficientes para construir um vídeo deepfake de 30 segundos que pode ser usado para chantagem, bullying ou roubo de identidade.
Aqui está o que está em jogo quando a IA tem acesso aos seus dados pessoais e o que pode fazer para proteger a sua privacidade online.
- Como é que a IA está a arriscar a sua privacidade?
- Os seus dados pessoais podem ser recolhidos
- Pode ser reidentificado
- Os seus dados podem ser partilhados com terceiros
- Os pedidos de eliminação de dados podem não funcionar
- Outras pessoas podem ver os seus chats privados
- Pode ser tratado de forma injusta
- O direcionamento de anúncios está a tornar-se mais preciso
- O armazenamento na nuvem pode expor os seus dados
- A IA pode cometer erros
- Qualquer pessoa pode criar deepfakes
- Como manter os seus dados privados dos sistemas de IA
Como é que a IA está a arriscar a sua privacidade?
A IA pode erodir a privacidade ao recolher demasiado, inferir demasiado, partilhar demasiado.
Os seus dados pessoais podem ser recolhidos
Os sistemas de IA tornam-se mais precisos treinando em quantidades massivas de dados, muitas vezes recolhidos de fontes publicamente disponíveis, como as suas publicações do Facebook(nova janela), fotografias do Flickr(nova janela) ou tópicos do Reddit(nova janela). Publicações casuais nas redes sociais, fotografias de família e detalhes de perfil — muitas vezes contendo informações sensíveis e partilhadas originalmente por razões pessoais ou sociais — foram incluídos em conjuntos de dados usados para treinar LLMs de mil milhões de dólares e sistemas de reconhecimento facial. Isto acontece porque a Big Tech trata o conteúdo online como livremente disponível para uso de IA, sem consentimento explícito ou consideração pela propriedade intelectual.
Pode ser reidentificado
As empresas de tecnologia afirmam que os seus dados pessoais não podem ser rastreados de volta a si uma vez que tenham sido desidentificados ou pseudoanonimizados, o que significa que identificadores óbvios como nomes ou números de telefone são removidos. Mas esta proteção é frágil, pois conjuntos de dados anonimizados podem ser reidentificados cruzando-os com outras fontes de dados, como perfis de redes sociais ou rastos de geolocalização.
Por exemplo, utilizadores da Netflix foram reidentificados(nova janela) comparando as suas classificações de filmes anónimas com informações do IMDb. Um estudo(nova janela) mostra que quase todos os americanos podem ser identificados num conjunto de dados com apenas 15 marcadores demográficos. Adicionando o poder de correspondência de padrões da IA, a reidentificação tornou-se mais rápida, mais fácil e acessível a qualquer pessoa.
Os seus dados podem ser partilhados com terceiros
Quando utiliza sistemas de IA, os seus dados nem sempre ficam com a empresa em que se registou. Podem ser partilhados com parceiros ou processadores terceiros — alguns de que provavelmente nunca ouviu falar — que podem gerir os seus dados sob os seus próprios termos e padrões de segurança.
Nesse ponto, a privacidade torna-se um exercício de confiança. Já não está apenas a confiar na empresa que conhece para proteger as suas informações, mas em toda uma cadeia de agentes externos desconhecidos, cada um com a sua própria infraestrutura, políticas e vulnerabilidades. Cada mão que toca nos seus dados alarga a superfície de ataque, e a responsabilidade é diluída.
Por exemplo, um incidente envolvendo um parceiro da OpenAI levou à exposição de dados de utilizador da API, mostrando como o acesso de terceiros pode tornar-se o elo mais fraco do sistema.
Os pedidos de eliminação de dados podem não funcionar
Uma vez que os seus dados treinam um modelo de IA, recuperá-los é quase impossível porque moldam o comportamento geral do modelo. O desaprendizado de máquina — técnicas para fazer um modelo esquecer — ainda está nas suas fases iniciais, por isso a única opção hoje seria retreinar o modelo. E mesmo que uma empresa afirme ter honrado o seu pedido de eliminação de dados, não há praticamente nenhuma forma de confirmá-lo(nova janela).
Outras pessoas podem ver os seus chats privados
LLMs como o ChatGPT(nova janela), Meta AI(nova janela) e Grok(nova janela) expuseram conversas privadas através das suas funcionalidades de partilha, com chats a serem indexados por motores de pesquisa e tornados publicamente detetáveis. As plataformas não foram suficientemente transparentes sobre este risco, deixando os utilizadores inconscientes de que o que parecia uma troca privada poderia acabar visível para qualquer pessoa na internet.
Pode ser tratado de forma injusta
Se os dados usados pelos sistemas de IA para aprender padrões contiverem preconceitos ocultos — como de desigualdades históricas ou conjuntos de dados incompletos — a IA pode reforçar ou amplificar esses padrões. As apostas são mais altas com os sistemas de IA não privados da Big Tech, que são de código fechado e operam como caixas negras que não podem ser revistas independentemente. Estes sistemas podem usar atributos sensíveis como raça, género ou código postal para tomar decisões automatizadas em policiamento preditivo(nova janela), contratação(nova janela), saúde(nova janela) ou pontuação de crédito(nova janela).
O direcionamento de anúncios está a tornar-se mais preciso
Embora a IA não privada torne os anúncios mais inteligentes ao permitir o hiperdirecionamento, muitas vezes invade a privacidade de toda a sua família. Por exemplo, a Publicis, um corretor de dados e a maior empresa de publicidade do mundo, afirma criar perfis de 2,3 mil milhões de pessoas e rastrear detalhes como preferências familiares e rendimento(nova janela) para decidir se deve direcioná-las com produtos económicos ou premium.
Com chatbots de IA a substituir a pesquisa tradicional, os anúncios estão a seguir-nos para este novo espaço. Por exemplo, a Perplexity está a incorporar anúncios em respostas geradas por IA(nova janela) e colocou uma licitação de 34,5 mil milhões de dólares para comprar o Google Chrome — um movimento destinado a ganhar acesso aos mais de 3 mil milhões de utilizadores do navegador e aos dados comportamentais íntimos que vêm com isso.
O armazenamento na nuvem pode expor os seus dados
Fornecedores de armazenamento na nuvem sem encriptação ponto a ponto (E2EE) podem aceder às fotografias, documentos e ficheiros sensíveis que carrega. Podem também usar esses dados para alimentar ferramentas de IA, gerar insights sobre si ou mostrar anúncios personalizados.
O Google Drive, por exemplo, retém o acesso aos seus dados e usa-os para funcionalidades de IA como verificação ortográfica e preenchimento automático no Google Docs. Se o Gemini, o assistente de IA da Google, permanecer fortemente integrado com o Google Workspace, as consultas que faz sobre os seus ficheiros do Drive também podem alimentar o treino de IA.
Da mesma forma, a Microsoft anunciou que o Word, Excel e PowerPoint em breve farão gravação automática no OneDrive por predefinição, outro serviço sem E2EE onde o uso futuro dos seus dados para publicidade ou treino de IA permanece incerto.
A IA pode cometer erros
Sistemas automatizados podem digitalizar as suas comunicações privadas e sinalizá-las como suspeitas. A lei proposta de Controlo de Chat da UE exigiria que serviços de mensagens como o WhatsApp e o Signal usassem IA para digitalizar cada mensagem privada e fotografia para detetar material de abuso sexual infantil (CSAM).
Mas isto significa monitorizar as conversas de todos, não apenas as de suspeitos criminosos. E a história mostra quão facilmente a IA pode cometer erros. A conta Google de um pai, por exemplo, foi encerrada(nova janela) e denunciada às autoridades após enviar uma fotografia do seu filho a um médico. O que deveria ficar entre si e o seu médico, ou entre si e a sua família, pode subitamente ser exposto a empresas de tecnologia e autoridades policiais.
Qualquer pessoa pode criar deepfakes
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Agentes mal-intencionados exploram deepfakes para roubo de identidade, fraude, chantagem ou danos reputacionais — e os riscos estendem-se às crianças. Em 2019, criminosos usaram áudio deepfake para imitar a voz de um CEO(nova janela) e enganaram um funcionário para transferir 220.000 €. Os riscos também se estendem às crianças. Num incidente, um predador criou uma imagem deepfake de um jovem de 14 anos(nova janela) para extorquir dinheiro ameaçando partilhá-la.
Como manter os seus dados privados dos sistemas de IA
Existem muitas preocupações de privacidade com sistemas de IA, particularmente os modelos não privados e de código fechado geridos pela Big Tech. E embora não possa impedir totalmente que estes sistemas recolham ou utilizem indevidamente os seus dados uma vez que estejam lá fora, pode reduzir a sua pegada, exigir responsabilidade e escolher IA que priorize a privacidade e não explore os seus dados. Aqui está o que pode fazer:
- Nas redes sociais, torne os seus perfis e publicações privados, elimine carregamentos antigos, remova dados EXIF das fotografias antes de partilhar e evite partilhar detalhes identificáveis — como endereços, nomes completos das crianças ou as escolas que frequentam. Saiba mais sobre como gerir a internet para a sua família.
- Verifique as definições de privacidade das suas aplicações. Por exemplo, a Meta AI pode estar a digitalizar as fotografias do rolo da câmara e vídeos na aplicação Facebook para Android e iOS.
- Proteja-se contra deepfakes desfocando ou ocultando os rostos da sua família antes de publicar fotografias online.
- Oculte a sua pegada digital usando uma rede privada virtual (VPN)(nova janela) para ocultar o seu endereço IP e use aliases para proteger o seu endereço de e-mail ao publicar informações sensíveis que não gostaria que fossem rastreadas até si.
- Use serviços que priorizem a privacidade e não monetizem os seus dados, como o Signal para mensagens seguras e o Brave ou DuckDuckGo para navegação privada.
- Para armazenar de forma segura os seus ficheiros mais sensíveis, incluindo fotografias privadas e documentos confidenciais, use o Proton Drive para armazenamento na nuvem encriptado de ponto a ponto. Ao contrário de plataformas que podem expor conteúdo supostamente privado, o Drive não digitaliza, indexa ou usa os seus dados para treino de IA — e não pode ser visto por mais ninguém, mesmo quando escolhe partilhá-lo. Manter as suas fotografias verdadeiramente privadas também significa que não acabarão online onde poderiam ser usadas indevidamente para criar deepfakes.
- Opte por não participar no treino de IA sempre que possível, como no Gemini, ChatGPT(nova janela), Claude(nova janela) ou Meta AI. As políticas podem mudar da noite para o dia com pouco aviso, por isso, se quer os benefícios tanto da IA como da privacidade, mude para o Lumo — o nosso assistente de IA que prioriza a privacidade(nova janela) e não mantém registos nem treina nos seus dados.
Regulamentos mais fortes sobre privacidade de IA, como a Lei da IA da UE(nova janela), serão críticos para devolver o poder aos utilizadores da internet. Até lá, a melhor defesa é estar atento ao que partilha online, exigir responsabilidade das empresas que constroem estes sistemas e escolher ferramentas de IA transparentes(nova janela) que respeitem a privacidade desde a base.






