As grandes empresas tecnológicas construíram impérios de biliões de dólares transformando as nossas vidas pessoais numa mercadoria. A inteligência artificial está a potenciar o seu modelo de negócio de capitalismo de vigilância ao integrar-se nas ferramentas que utilizamos todos os dias — muitas vezes sem nos dar explicações claras ou a capacidade de optar por não participar.

Os poderosos grandes modelos de linguagem (LLMs) recolhem dados ainda mais detalhados e inferem mais sobre si do que era anteriormente imaginável. A IA está a ser integrada numa vasta gama de plataformas(nova janela), desde a pesquisa ao armazenamento de fotos e até ao sistema operativo do seu dispositivo, tornando mais difícil acompanhar, e muito menos consentir, esta recolha de dados. Isto, por sua vez, permite a empresas como a Google, Meta e Microsoft construir perfis pessoais mais abrangentes, lucrar mais com os dados e exercer mais controlo sobre a informação e narrativas que vê.

Estas empresas podem partilhar ou vender as suas informações privadas a corretores de dados e outros terceiros. Os governos podem aceder a estes dados através de intimações(nova janela) ou formas ainda mais surrateiras de vigilância. E os dados pessoais podem ser expostos num incidente de dados, como tem acontecido vezes(nova janela) e vezes(nova janela) sem conta com serviços como o ChatGPT.

O resultado é uma recolha de dados rápida e em grande escala, com ainda menos controlos sobre as empresas para obter consentimento ou considerar as consequências da tecnologia. As leis de proteção de dados em torno da IA estão notoriamente muito atrás da indústria(nova janela).

Precisamos urgentemente de uma alternativa privada, e é por isso que construímos um novo assistente de IA confidencial, o Lumo(nova janela), que não mantém qualquer registo das suas conversas. As suas conversas guardadas estão disponíveis apenas para si, protegidas por encriptação de acesso zero. Quando se trata dos seus dados, tem uma escolha — mas mais pessoas precisam de compreender os riscos do status quo.

A IA torna as grandes empresas tecnológicas ainda mais poderosas

A IA permite à Google e à Meta escalar e consolidar os seus monopólios existentes, especialmente na publicidade e exploração de dados pessoais, mas a uma escala muito mais rápida e maior.

A Meta, por exemplo, está a integrar profundamente a IA para revitalizar o seu negócio de anúncios, digitalizando as suas publicações e até adicionando a Meta AI(nova janela) aos seus produtos de chat encriptados de ponto a ponto, como o WhatsApp, numa aparente tentativa de extrair mais dados pessoais da plataforma. A Google apostou na IA em primeiro lugar com o seu negócio de publicidade(nova janela), pelo que cada anúncio é otimizado para o manipular pessoalmente. E o Gemini da Google está agora profundamente integrado em todo o seu ecossistema, dando à sua IA um passe livre para recolher dados de telemóveis Android e aplicações Google.

A IA é semelhante à pesquisa, mas muito mais íntima e profundamente enraizada na sua vida. Enquanto o rastreio de pesquisa utiliza consultas simples e cliques para prever os seus interesses, a IA utiliza o processamento de linguagem natural e até o reconhecimento de imagem para prever as marcas, mensagens, emoções e imagens que ressoarão mais profundamente consigo. Algumas pessoas estão até a tornar-se emocionalmente investidas(nova janela) em chatbots de IA devido à forma como conseguem imitar a ligação humana — algo que nunca aconteceu com os motores de pesquisa.

Uma agência de publicidade vangloria-se(nova janela) de que a publicidade alimentada por IA é uma “mudança sísmica” que dá aos clientes o poder de “avaliar o sentimento e as preferências” e até “processar dados visuais, como imagens e vídeos, para identificar logótipos de marcas e a utilização de produtos, permitindo o direcionamento de anúncios específico para o contexto.” Imagine se os produtos de beleza pudessem visar o seu filho no momento em que ele expressa ansiedades a um amigo, ou se os políticos pudessem implementar anúncios otimizados por IA para explorar os medos privados dos eleitores.

As grandes empresas tecnológicas já são mais poderosas que os governos — imagine o que poderiam alcançar com uma IA desenfreada.

As suas conversas estão a vazar

A sua privacidade está em jogo, mas também a sua segurança. A IA cria um conjunto massivo e centralizado de informações íntimas que é cada vez mais vulnerável a ser exposto de várias formas.

Isto já aconteceu:

  • Em julho de 2025, repórteres descobriram que mais de 100 000 conversas no ChatGPT(nova janela) foram indexadas pela Google e tornadas pesquisáveis. Os utilizadores que clicaram no botão “partilhar” para enviar uma conversa a amigos ou colegas quase de certeza não perceberam que as suas conversas privadas ficariam visíveis para todos na internet.
  • Em 2024, investigadores utilizaram uma injeção de prompt na IA do Slack(nova janela) para revelar conteúdo partilhado em canais privados.
  • Em 2023, uma equipa diferente de investigadores extraiu credenciais de software reais(nova janela) (conhecidas como “segredos”) do assistente de IA Copilot da GitHub, que é treinado em milhares de milhões de linhas de código. Algum desse código de treino incluía credenciais, e os investigadores convenceram a IA a revelar mais de 200 delas.
  • Em janeiro de 2025, após o lançamento vistoso da startup de IA DeepSeek, uma equipa de investigação encontrou uma base de dados pública(nova janela) que incluía um enorme volume de registos de chat, segredos e outros dados sensíveis.
  • Em agosto de 2025, contratados que trabalhavam para a Meta AI disseram ter lido conversas pessoais(nova janela) nas quais as pessoas partilhavam dados sensíveis com o chatbot.

Sempre que os dados pessoais são armazenados sem encriptação de ponto a ponto ou encriptação de acesso zero nos servidores de uma empresa, esses dados ficam vulneráveis a serem divulgados. Os registos de chat são um alvo incrivelmente atraente para hackers — e governos. Um tribunal dos EUA já ordenou à OpenAI que mantivesse todos os registos de chat dos utilizadores(nova janela) (o que a empresa está atualmente a contestar). Esses dados ficariam então disponíveis para o governo mediante pedido. Os EUA já têm uma variedade de métodos para espiar secretamente os utilizadores, desde escutas sem mandado até pedidos de dados que as grandes empresas tecnológicas são obrigadas a obedecer.

Quanto mais dados os sistemas de IA absorvem, mais arriscam revelar, seja através de fugas acidentais, resultados tendenciosos ou pressão governamental.

Não são apenas dados – é influência

Isto provavelmente não precisa de ser dito: As empresas e agentes políticos que o visam com anúncios não estão a zelar pelos seus melhores interesses.

A IA leva essa manipulação a um nível totalmente novo. Ao contrário dos meios de comunicação de massa, que pode optar por ignorar, a IA está entrelaçada na sua vida quotidiana — respondendo às suas perguntas e oferecendo sugestões na aplicação que nem sequer pediu. Não é apenas reativa; é proativa. E quando é construída por empresas ou explorada por governos com agendas específicas, isso torna-a incrivelmente poderosa e perigosa.

Já estamos a ver como isso se parece. Na China, a DeepSeek demonstrou evitar ou apagar tópicos politicamente sensíveis. Pergunte sobre os protestos da Praça Tiananmen e baterá numa parede(nova janela) — não porque a IA não saiba, mas porque a sua jurisdição significa que não está autorizada a contar-lhe.

Este não é um problema exclusivo da China. O chatbot Grok de Elon Musk levantou sobrolhos por assumir posições políticas claras(nova janela) e oferecer resultados muito diferentes dependendo de como o seu “mostrador” interno estava configurado. Também se descobriu que consulta as próprias opiniões de Musk(nova janela) sobre um tópico antes de partilhar a sua resposta. Isto mostra como a orientação da IA pode ser moldada para promover certos pontos de vista, subtilmente ou não, o que se tornará cada vez mais problemático à medida que dependemos mais da IA para educação e informação sem verificar as fontes primárias.

Portanto, se a IA está a moldar o que vê, o que pensa e como se sente, quem decide que versão da verdade recebe?

IA construída para pessoas, não para o lucro

Se queremos uma IA que não seja moldada pelas grandes empresas tecnológicas ou políticas autoritárias e que proteja os seus dados de hackers e fugas, precisamos de construir algo diferente. Isso significa apoiar ferramentas de IA privadas e independentes, sem motivos ulteriores ou agendas ocultas.

O Lumo é um passo nessa direção. É construído na Europa, sem investimentos de Silicon Valley ou vigilância estrangeira, e supervisionado pela Proton Foundation, sem fins lucrativos, que é obrigada pelos seus estatutos a promover a privacidade da nossa comunidade. Uma vez que a nossa empresa foi fundada por cientistas que se conheceram no CERN em 2014, temos sido financiados exclusivamente pelos nossos utilizadores, não por investidores ou anunciantes. Isto garante que os nossos valores e missão permanecem alinhados com as pessoas que servimos.

Concebemos o Lumo para ser privado por predefinição, o que significa que não mantém registos de chat, e os seus chats são armazenados com encriptação de acesso zero, para que apenas o utilizador os possa ver. O Lumo também é construído em modelos de código aberto, e os seus dados nunca são utilizados para treinar a IA.

O Lumo é apenas o começo. Se queremos um futuro onde a IA serve as pessoas — não o lucro, não o poder — temos de o exigir. Ao escolher alternativas privadas hoje, ajuda a moldar uma internet que é mais transparente, mais democrática e mais respeitadora dos seus direitos. As ferramentas estão aqui. A escolha é sua.