O ChatGPT é um poderoso assistente de IA(nova janela) usado diariamente por milhões de utilizadores todos os dias, mas é seguro usá-lo? É detido e operado pela OpenAI, uma das maiores empresas tecnológicas do mundo. E, tal como muitas plataformas Big Tech, a OpenAI recolhe grandes quantidades de dados de utilizadores. Esses dados não estão protegidos com encriptação de acesso zero, pelo que a empresa pode divulgá-los a parceiros empresariais (incluindo empresas de publicidade e de análise), ao governo e a hackers em caso de incidente de dados.

Nos bastidores, os large language models (LLM) da OpenAI estão constantemente a aprender com o que escreve. Perguntas sensíveis, como sobre sintomas de saúde, assuntos jurídicos ou propriedade intelectual, podem alimentar sistemas complexos de definição de perfis ou ajudar a treinar modelos de IA usados muito além da sua intenção original.

As preocupações sobre a forma como as empresas de IA tratam os dados dos utilizadores estão a crescer. Em março de 2026, mais de 2,5 milhões de utilizadores(nova janela) comprometeram-se a abandonar o ChatGPT após uma parceria controversa com o governo dos EUA ter levantado questões sobre como os sistemas de IA são implementados e governados. É um lembrete de que, quando interage com um assistente de IA sem fortes proteções de privacidade, pode estar a partilhar mais informações do que imagina.

O ChatGPT é seguro? Os riscos de usar IA como o ChatGPT e outras Big Tech

Antes de escolher ferramentas de IA como o ChatGPT, Gemini, Meta AI, Copilot e DeepSeek, vale a pena compreender os seus riscos de segurança e privacidade:

RiscoImpacto potencialPorque é importante
Recolha e registo de dadosPrompts, carregamentos de ficheiros e padrões de interação podem ser armazenadosPodem ser usados para treino de IA, definição de perfis comportamentais ou revisão humana
Falta de encriptação de acesso zeroAs conversas podem ser acedidas pela OpenAI e pelos seus parceirosAumenta o risco de exposição de dados sensíveis
Preocupações regulatórias e de PIExposição ao GDPR/HIPAA ou fugas de dados proprietáriosResponsabilidade legal e consequências financeiras
Sistema de código fechadoTransparência limitada sobre o tratamento de dadosExige confiança na OpenAI
Anúncios na aplicaçãoAumento do rastreamento e da definição de perfisNão é claro como os dados do chat informam anúncios personalizados

Privacidade pessoal

Eis o que arrisca ao usar o ChatGPT:

  • O ChatGPT pode recolher as informações que introduz — como perguntas, respostas e a forma como interage com a ferramenta — para treinar os seus modelos de IA. Se carregar um currículo, documento jurídico, relatório médico ou outro ficheiro com dados pessoais, esse conteúdo também pode ser armazenado e processado.
  • Mesmo que nunca introduza o seu nome ou outros dados pessoais, os seus prompts podem revelar padrões ao longo do tempo, como preocupações de saúde, dúvidas religiosas, inclinações políticas, situação familiar ou estado emocional. Combinados com o seu endereço IP(nova janela) e outros identificadores técnicos, estes padrões podem ser usados para construir perfis comportamentais detalhados.
  • Pode conseguir optar por não participar no treino de IA, mas as suas conversas continuam a ser registadas e detalhes sensíveis podem ser vistos por revisores humanos se forem assinalados, como quando envia comentários.
  • O seu histórico de chat é protegido durante o envio e armazenamento, mas não está protegido com encriptação de acesso zero, pelo que a OpenAI ou terceiros ainda podem aceder às suas conversas anteriores.
  • Em julho de 2025, milhares de conversas partilhadas do ChatGPT apareceram nos resultados de pesquisa do Google(nova janela), expondo trocas profundamente pessoais que os utilizadores provavelmente assumiam serem privadas. A OpenAI retirou rapidamente a funcionalidade e disse que estava a trabalhar com o Google para remover a indexação dos resultados, mas o incidente destaca como é fácil interações de IA passarem para o domínio público sem se aperceber disso.
  • No início de 2026, a OpenAI introduziu anúncios para utilizadores do ChatGPT nos planos gratuito e ChatGPT Go. Apesar das garantias de que os anúncios não influenciam respostas nem envolvem a partilha de dados pessoais com anunciantes, esta decisão segue um padrão bem estabelecido das Big Tech em que a publicidade acaba por se normalizar após preocupações iniciais com a privacidade.

Risco empresarial

A OpenAI é uma empresa dos EUA, pelo que usar o ChatGPT pode levantar preocupações de proteção de dados e riscos de fuga de informações sensíveis. Se estiver sediado na Europa ou noutro local, os seus dados ainda podem estar sujeitos à jurisdição dos EUA, uma vez que são processados por uma empresa dos EUA. Eis o que isso significa:

  • Sem fortes garantias de proteção de dados, a sua organização arrisca multas ou escrutínio regulatório ao abrigo de leis como o GDPR e a HIPAA(nova janela).
  • Arrisca fugas ao treinar modelos de IA com dados da sua empresa. Por exemplo, funcionários podem introduzir código proprietário, contratos confidenciais ou informação de clientes no ChatGPT, potencialmente expondo propriedade intelectual, segredos comerciais ou dados de clientes.
  • A OpenAI pode partilhar dados com parceiros, fornecedores, outros terceiros ou através de integrações de aplicações — que podem ter proteções de privacidade mais fracas ou políticas de dados diferentes. Em 2025, um incidente envolvendo um dos fornecedores de analytics da OpenAI expôs informação identificadora sobre clientes de API.
  • Ao abrigo de leis dos EUA como o Patriot Act ou a FISA (Foreign Intelligence Surveillance Act), as empresas podem ser obrigadas a fornecer dados a agências governamentais, muitas vezes com ordens de sigilo que as impedem de notificar os utilizadores.

Falta de transparência

Os riscos acima são conhecidos. Mas o que é especialmente arriscado no ChatGPT (e noutro software de código fechado) é aquilo que não tem permissão para saber.

  • O código das aplicações do ChatGPT não é de código aberto, pelo que não existe supervisão pública sobre como funciona, o que regista ou como processa os seus dados nos bastidores. Tem de confiar nas políticas da OpenAI e acreditar que o sistema trata os dados de forma responsável.
  • Embora a OpenAI tenha lançado modelos de pesos abertos que podem ser examinados publicamente, os modelos de IA que o ChatGPT usa não são de código aberto, pelo que não pode verificar como os dados foram pré-treinados em grandes conjuntos de dados.

Coisas que nunca deve partilhar com o ChatGPT

A diagram of things you shouldn't share with ChatGPT

Embora o ChatGPT possa ser útil, nunca o deve tratar como um cofre seguro para informações sensíveis. Evite introduzir qualquer coisa que possa prejudicá-lo a si, à sua empresa ou a terceiros se fosse armazenada, revista ou exposta acidentalmente:

Palavras-passe e dados de autenticação, como palavras-passe de contas, códigos de autenticação de dois fatores (2FA), códigos de autenticação de cópia de segurança ou chaves de API privadas.

Números de identificação governamental, incluindo Segurança Social, identificação nacional, passaporte, carta de condução e números de identificação fiscal.

Informações financeiras e bancárias, como números de cartões de crédito ou débito, IBAN, credenciais de banca online, inícios de sessão de contas de investimento ou chaves privadas de carteiras Bitcoin.

Dados pessoais altamente sensíveis que possam ser usados para identificá-lo ou rastreá-lo a si ou à sua família, como endereço de casa e número de telefone, data de nascimento ou fotografias ou documentos privados.

Informação de saúde, como relatórios médicos, registos de diagnóstico, números de seguro, IDs de paciente ou históricos clínicos detalhados associados à sua identidade.

Dados confidenciais de trabalho ou da empresa, incluindo código-fonte proprietário, documentos de estratégia interna, contratos confidenciais, bases de dados de clientes, detalhes de clientes, projeções financeiras, relatórios não publicados ou NDAs.

Informação jurídica e privilegiada, como comunicações advogado-cliente, estratégias de casos jurídicos, documentos de prova ou discussões confidenciais de acordo.

Como manter-se em segurança ao usar o ChatGPT

Não tem de evitar ferramentas de IA por completo, mas deve tratá-las como serviços públicos e não como espaços de trabalho privados. Alguns hábitos simples podem reduzir significativamente o seu risco:

  • Evite partilhar informações sensíveis que não gostaria que fossem armazenadas, revistas ou expostas publicamente.
  • Remova detalhes identificadores ou substitua-os por marcadores de posição ou exemplos fictícios.
  • Carregue apenas ficheiros que não contenham informações sensíveis ou confidenciais.
  • Trate os chats de IA como e-mails ou tickets de apoio ao cliente que podem ser vistos por outras pessoas.
  • Reveja as definições de privacidade e desative definições como histórico de chat, memória ou treino de IA.
  • Elimine conversas de que já não precisa para reduzir a quantidade de informação pessoal que permanece associada à sua conta.

Mude para um assistente de IA privado

Se está preocupado com a partilha de informações pessoais ou empresariais com ferramentas de IA, experimente o Lumo. A nossa alternativa privada ao ChatGPT nunca regista as suas conversas nem as usa para treinar modelos. Os seus dados são protegidos com encriptação assimétrica bidirecional (uma forma de encriptação ponto a ponto) e processados em servidores europeus controlados pela Proton.

Quando usa o Lumo com uma Proton Account, as suas conversas ficam protegidas com encriptação de acesso zero, o que significa que só você as pode ler — nem sequer a Proton. Para máxima privacidade, o modo Ghost permite usar o Lumo sem guardar qualquer histórico.

O Lumo usa modelos de código aberto, para que qualquer pessoa possa verificar que não ocorre qualquer rastreamento oculto nem recolha de dados.

Experimente o Lumo agora e veja como é a IA quando a sua privacidade é mais importante. E quando estiver pronto para levar esse mesmo nível de privacidade para o seu local de trabalho, o Lumo for Business ajuda a sua equipa a colaborar de forma segura e a manter-se produtiva sem comprometer os dados sensíveis da empresa.

Também pode transferir o Lumo a partir do Google Play(nova janela) ou da App Store(nova janela).