Com o apoio ao cliente do Windows 10 a terminar oficialmente em outubro de 2025, muitos utilizadores estão a atualizar para o Windows 11 para se manterem protegidos com atualizações de segurança. Alguns podem ficar surpreendidos, no entanto, ao encontrar um novo companheiro de IA à sua espera: o Copilot.
Posicionado como o esforço mais ambicioso da Microsoft na IA generativa, o Copilot está agora profundamente integrado no Windows 11, Edge, Bing e na suite Microsoft 365. É a peça central da parceria multimilionária da Microsoft com a OpenAI (o criador do ChatGPT e do ChatGPT Atlas), cujos modelos GPT alimentam a inteligência do Copilot. Combinado com o lançamento de PCs Copilot+ — equipados com uma tecla Copilot dedicada — tudo isto mostra quão séria é a Microsoft em conduzir o Windows para um futuro alimentado por IA.
No entanto, nem todos acolhem bem este ajudante sempre presente, reminiscente do Clippy mas muito mais persistente. A integração estreita do Copilot levanta preocupações de privacidade e segurança, muito como quando o LinkedIn, propriedade da Microsoft, começou a treinar IA utilizando perfis públicos e dados de atividade, ou quando o plano da Google de incorporar profundamente o seu assistente de IA Gemini no Android para substituir o Google Assistant.
Apenas utilizadores empresariais e administradores de TI do Microsoft 365 podem remover totalmente o Copilot do Windows 11. Em todos os outros casos — como utilizadores com subscrições pessoais ou familiares, ou sem qualquer subscrição Microsoft 365 — existem apenas formas de limitar as suas funcionalidades e reduzir a sua visibilidade.
- Como desativar a IA do Copilot
- Como remover o Microsoft 365 Copilot (subscrição empresarial)
- Como desativar o Microsoft 365 Copilot (subscrição pessoal ou familiar)
- Como ocultar ícones do Copilot no Windows 11
- Como desativar funcionalidades de dados e personalização na aplicação web do Copilot
- Como desativar o treino de modelos do Gaming Copilot
- Como eliminar a sua conta Copilot
- O que é o Microsoft Copilot?
- Quais são os riscos de privacidade do Microsoft Copilot?
- Quais são os riscos de segurança do Microsoft Copilot?
- Uma alternativa privada ao Copilot e à Microsoft
Como desativar a IA do Copilot
Dependendo de como utiliza o Copilot, eis como pode removê-lo do seu computador, ajustar as suas definições ou reduzir a sua presença:
Como remover o Microsoft 365 Copilot (subscrição empresarial)
Se for um utilizador empresarial, vá a Definições → Aplicações → Aplicações instaladas, selecione Copilot e clique em Desinstalar.
Os administradores de TI podem remover a aplicação Copilot utilizando o seguinte comando no PowerShell:
$packageFullName = Get-AppxPackage -Name "Microsoft.Copilot" | Select-Object -ExpandProperty PackageFullName
Remove-AppxPackage -Package $packageFullName
Como desativar o Microsoft 365 Copilot (subscrição pessoal ou familiar)
- Abra qualquer aplicação Microsoft 365 (Word, Excel, PowerPoint ou OneNote).
- Vá a Ficheiro → Opções → Copilot.
- Limpe a caixa de verificação Ativar Copilot.
Repita estes passos para cada aplicação Microsoft na qual pretenda desativar o Copilot.
Se a definição Ativar Copilot não existir em nenhuma das aplicações da Microsoft:
- Abra o Word, Excel, PowerPoint ou OneNote.
- Vá a Ficheiro → Conta → Privacidade da Conta → Gerir Definições → Experiências ligadas.
- Limpe a caixa de verificação Ativar experiências que analisam o seu conteúdo.
- Reinicie a aplicação.
Só precisa de fazer isto uma vez, pois a nova definição de privacidade aplicar-se-á automaticamente a todas as aplicações Microsoft 365 ligadas à sua conta.
Como ocultar ícones do Copilot no Windows 11
Pode desativar os ícones do Copilot no Windows, mas não pode remover completamente a funcionalidade do seu computador. Estes passos apenas desativam os elementos visuais e de personalização do Copilot, pelo que ainda poderá aceder à aplicação.
Para ocultar o botão Copilot da sua barra de tarefas:
- Vá a Definições → Personalização → Barra de tarefas.
- Encontre e desative o Copilot.

Se utiliza aplicações que têm o Copilot incorporado, terá de o desativar separadamente em cada aplicação. Por exemplo, no Bloco de Notas, vá a Definições → Funcionalidades de IA e desative o Copilot.

- Reinicie o seu computador para que as alterações entrem em vigor.
Como desativar funcionalidades de dados e personalização na aplicação web do Copilot
- Selecione o nome ou foto do seu perfil → a sua conta → Privacidade.

- Desative as seguintes opções:
- Treino de modelos em texto
- Treino de modelos em voz
- Personalização e memória

- Selecione Eliminar memória para remover imediatamente o que o Copilot recorda sobre si.
- Clique em Exportar ou eliminar histórico. Isto abrirá uma página do navegador onde terá de iniciar sessão com a conta Microsoft que utiliza para o Copilot.
- Selecione Eliminar todo o histórico de atividade para cada uma destas categorias:
- Histórico de atividade da aplicação Copilot
- Copilot em aplicações Microsoft 365
- Copilot em aplicações Windows

- Selecione o nome ou foto do seu perfil → Conectores.

- Desative tudo, incluindo OneDrive, Outlook, Gmail, Google Drive e Google Calendar.

Note que se os seus dados já tiverem sido usados para treino de modelos, não há forma de o desfazer.
Como desativar o treino de modelos do Gaming Copilot
- No Windows, prima Win + G para abrir a Barra de Jogo.
- Vá a Definições → Definições de privacidade → Gaming Copilot.
- Desative Treino de modelos em texto.
- Para ocultar o widget Gaming Copilot, remova-o da lista de widgets da Barra de Jogo.
Atualmente, não há forma de remover totalmente o Gaming Copilot da Xbox Game Bar. Além disso, não pode impedi-lo de usar as suas interações de voz para ajudar a treinar os seus modelos de IA. Se se preocupa com a privacidade, é mais seguro não interagir de todo com o Gaming Copilot.
Como eliminar a sua conta Copilot
Na aplicação web do Copilot, selecione o nome ou foto do seu perfil → a sua conta → Eliminar conta.

Eliminar a sua conta Copilot não elimina a sua conta Microsoft, e ainda pode utilizar o Copilot sem iniciar sessão.
Se preferir não depender de todo do Copilot, considere mudar para um assistente de IA de privacidade(nova janela) que nunca regista os seus dados, os utiliza para treino de modelos ou os partilha com terceiros.
O que é o Microsoft Copilot?
O Copilot é a linha de assistentes de IA da Microsoft integrada nos seus produtos e serviços, tais como Word, Excel, PowerPoint, Outlook, Teams e Windows. Utiliza grandes modelos de linguagem (LLMs) baseados nas próprias tecnologias de IA da Microsoft e nos GPTs da OpenAI — como o GPT-4o, o mesmo que alimenta o ChatGPT.
Como os LLMs, o Copilot pode ajudá-lo a ser mais produtivo, criativo e eficiente ao compreender prompts de linguagem natural, analisar dados, gerar e resumir conteúdo e fornecer sugestões baseadas no contexto.
A Microsoft fornece o Copilot em várias versões, dependendo se o está a utilizar pessoalmente ou profissionalmente, incluindo:
- Microsoft Copilot — um assistente de IA pessoal gratuito para tarefas quotidianas. Está disponível como uma aplicação Windows 11 (instalada por predefinição), uma aplicação web e uma aplicação macOS.
- Gaming Copilot — um assistente de IA pessoal gratuito para jogos Windows, que tira capturas de ecrã para compreender o que está a acontecer num jogo e oferecer dicas, semelhante à forma como o Recall tira instantâneos da sua atividade no ambiente de trabalho.
- Microsoft 365 Copilot — integra-se no Word, Excel, PowerPoint, Outlook e Teams para utilizar os seus dados através do Microsoft Graph, uma plataforma que liga os seus dados como e-mails, calendário e documentos.
Quais são os riscos de privacidade do Microsoft Copilot?
A Microsoft mantém fortes proteções de privacidade para o Copilot em ambientes empresariais como o Microsoft 365, mas as contas de consumidores enfrentam uma realidade muito diferente(nova janela):
Os seus dados podem ser utilizados para anúncios e criação de perfis
Os serviços Copilot em contas Microsoft de consumidores estão ligados ao ecossistema de publicidade da Microsoft. Isto significa que as suas interações podem influenciar os anúncios e recomendações que vê. Por exemplo, se perguntar ao Copilot sobre ofertas de viagens, poderá ver mais tarde anúncios de voos ou hotéis.
Embora possa desativar os anúncios personalizados nas definições de privacidade da sua conta Microsoft, a empresa ainda retém esses dados de interação e pode utilizá-los de forma anonimizada para outros fins, como melhorar o direcionamento de anúncios para outros utilizadores do Copilot com perfis semelhantes ao seu.
Você mantém a propriedade, mas a Microsoft ainda pode utilizar os seus dados
Embora a Microsoft diga que retém a propriedade do seu conteúdo, utilizar o Copilot significa que concede à empresa amplos direitos sobre ele, incluindo para “copiar, distribuir, transmitir, exibir publicamente, executar publicamente, editar, traduzir e reformatar” os seus dados, e para passar esses direitos a terceiros.
Por exemplo, se for um escritor que adiciona excertos de uma história não publicada no Copilot para pedir revisão ou comentários estilísticos, esse texto torna-se tecnicamente parte do material que a Microsoft está licenciada a processar e utilizar ao abrigo dos seus termos de serviço. A sua propriedade intelectual não lançada pode ainda ser utilizada para além do seu controlo direto, mesmo que nunca se torne pública.
Os seus dados podem ser processados e utilizados para treino de IA
Dados dos seus prompts e respostas do Copilot podem ser recolhidos, registados e analisados pela Microsoft para treino de IA. Não há garantia de que os seus dados sensíveis ou pessoais serão excluídos dos conjuntos de dados de treino.
Tal como acontece com a maioria dos assistentes de IA, o Copilot necessita de grandes quantidades de informações para continuar a aprender e a refinar as suas respostas — mesmo quando esse processo pode derivar para zonas cinzentas da propriedade intelectual. Um exemplo atual é uma série de processos judiciais nos EUA(nova janela) interpostos por autores e grandes meios de comunicação que alegam que a Microsoft e a sua parceira OpenAI utilizaram as suas obras protegidas por direitos de autor sem permissão para treinar modelos de IA como o Copilot e o ChatGPT. A própria OpenAI reconheceu publicamente(nova janela) que é “impossível treinar os principais sistemas de IA atuais sem utilizar materiais protegidos por direitos de autor”.
As pessoas podem ver os seus dados sensíveis
Os funcionários da Microsoft podem rever as suas entradas e saídas do Copilot — incluindo tudo o que escreve ou carrega como anexos de ficheiros — para melhorar o serviço, moderar conteúdo prejudicial ou quando opta por enviar comentários. Se a ideia o deixa desconfortável, deve evitar introduzir quaisquer informações sensíveis, tais como dados de identificação pessoal ou segredos comerciais.
Os conectores expõem os seus dados a terceiros
Os conectores permitem que o Copilot se ligue a produtos da Microsoft (como o OneDrive ou o Outlook) e a serviços de terceiros (como o Google Drive), para que possa extrair informações de várias fontes. Por exemplo, se pedir ao Copilot para resumir todas as notas de reunião armazenadas no Google Drive, este irá pesquisar os seus ficheiros da unidade e devolver um resumo.
Mas quando ativa um conector, está também a permitir que o Copilot troque informações com esse outro serviço. No caso do Google Drive, enquanto o Copilot ganha acesso à estrutura de ficheiros, nomes, carimbos de data/hora e conteúdos da sua unidade, a Google também recebe certos detalhes associados à sua conta Microsoft, tais como a sua fotografia de perfil, nome ou endereço de e-mail. Os seus dados valiosos vivem agora em ambos os ecossistemas (Microsoft e Google), criando um perfil mais claro e completo sobre si entre plataformas.
Os seus dados podem atravessar fronteiras sob a jurisdição dos EUA
Dependendo de onde vive, a Microsoft pode armazenar os seus dados e interações do Copilot na sua região. Por exemplo, os europeus podem ter os seus dados armazenados na UE. Mas os seus dados podem nem sempre ficar lá. Apesar dos compromissos da Fronteira de Dados da UE(nova janela) da empresa, algum processamento pode ainda ocorrer fora da sua região devido a razões técnicas ou de capacidade. E como a Microsoft é uma empresa dos EUA, está sujeita às leis dos EUA, como a CLOUD Act, o que significa que as autoridades dos EUA podem solicitar acesso aos seus dados (independentemente de onde estejam armazenados), por vezes sem exigir um mandado.
A Microsoft monitoriza de perto os dados de conversação do Copilot
A Microsoft analisa as interações do Copilot em grande escala para compreender como as pessoas utilizam o assistente ao longo do tempo. No Relatório de Utilização do Copilot 2025(nova janela), os investigadores de IA analisaram 37,5 milhões de conversas do Copilot para identificar padrões de utilização, observando que mais relatórios serão publicados à medida que mais dados ficarem disponíveis. A Microsoft não é a única empresa a fazê-lo, uma vez que a sua parceira OpenAI também publica dados de utilização do consumidor(nova janela) para o ChatGPT.
A Microsoft diz que estes dados foram desidentificados e reduzidos a resumos de alto nível, mas isso não remove totalmente os riscos de privacidade. A investigação(nova janela) tem demonstrado repetidamente que dados supostamente anónimos podem muitas vezes ser reidentificados quando combinados com outras coisas, como carimbos de data/hora, características do dispositivo ou sinais de localização. E como o Copilot está ligado a um ecossistema baseado em contas que abrange o Windows, Microsoft 365, Bing, Edge e serviços de publicidade, essas ligações entre serviços facilitam a reassociação ao longo do tempo.
Além disso, não é claro durante quanto tempo os dados originais e identificáveis da conversa do Copilot permanecem armazenados antes da desidentificação, ou como são protegidos. Se os dados brutos residirem nos servidores da Microsoft, podem estar expostos a riscos como acesso não autorizado, ameaças internas ou incidentes de dados.
Quais são os riscos de segurança do Microsoft Copilot?
Uma vez que a Microsoft pode aceder a uma média de três milhões de registos de dados sensíveis(nova janela) por cada organização, é importante compreender os riscos de segurança que pode introduzir, especialmente se planeia utilizá-lo para a sua empresa:
- Em junho de 2025, investigadores descobriram o EchoLeak (CVE-2025-32711(nova janela)), uma vulnerabilidade de clique zero no Microsoft 365 Copilot que permitia aos atacantes roubar dados sem qualquer ação do utilizador. Ao ocultar instruções e ligações maliciosas dentro de um e-mail normal, os atacantes podiam enganar o Copilot para seguir esses comandos, acedendo a essas ligações e enviando partes dos dados do utilizador para um servidor externo. A vulnerabilidade foi corrigida, mas é um exemplo de como a integração de assistentes de IA como o Copilot em sistemas centrais — e dar-lhes amplo acesso a e-mails, documentos e dados internos — pode transformá-los em ameaças internas se forem manipulados ou mal configurados.
- Em agosto de 2024, uma empresa de cibersegurança(nova janela) descobriu uma falha crítica de divulgação de informações no Microsoft Copilot Studio, que permitia a copilotos personalizados explorar proteções fracas e obter informações sensíveis (como tokens de serviço e chaves de base de dados) para se moverem mais para dentro de um sistema interno. A Microsoft corrigiu o problema.
- Em outubro de 2025, investigadores de segurança(nova janela) descobriram uma técnica de phishing chamada CoPhish que abusa do Microsoft Copilot Studio para fazer com que páginas de início de sessão maliciosas pareçam completamente legítimas. Os atacantes podem criar um agente do Copilot Studio cujo botão de início de sessão redireciona as vítimas para uma página falsa de consentimento OAuth, e depois partilhar a ligação do agente (hospedada num domínio Microsoft de confiança) para atrair os utilizadores a conceder acesso. Uma vez dado o consentimento, o atacante pode obter tokens que lhe permitem ler, escrever ou enviar dados, tais como e-mails, conversas, calendários e notas. A Microsoft ainda está a trabalhar neste problema.
Uma alternativa privada ao Copilot e à Microsoft
Se está inquieto com a profundidade da integração do Copilot no Windows e com a quantidade de dados que a Microsoft recolhe através dos seus serviços de IA — mas ainda quer a conveniência de um chatbot de IA — mude para o Lumo, o nosso assistente de IA privado(nova janela). Alojado na Europa, o Lumo nunca colhe nem treina com os seus dados, mostra-lhe anúncios, mantém registos ou partilha as suas informações com ninguém.
E se estiver pronto para sair completamente do ecossistema da Microsoft, pode construir o seu próprio espaço de trabalho digital privado com o nosso ecossistema encriptado. Pode utilizar:
- Proton Mail e Calendar para e-mail gratuito seguro e agendamento privado
- Proton Pass para uma gestão de palavras-passe segura
- Proton Drive para armazenamento na nuvem encriptado e partilha de ficheiros
- Proton VPN para proteger o seu tráfego de internet(nova janela)
Cada serviço Proton é construído para proteger a sua privacidade por predefinição, utilizando encriptação ponto a ponto, para que ninguém além de si possa aceder aos seus dados — nem mesmo nós.






