A administração dos EUA está a finalizar a sua Lei de Autorização de Defesa Nacional (NDAA) de 2026, que deve ser aprovada até ao final deste ano. Uma disposição do projeto de lei imporia uma moratória de 10 anos(nova janela) à regulamentação da IA a nível estatal. Isto travaria efetivamente a capacidade de qualquer estado de controlar como as ferramentas de IA recolhem dados ou geram respostas para os seus residentes.
A mesma moratória foi rejeitada em julho de 2025(nova janela) como parte da Lei One Big Beautiful Bill. Mas desta vez a administração está pronta com um plano de reserva: Se a moratória não passar como parte da NDAA, a administração Trump já redigiu uma ordem executiva que tentaria forçar os estados a descartar quaisquer regulamentos de IA próprios.
Na Proton, acreditamos que a regulamentação é uma ferramenta eficaz para proteger as pessoas, e um padrão federal é o caminho certo a seguir. Num clima político ferozmente dividido, uma única lei federal simplificaria a regulamentação da IA, prevenindo proteções fragmentadas entre estados e tornando as regras muito mais claras. Mas apagar leis estaduais antes de propor qualquer alternativa federal seria pior. A Big Tech seria capaz de operar sem barreiras, colocando a segurança e privacidade de todos em risco.
O plano da administração para acelerar a IA
Como parte do seu Plano de Ação de IA(nova janela), a administração expôs o seu plano para acelerar a inovação em IA, construir infraestrutura de IA americana e liderar na diplomacia e segurança internacional de IA.
Para fazer avançar esta agenda, o governo federal sinalizou que está determinado a impedir a regulamentação a nível estatal. Adicionar a moratória à NDAA é uma forma inteligente de fazer passar uma moratória pelo Congresso porque a lei de gastos com defesa tem de passar. Se falhar em chegar à lei orçamental final, no entanto, o Presidente Trump preparou uma ordem executiva(nova janela) como plano B.
O rascunho estipula que:
- As empresas americanas de IA devem ser livres para inovar sem regulamentação, o que significa que as legislaturas estaduais não devem criar uma manta de retalhos regulatória que impeça o crescimento da IA.
- No prazo de 30 dias a contar da data da ordem, o procurador-geral criará uma Força-Tarefa de Litígio de IA cujo único objetivo será desafiar as leis estaduais de IA.
- No prazo de 90 dias a contar da data da ordem, o secretário do comércio publicará uma avaliação das leis estaduais existentes que “exigem que os modelos alterem as suas saídas verdadeiras, ou […] compelem os programadores ou implementadores de IA a divulgar ou relatar informações de uma forma que violaria a Primeira Emenda ou qualquer outra disposição da Constituição”.
- No prazo de 90 dias a contar da data da ordem, o secretário do comércio emitirá um aviso de política declarando as condições sob as quais os estados podem ser elegíveis para o financiamento restante ao abrigo do programa Broadband Equity Access and Deployment (BEAD).
- Quaisquer estados com leis de IA que entrem em conflito com a avaliação listada acima terão os seus programas de subvenção discricionária e fundos de não-implementação avaliados.
A ordem executiva e o Plano de Ação de IA sugerem uma agenda clara para a administração: Para libertar o domínio americano na indústria de IA, os EUA devem regular a IA com uma única lei federal. Mas dado o incentivo do governo para ajudar as empresas de IA a ultrapassar os seus concorrentes — e a incapacidade do Congresso de concordar em quase tudo — pressionar por uma única regulamentação pode tornar-se equivalente a nenhuma regulamentação de todo.
Precisamos de uma indústria de IA que não tenha medo de ser regulada
No curto espaço de tempo desde que as ferramentas de IA surgiram, mudaram distintamente a nossa realidade. Fazem parte dos nossos dias de trabalho e das nossas vidas pessoais, ajudando-nos a escrever e-mails, sondar ideias, pesquisar tópicos em que estamos interessados e fazer planos. Só o ChatGPT alcançou mais de 100 milhões de utilizadores(nova janela) nos seus primeiros meses.
Após a perturbação causada pelo DeepSeek, acelerar o desenvolvimento no setor da IA tornou-se uma preocupação grave para a indústria e para o governo. Sam Altman, CEO da OpenAI, alertou contra regulamentos(nova janela) que poderiam atrasar os EUA na corrida armamentista de IA com a China.
As empresas americanas, como outras empresas em todo o mundo, têm o direito de inovar nos seus setores e procurar superar os seus concorrentes. Mas não têm o direito de não ser reguladas. Melhorar o domínio global de IA da América e garantir que o setor da IA permanece insuficientemente regulado não é do interesse dos seres humanos.
A Big Tech mostrou-nos vezes sem conta que desrespeitar os regulamentos de dados e vender dados pessoais é a sua rota mais rápida para o lucro. Uma abordagem à IA impulsionada pelo lucro significa que as empresas darão prioridade ao lucro ou a ganhos geopolíticos competitivos, mesmo contra os interesses das pessoas que utilizam as suas ferramentas. Nos últimos anos, vimos os custos de uma regulamentação insuficiente:
- Tentativas de criar monopólios(nova janela) para chatbots de IA em lojas de aplicações levaram as empresas a considerar aumentos de preços dramáticos(nova janela). As empresas que procuram criar monopólios também estão interessadas em inibir desenvolvimentos de privacidade em primeiro lugar(nova janela) para as suas ferramentas, de modo a não limitar o seu desenvolvimento.
- As empresas Big Tech não implementaram adequadamente salvaguardas básicas para proteger as crianças, e em particular as jovens, de danos psicológicos(nova janela).
- Burlas online e publicidade fraudulenta estão a proliferar, com ferramentas de denúncia a falharem na sua deteção e empresas a permitirem que criminosos continuem a operar nas suas plataformas.
- Os dados de IA estão prontamente disponíveis para corretores de dados devido a uma falta de segurança por parte das empresas de IA. Os corretores de dados e hackers conseguem vender ‘jailbreak-as-a-service’(nova janela), ligando maus atores diretamente a ferramentas de IA comercialmente disponíveis e permitindo-lhes roubar dados.
- As plataformas de redes sociais estão repletas de desinformação e não fazem o suficiente para combater a sua propagação, subvertendo eleições(nova janela) e até provocando um genocídio(nova janela).
Sem regulamentação adequada, as empresas de IA serão livres para perseguir os objetivos que considerem necessários para o crescimento. Como vimos, estas inovações serão provavelmente à custa das pessoas que utilizam as suas ferramentas.
Escolha ferramentas de IA privadas
Assim que esta ordem executiva entrar em vigor, os consumidores tornar-se-ão mais vulneráveis a más práticas no espaço da IA. Sem as proteções certas em vigor, as ferramentas de IA tornam-se um aparelho de vigilância digital. Podem deixar escapar informação(nova janela) sobre as nossas vidas pessoais, deixar escapar documentos empresariais sensíveis(nova janela) e encorajar-nos a depender delas emocionalmente(nova janela). Se as ferramentas de IA americanas ficarem efetivamente não reguladas, têm um risco elevado de se tornarem inseguras para cidadãos e empresas.
Na ausência de regulamentação governamental suficiente, a melhor opção que temos para a nossa própria segurança e para encorajar práticas mais seguras na indústria são as nossas escolhas tecnológicas. Devemos dar prioridade a ferramentas de IA que servem as pessoas primeiro e que não mantêm registos de conversas nem treinam os seus modelos com conversas de utilizadores. Mesmo que a Big Tech não seja regulada o suficiente, existem alternativas seguras às suas ferramentas.
Depois de a nossa comunidade expressar interesse em alternativas de IA privadas, os nossos engenheiros começaram a explorar tecnologia para tornar isto possível. Em julho deste ano apresentámos o Lumo(nova janela), um assistente de IA concebido para ajudar qualquer pessoa em todo o mundo a libertar-se de ferramentas centradas nos EUA. Em vez de nos escondermos da regulamentação e escrutínio, publicámos o nosso modelo de segurança e base de código para que qualquer pessoa possa verificar como o Lumo opera. Não mantém registos de conversas, permitindo-lhe confiar que está a falar confidencialmente. A encriptação de acesso zero protege cada conversa e garante que anunciantes e governos não podem aceder às mesmas. Os históricos de chat podem ser eliminados a qualquer altura, porque aplicamos os princípios do GDPR a todos os nossos utilizadores, tanto dentro como fora da UE, como uma prática de dados responsável.
Em vez de desrespeitar regulamentos, a Proton defende(nova janela) ativamente leis de privacidade rigorosas e contra a vigilância tanto online como offline. O nosso objetivo sempre foi criar uma internet onde a privacidade vem primeiro — isso significa criar alternativas a ferramentas da Big Tech como a IA, e ajudar a reduzir a dependência do mercado europeu da tecnologia dos EUA. Defenderemos sempre as pessoas em detrimento dos lucros.






