A administração dos EUA está finalizando sua Lei de Autorização de Defesa Nacional (NDAA) de 2026, que deve passar até o final deste ano. Uma disposição do projeto de lei imporia uma moratória de 10 anos(nova janela) na regulamentação de IA em nível estadual. Isso efetivamente interromperia a capacidade de qualquer estado de controlar como as ferramentas de IA coletam dados ou geram respostas para seus residentes.
A mesma moratória foi rejeitada em julho de 2025(nova janela) como parte da Lei One Big Beautiful Bill. Mas desta vez a administração está pronta com um plano de backup: Se a moratória não passar como parte da NDAA, a administração Trump já redigiu uma ordem executiva que tentaria forçar os estados a descartar quaisquer regulamentos de IA próprios.
Na Proton, acreditamos que a regulamentação é uma ferramenta eficaz para proteger as pessoas, e um padrão federal é o caminho certo a seguir. Em um clima político ferozmente dividido, uma única lei federal simplificaria a regulamentação da IA, prevenindo proteções fragmentadas entre estados e tornando as regras muito mais claras. Mas apagar leis estaduais antes de propor qualquer alternativa federal seria pior. As Big Techs poderiam operar sem proteções, colocando a segurança e a privacidade de todos em risco.
O plano da administração para acelerar a IA
Como parte de seu Plano de Ação de IA(nova janela), a administração apresentou seu plano para acelerar a inovação em IA, construir infraestrutura de IA americana e liderar na diplomacia e segurança internacional de IA.
Para impulsionar essa agenda, o governo federal sinalizou que está determinado a impedir a regulamentação em nível estadual. Adicionar a moratória à NDAA é uma maneira inteligente de aprovar uma moratória no Congresso porque o projeto de lei de gastos com defesa deve passar. Se falhar em chegar à lei orçamentária final, no entanto, o presidente Trump preparou uma ordem executiva(nova janela) como plano B.
O rascunho estipula que:
- Empresas americanas de IA devem ser livres para inovar sem regulamentação, significando que legislaturas estaduais não devem criar uma colcha de retalhos regulatória que impediria o crescimento da IA.
- Dentro de 30 dias da data da ordem, o procurador-geral criará uma Força-Tarefa de Litígio de IA cujo único propósito seria desafiar leis estaduais de IA.
- Dentro de 90 dias da data da ordem, o secretário de comércio publicará uma avaliação das leis estaduais existentes que “exigem que modelos alterem suas saídas verdadeiras, ou […] compelem desenvolvedores ou implantadores de IA a divulgar ou relatar informações de uma maneira que violaria a Primeira Emenda ou qualquer outra disposição da Constituição”.
- Dentro de 90 dias da data da ordem, o secretário de comércio emitirá um aviso de política declarando as condições sob as quais os estados podem ser elegíveis para financiamento restante sob o programa Broadband Equity Access and Deployment (BEAD).
- Quaisquer estados com leis de IA que entrem em conflito com a avaliação listada acima terão seus programas de subsídios discricionários e fundos de não implantação avaliados.
A ordem executiva e o Plano de Ação de IA sugerem uma agenda clara para a administração: Para liberar o domínio americano na indústria de IA, os EUA devem regular a IA com uma única lei federal. Mas dado o incentivo do governo para ajudar as empresas de IA a superar seus concorrentes — e a incapacidade do Congresso de concordar em quase qualquer coisa — pressionar por uma única regulamentação pode se tornar equivalente a nenhuma regulamentação.
Precisamos de uma indústria de IA que não tenha medo de ser regulada
No curto tempo desde que ferramentas de IA surgiram, elas mudaram distintamente nossa realidade. Elas fazem parte de nossos dias de trabalho e nossas vidas pessoais, nos ajudando a escrever e-mails, expressar ideias, pesquisar tópicos nos quais estamos interessados e fazer planos. O ChatGPT sozinho atingiu mais de 100 milhões de usuários(nova janela) em seus primeiros meses.
Após a perturbação causada pelo DeepSeek, acelerar o desenvolvimento no setor de IA tornou-se uma grave preocupação para a indústria e o governo. Sam Altman, CEO da OpenAI, alertou contra regulamentos(nova janela) que poderiam desacelerar os EUA na corrida armamentista de IA com a China.
Empresas americanas, como outras empresas ao redor do globo, têm o direito de inovar em seus setores e buscar superar seus concorrentes. Mas elas não têm o direito de não serem reguladas. Melhorar o domínio global de IA da América e garantir que o setor de IA permaneça insuficientemente regulado não é do interesse dos seres humanos.
As Big Techs nos mostraram repetidamente que desrespeitar regulamentos de dados e vender dados pessoais é sua rota mais rápida para o lucro. Uma abordagem orientada para o lucro na IA significa que as empresas priorizarão o lucro ou ganhos geopolíticos competitivos, mesmo contra os interesses das pessoas que usam suas ferramentas. Nos últimos anos, vimos os custos da regulamentação insuficiente:
- Tentativas de criar monopólios(nova janela) para chatbots de IA em lojas de aplicativos levaram as empresas a considerar aumentos dramáticos de preços(nova janela). Empresas que buscam criar monopólios também estão interessadas em inibir desenvolvimentos que priorizam a privacidade(nova janela) para suas ferramentas, para não limitar seu desenvolvimento.
- Grandes empresas de tecnologia não implementaram adequadamente salvaguardas básicas para proteger crianças, e em particular meninas jovens, de danos psicológicos(nova janela).
- Golpes on-line e publicidade fraudulenta estão proliferando, com ferramentas de denúncia falhando em identificá-los e empresas permitindo que criminosos continuem operando em suas plataformas.
- Dados de IA estão prontamente disponíveis para corretores de dados devido à falta de segurança por parte das empresas de IA. Corretores de dados e hackers são capazes de vender ‘jailbreak-as-a-service’(nova janela), conectando maus atores diretamente a ferramentas de IA disponíveis comercialmente e permitindo que roubem dados.
- Plataformas de mídia social estão desenfreadas com desinformação e não fazendo o suficiente para combater sua disseminação, subvertendo eleições(nova janela) e até provocando um genocídio(nova janela).
Sem regulamentação adequada, empresas de IA serão livres para buscar os objetivos que consideram necessários para o crescimento. Como vimos, essas inovações provavelmente serão às custas das pessoas que usam suas ferramentas.
Escolha ferramentas de IA privadas
Assim que esta ordem executiva entrar em vigor, os consumidores ficarão mais vulneráveis a más práticas no espaço da IA. Sem as proteções certas implementadas, ferramentas de IA tornam-se um aparato de vigilância digital. Elas podem vazar informações(nova janela) sobre nossas vidas pessoais, vazar documentos comerciais confidenciais(nova janela) e nos encorajar a confiar nelas emocionalmente(nova janela). Se as ferramentas de IA americanas ficarem efetivamente desregulamentadas, elas têm um alto risco de se tornarem inseguras para cidadãos e empresas.
Na ausência de regulamentação governamental suficiente, a melhor opção que temos para nossa própria segurança e para encorajar práticas mais seguras na indústria são nossas escolhas tecnológicas. Devemos priorizar ferramentas de IA que sirvam às pessoas primeiro e que não mantenham registros de conversas ou treinem seus modelos com conversas de usuários. Mesmo se as Big Techs não forem reguladas o suficiente, existem alternativas seguras para suas ferramentas.
Após nossa comunidade expressar interesse em alternativas privadas de IA, nossos engenheiros começaram a explorar tecnologia para tornar isso possível. Em julho deste ano, introduzimos o Lumo(nova janela), um assistente de IA projetado para ajudar qualquer pessoa ao redor do globo a se libertar de ferramentas centradas nos EUA. Em vez de nos escondermos da regulamentação e escrutínio, publicamos nosso modelo de segurança e base de código para que qualquer um possa verificar como o Lumo opera. Ele não mantém registros de conversas, permitindo que você confie que está falando confidencialmente. Criptografia de acesso zero protege cada conversa e garante que anunciantes e governos não possam acessá-las. Históricos de chat podem ser excluídos a qualquer momento, porque aplicamos princípios do GDPR a todos os nossos usuários, tanto dentro quanto fora da UE, como uma prática de dados responsável.
Em vez de desrespeitar regulamentos, a Proton ativamente defende(nova janela) leis de privacidade rigorosas e é contra a vigilância tanto on-line quanto off-line. Nosso objetivo sempre foi criar uma internet onde a privacidade venha primeiro — isso significa criar alternativas para ferramentas de Big Tech como IA, e ajudar a reduzir a dependência do mercado europeu da tecnologia dos EUA. Sempre defenderemos as pessoas acima dos lucros.