La administración de EE. UU. está finalizando su Ley de Autorización de Defensa Nacional (NDAA) de 2026, que debe aprobarse para finales de este año. Una disposición del proyecto de ley impondría una moratoria de 10 años(nueva ventana) sobre la regulación a nivel estatal de la IA. Esto detendría efectivamente la capacidad de cualquier estado para controlar cómo las herramientas de IA recopilan datos o generan respuestas para sus residentes.
La misma moratoria fue rechazada en julio de 2025(nueva ventana) como parte de la Ley de Un Gran Proyecto de Ley Hermoso. Pero esta vez la administración está lista con un plan de respaldo: si la moratoria no se aprueba como parte de la NDAA, la administración Trump ya ha redactado una orden ejecutiva que intentaría obligar a los estados a descartar cualquier regulación de IA propia.
En Proton, creemos que la regulación es una herramienta eficaz para proteger a las personas, y un estándar federal es el camino correcto. En un clima político ferozmente dividido, una sola ley federal simplificaría la regulación de la IA, evitando protecciones fragmentadas en los estados y haciendo que las reglas sean mucho más claras. Pero borrar las leyes estatales antes de proponer cualquier alternativa federal sería peor. Las grandes tecnológicas podrían operar sin barreras de protección, poniendo la seguridad y la privacidad de todos en riesgo.
El plan de la administración para acelerar la IA
Como parte de su Plan de Acción de IA(nueva ventana), la administración expuso su plan para acelerar la innovación de IA, construir infraestructura de IA estadounidense y liderar en diplomacia y seguridad de IA internacional.
Para impulsar esta agenda, el gobierno federal ha señalado que está decidido a evitar la regulación a nivel estatal. Agregar la moratoria a la NDAA es una forma inteligente de impulsar una moratoria a través del Congreso porque el proyecto de ley de gastos de defensa debe aprobarse. Si no logra llegar a la ley de presupuesto final, sin embargo, el presidente Trump preparó una orden ejecutiva(nueva ventana) como plan B.
El borrador estipula que:
- Las empresas de IA estadounidenses deben ser libres de innovar sin regulación, lo que significa que las legislaturas estatales no deben crear un mosaico regulatorio que impida el crecimiento de la IA.
- Dentro de los 30 días posteriores a la fecha de la orden, el fiscal general creará un Grupo de Trabajo de Litigios de IA cuyo único propósito sería desafiar las leyes estatales de IA.
- Dentro de los 90 días posteriores a la fecha de la orden, el secretario de comercio publicará una evaluación de las leyes estatales existentes que “requieran que los modelos alteren sus resultados veraces, u […] obliguen a los desarrolladores o implementadores de IA a revelar o informar información de una manera que violaría la Primera Enmienda o cualquier otra disposición de la Constitución”.
- Dentro de los 90 días posteriores a la fecha de la orden, el secretario de comercio emitirá un aviso de política indicando las condiciones bajo las cuales los estados pueden ser elegibles para los fondos restantes bajo el programa de Equidad, Acceso y Despliegue de Banda Ancha (BEAD).
- Cualquier estado con leyes de IA que entren en conflicto con la evaluación enumerada anteriormente tendrá sus programas de subvenciones discrecionales y fondos de no despliegue evaluados.
La orden ejecutiva y el Plan de Acción de IA sugieren una agenda clara para la administración: Para desatar el dominio estadounidense en la industria de la IA, EE. UU. debería regular la IA con una sola ley federal. Pero dado el incentivo del gobierno para ayudar a las empresas de IA a superar a sus competidores, y la incapacidad del Congreso para ponerse de acuerdo en casi cualquier cosa, presionar por una sola regulación podría volverse equivalente a ninguna regulación en absoluto.
Necesitamos una industria de IA que no tenga miedo de ser regulada
En el poco tiempo desde que han surgido las herramientas de IA, han cambiado claramente nuestra realidad. Son parte de nuestros días laborales y nuestras vidas personales, ayudándonos a escribir correos electrónicos, sondear ideas, investigar temas que nos interesan y hacer planes. Solo ChatGPT alcanzó más de 100 millones de usuarios(nueva ventana) en sus primeros meses.
Después del malestar causado por DeepSeek, acelerar el desarrollo en el sector de la IA se ha convertido en una grave preocupación para la industria y el gobierno. Sam Altman, CEO de OpenAI, ha advertido contra las regulaciones(nueva ventana) que podrían ralentizar a EE. UU. en la carrera armamentista de IA con China.
Las empresas estadounidenses, como otras empresas de todo el mundo, tienen derecho a innovar en sus sectores y buscar superar a sus competidores. Pero no tienen derecho a no estar reguladas. Mejorar el dominio global de la IA de Estados Unidos y garantizar que el sector de la IA permanezca insuficientemente regulado no es en el interés de los seres humanos.
Las grandes tecnológicas nos han mostrado una y otra vez que burlar las regulaciones de datos y vender datos personales es su ruta más rápida hacia el beneficio. Un enfoque impulsado por el beneficio para la IA significa que las empresas priorizarán el beneficio o las ganancias geopolíticas competitivas, incluso en contra de los intereses de las personas que utilizan sus herramientas. En los últimos años, hemos visto los costos de una regulación insuficiente:
- Los intentos de crear monopolios(nueva ventana) para los chatbots de IA en las tiendas de aplicaciones han llevado a las empresas a considerar aumentos de precios dramáticos(nueva ventana). Las empresas que buscan crear monopolios también están interesadas en inhibir los desarrollos que priorizan la privacidad(nueva ventana) para sus herramientas, para no limitar su desarrollo.
- Las grandes empresas tecnológicas no han establecido adecuadamente salvaguardias básicas para proteger a los niños, y en particular a las niñas jóvenes, del daño psicológico(nueva ventana).
- Las estafas en línea y la publicidad fraudulenta están proliferando, con herramientas de denuncia que no logran detectarlas y empresas que permiten que los delincuentes continúen operando en sus plataformas.
- Los datos de IA están fácilmente disponibles para los corredores de datos debido a la falta de seguridad por parte de las empresas de IA. Los corredores de datos y los hackers pueden vender ‘jailbreak-as-a-service’(nueva ventana), conectando a los malos actores directamente con herramientas de IA disponibles comercialmente y permitiéndoles robar datos.
- Las plataformas de redes sociales están plagadas de desinformación y no hacen lo suficiente para combatir su propagación, subvirtiendo elecciones(nueva ventana) e incluso provocando un genocidio(nueva ventana).
Sin una regulación adecuada, las empresas de IA serán libres de perseguir los objetivos que consideren necesarios para el crecimiento. Como hemos visto, estas innovaciones probablemente serán a expensas de las personas que utilizan sus herramientas.
Elija herramientas de IA privadas
Una vez que esta orden ejecutiva entre en vigor, los consumidores se volverán más vulnerables a las malas prácticas en el espacio de la IA. Sin las protecciones adecuadas, las herramientas de IA se convierten en un aparato de vigilancia digital. Pueden filtrar información(nueva ventana) sobre nuestras vidas personales, filtrar documentos comerciales confidenciales(nueva ventana) y animarnos a depender de ellas emocionalmente(nueva ventana). Si las herramientas de IA estadounidenses quedan efectivamente sin regular, tienen un alto riesgo de volverse inseguras para los ciudadanos y las empresas por igual.
En ausencia de una regulación gubernamental suficiente, la mejor opción que tenemos para nuestra propia seguridad y para fomentar prácticas más seguras en la industria son nuestras elecciones tecnológicas. Debemos priorizar las herramientas de IA que sirven a las personas primero y que no guardan registros de conversación ni entrenan sus modelos con conversaciones de usuarios. Incluso si las grandes tecnológicas no están reguladas lo suficiente, hay alternativas seguras a sus herramientas.
Después de que nuestra comunidad expresara interés en alternativas de IA privadas, nuestros ingenieros comenzaron a explorar tecnología para hacer esto posible. En julio de este año presentamos Lumo(nueva ventana), un asistente de IA diseñado para ayudar a cualquier persona en todo el mundo a separarse de las herramientas centradas en EE. UU. En lugar de escondernos de la regulación y el escrutinio, publicamos nuestro modelo de seguridad y código base para que cualquiera pueda verificar cómo opera Lumo. No mantiene registros de conversaciones, lo que le permite confiar en que está hablando de manera confidencial. El cifrado de acceso cero protege cada conversación y garantiza que los anunciantes y los gobiernos no puedan acceder a ellas. Los historiales de chat se pueden eliminar en cualquier momento, porque aplicamos los principios del GDPR a todos nuestros usuarios, tanto dentro como fuera de la UE, como una práctica de datos responsable.
En lugar de burlar las regulaciones, Proton aboga(nueva ventana) activamente por leyes de privacidad estrictas y contra la vigilancia tanto en línea como fuera de línea. Nuestro objetivo siempre ha sido crear un internet donde la privacidad sea lo primero; eso significa crear alternativas a las herramientas de grandes tecnológicas como la IA y ayudar a reducir la dependencia del mercado europeo de la tecnología de EE. UU. Siempre abogaremos por las personas sobre las ganancias.




