L’administration américaine finalise sa loi d’autorisation de la défense nationale (NDAA) de 2026, qui doit être adoptée d’ici la fin de cette année. Une disposition du projet de loi imposerait un moratoire de 10 ans(nouvelle fenêtre) sur la réglementation de l’IA au niveau des États. Cela empêcherait effectivement tout État de contrôler la manière dont les outils d’IA collectent des données ou génèrent des réponses pour leurs résidents.
Le même moratoire a été rejeté en juillet 2025(nouvelle fenêtre) dans le cadre de la loi One Big Beautiful Bill Act. Mais cette fois, l’administration est prête avec un abonnement de sauvegarde : si le moratoire ne passe pas dans le cadre de la NDAA, l’administration Trump a déjà rédigé un décret qui tenterait de forcer les États à abandonner leurs propres réglementations sur l’IA.
Chez Proton, nous pensons que la réglementation est un outil efficace pour protéger les gens, et qu’une norme fédérale est la bonne voie à suivre. Dans un climat politique farouchement divisé, une seule loi fédérale rationaliserait la réglementation de l’IA, empêchant des protections fragmentées entre les États et rendant les règles beaucoup plus claires. Mais effacer les lois des États avant de proposer une alternative fédérale serait pire. La Big Tech pourrait opérer sans garde-fous, mettant en danger la sécurité et le respect de la vie privée de chacun.
L’abonnement de l’administration pour accélérer l’IA
Dans le cadre de son abonnement d’action sur l’IA(nouvelle fenêtre), l’administration a exposé son abonnement pour accélérer l’innovation en IA, construire l’infrastructure américaine d’IA et mener la diplomatie et la sécurité internationales en matière d’IA.
Pour faire avancer cet agenda, le gouvernement fédéral a indiqué qu’il était déterminé à empêcher la réglementation au niveau des États. L’ajout du moratoire à la NDAA est un moyen intelligent de faire passer un moratoire au Congrès car le projet de loi sur les dépenses de défense doit être adopté. S’il ne parvient pas à se frayer un chemin dans la loi budgétaire finale, cependant, le président Trump a préparé un décret(nouvelle fenêtre) comme abonnement B.
Le brouillon stipule que :
- Les entreprises américaines d’IA doivent être libres d’innover sans réglementation, ce qui signifie que les législatures des États ne doivent pas créer un patchwork réglementaire qui entraverait la croissance de l’IA.
- Dans les 30 jours suivant la date du décret, le procureur général créera un groupe de travail sur les litiges liés à l’IA dont le seul but serait de contester les lois des États sur l’IA.
- Dans les 90 jours suivant la date du décret, le secrétaire au Commerce publiera une évaluation des lois des États existantes qui « obligent les modèles à modifier leurs résultats véridiques, ou […] obligent les développeurs ou les déployeurs d’IA à divulguer ou à signaler des informations d’une manière qui violerait le premier amendement ou toute autre disposition de la Constitution ».
- Dans les 90 jours suivant la date du décret, le secrétaire au Commerce émettra un avis de politique énonçant les conditions dans lesquelles les États peuvent être éligibles au financement restant dans le cadre du programme BEAD (Broadband Equity Access and Deployment).
- Tous les États dotés de lois sur l’IA qui entrent en conflit avec l’évaluation mentionnée ci-dessus verront leurs programmes de subventions discrétionnaires et leurs fonds de non-déploiement évalués.
Le décret et l’abonnement d’action sur l’IA suggèrent un agenda clair pour l’administration : afin de libérer la domination américaine dans l’industrie de l’IA, les États-Unis devraient réglementer l’IA avec une seule loi fédérale. Mais étant donné l’incitation du gouvernement à aider les entreprises d’IA à dépasser leurs concurrents — et l’incapacité du Congrès à s’entendre sur presque tout — faire pression pour une réglementation unique pourrait devenir équivalent à aucune réglementation du tout.
Nous avons besoin d’une industrie de l’IA qui n’a pas peur d’être réglementée
Dans le peu de temps qui s’est écoulé depuis l’apparition des outils d’IA, ils ont radicalement changé notre réalité. Ils font partie de nos journées de travail et de nos vies personnelles, nous aidant à écrire des messages, à formuler des idées, à rechercher des sujets qui nous intéressent et à faire des abonnements. ChatGPT à lui seul a atteint plus de 100 millions d’utilisateurs(nouvelle fenêtre) au cours de ses premiers mois.
Après le bouleversement causé par DeepSeek, l’accélération du développement dans le secteur de l’IA est devenue une préoccupation majeure pour l’industrie et le gouvernement. Sam Altman, PDG d’OpenAI, a mis en garde contre des réglementations(nouvelle fenêtre) qui pourraient ralentir les États-Unis dans la course aux armements de l’IA avec la Chine.
Les entreprises américaines, comme d’autres entreprises dans le monde, ont le droit d’innover dans leurs secteurs et de chercher à surpasser leurs concurrents. Mais elles n’ont pas le droit de ne pas être réglementées. Renforcer la domination mondiale de l’Amérique en matière d’IA et garantir que le secteur de l’IA reste insuffisamment réglementé n’est pas dans l’intérêt des êtres humains.
La Big Tech nous a montré à maintes reprises que bafouer les réglementations sur les données et vendre des données personnelles est leur voie la plus rapide vers le profit. Une approche de l’IA axée sur le profit signifie que les entreprises privilégieront le profit ou les gains géopolitiques concurrentiels, même contre les intérêts des personnes utilisant leurs outils. Ces dernières années, nous avons vu les coûts d’une réglementation insuffisante :
- Les tentatives de création de monopoles(nouvelle fenêtre) pour les chatbots IA dans les magasins d’applications ont conduit les entreprises à envisager des augmentations de prix spectaculaires(nouvelle fenêtre). Les entreprises cherchant à créer des monopoles sont également désireuses d’inhiber les développements axés sur le respect de la vie privée(nouvelle fenêtre) pour leurs outils, afin de ne pas limiter leur développement.
- Les entreprises de la Big Tech n’ont pas mis en place de manière adéquate des garde-fous de base pour protéger les enfants, et en particulier les jeunes filles, contre les dommages psychologiques(nouvelle fenêtre).
- Les escroqueries en ligne et la publicité frauduleuse prolifèrent, les outils de signalement ne parvenant pas à les repérer et les entreprises permettant aux criminels de continuer à opérer sur leurs plateformes.
- Les données d’IA sont facilement disponibles pour les courtiers en données en raison d’un manque de sécurité de la part des entreprises d’IA. Les courtiers en données et les pirates sont capables de vendre le « jailbreak-as-a-service »(nouvelle fenêtre), connectant les mauvais acteurs directement aux outils d’IA disponibles dans le commerce et leur permettant de voler des données.
- Les plateformes de médias sociaux regorgent de désinformation et ne font pas assez pour combattre sa propagation, subvertissant les élections(nouvelle fenêtre) et provoquant même un génocide(nouvelle fenêtre).
Sans réglementation adéquate, les entreprises d’IA seront libres de poursuivre les objectifs qu’elles jugent nécessaires à la croissance. Comme nous l’avons vu, ces innovations se feront probablement au détriment des personnes utilisant leurs outils.
Choisissez des outils d’IA privés
Une fois ce décret entré en vigueur, les consommateurs deviendront plus vulnérables aux mauvaises pratiques dans l’espace de l’IA. Sans les bonnes protections en place, les outils d’IA deviennent un appareil de surveillance numérique. Ils peuvent faire fuiter des informations(nouvelle fenêtre) sur nos vies personnelles, faire fuiter des documents commerciaux sensibles(nouvelle fenêtre) et nous encourager à compter sur eux émotionnellement(nouvelle fenêtre). Si les outils d’IA américains ne sont effectivement pas réglementés, ils présentent un risque élevé de devenir dangereux pour les citoyens et les entreprises.
En l’absence de réglementation gouvernementale suffisante, la meilleure option dont nous disposons pour notre propre sécurité et pour encourager des pratiques plus sûres dans l’industrie est nos choix technologiques. Nous devons privilégier les outils d’IA qui servent d’abord les gens et qui ne conservent pas de journaux de conversation ni n’entraînent leurs modèles avec les conversations des utilisateurs. Même si la Big Tech n’est pas suffisamment réglementée, il existe des alternatives sécurisées à leurs outils.
Après que notre communauté a exprimé un intérêt pour des alternatives d’IA privées, nos ingénieurs ont commencé à explorer la technologie pour rendre cela possible. En juillet de cette année, nous avons présenté Lumo(nouvelle fenêtre), un assistant IA conçu pour aider quiconque dans le monde à se détacher des outils centrés sur les États-Unis. Au lieu de nous cacher de la réglementation et de l’examen minutieux, nous avons publié notre modèle de sécurité et notre base de code afin que quiconque puisse vérifier comment Lumo fonctionne. Il ne conserve aucun journal de conversations, vous permettant d’avoir la confiance que vous parlez confidentiellement. Le chiffrement à accès zéro protège chaque conversation et garantit que les annonceurs et les gouvernements ne peuvent pas y accéder. Les historiques de chat peuvent être supprimés à tout moment, car nous appliquons les principes du GDPR à tous nos utilisateurs, qu’ils soient à l’intérieur ou à l’extérieur de l’UE, en tant que pratique responsable des données.
Au lieu de bafouer les réglementations, Proton plaide(nouvelle fenêtre) activement pour des lois strictes sur le respect de la vie privée et contre la surveillance, tant en ligne que hors ligne. Notre objectif a toujours été de créer un internet où le respect de la vie privée passe avant tout — cela signifie créer des alternatives aux outils de la Big Tech comme l’IA, et aider à réduire la dépendance du marché européen à l’égard de la technologie américaine. Nous défendrons toujours les gens avant les profits.



