De Amerikaanse regering legt de laatste hand aan de National Defense Authorization Act (NDAA) van 2026, die voor het einde van dit jaar moet worden aangenomen. Eén bepaling van het wetsvoorstel zou een moratorium van 10 jaar(nieuw venster) opleggen aan AI-regelgeving op staatsniveau. Dit zou effectief het vermogen van elke staat stoppen om te controleren hoe AI-tools gegevens verzamelen of reacties genereren voor hun inwoners.

Hetzelfde moratorium werd in juli 2025(nieuw venster) verworpen als onderdeel van de One Big Beautiful Bill Act. Maar deze keer is de regering klaar met een back-upplan: als het moratorium niet wordt aangenomen als onderdeel van de NDAA, heeft de regering-Trump al een concept-uitvoeringsbevel opgesteld dat staten zou proberen te dwingen hun eigen AI-regelgeving te schrappen.

Bij Proton geloven we dat regelgeving een effectief instrument is om mensen te beschermen, en een federale standaard is de juiste weg. In een sterk verdeeld politiek klimaat zou één federale wet AI-regelgeving stroomlijnen, versnipperde bescherming in verschillende staten voorkomen en de regels veel duidelijker maken. Maar staatswetten wissen voordat er een federaal alternatief wordt voorgesteld, zou erger zijn. Big Tech zou zonder vangrails kunnen opereren, waardoor de veiligheid en privacy van iedereen in gevaar komt.

Het plan van de regering om AI te versnellen

Als onderdeel van haar AI Action Plan(nieuw venster) heeft de regering haar plan uiteengezet om AI-innovatie te versnellen, Amerikaanse AI-infrastructuur te bouwen en het voortouw te nemen in internationale AI-diplomatie en -veiligheid.

Om deze agenda vooruit te helpen, heeft de federale overheid aangegeven vastbesloten te zijn om regelgeving op staatsniveau te voorkomen. Het toevoegen van het moratorium aan de NDAA is een slimme manier om een moratorium door het Congres te loodsen, omdat de defensie-uitgavenwet moet worden aangenomen. Als het echter niet in de uiteindelijke begrotingswet terechtkomt, heeft president Trump een uitvoeringsbevel voorbereid(nieuw venster) als plan B.

Het concept bepaalt dat:

  • Amerikaanse AI-bedrijven vrij moeten zijn om te innoveren zonder regelgeving, wat betekent dat staatswetgevers geen regelgevende lappendeken mogen creëren die de groei van AI zou belemmeren.
  • Binnen 30 dagen na de datum van het bevel zal de procureur-generaal een AI Litigation Task Force oprichten met als enig doel het aanvechten van AI-wetten van staten.
  • Binnen 90 dagen na de datum van het bevel zal de minister van Handel een evaluatie publiceren van bestaande staatswetten die “modellen verplichten hun waarheidsgetrouwe output te wijzigen, of […] AI-ontwikkelaars of -implementeerders dwingen informatie openbaar te maken of te rapporteren op een manier die in strijd zou zijn met het Eerste Amendement of enige andere bepaling van de Grondwet”.
  • Binnen 90 dagen na de datum van het bevel zal de minister van Handel een beleidsbericht uitgeven waarin de voorwaarden worden vermeld waaronder staten in aanmerking kunnen komen voor resterende financiering onder het Broadband Equity Access and Deployment (BEAD)-programma.
  • Van staten met AI-wetten die in strijd zijn met de hierboven vermelde evaluatie, zullen de discretionaire subsidieprogramma’s en niet-implementatiefondsen worden beoordeeld.

Het uitvoeringsbevel en het AI Action Plan suggereren een duidelijke agenda voor de regering: om de Amerikaanse dominantie in de AI-industrie te ontketenen, moet de VS AI reguleren met één enkele federale wet. Maar gezien de stimulans van de overheid om AI-bedrijven te helpen hun concurrenten voor te blijven — en het onvermogen van het Congres om het over bijna alles eens te worden — zou het aandringen op één enkele regelgeving gelijk kunnen staan aan helemaal geen regelgeving.

We hebben een AI-industrie nodig die niet bang is om gereguleerd te worden

In de korte tijd dat AI-tools zijn opgekomen, hebben ze onze realiteit duidelijk veranderd. Ze maken deel uit van onze werkdagen en ons privéleven en helpen ons e-mails te schrijven, ideeën te toetsen, onderwerpen te onderzoeken waarin we geïnteresseerd zijn en plannen te maken. Alleen al ChatGPT bereikte meer dan 100 miljoen gebruikers(nieuw venster) in de eerste paar maanden.

Na de onrust veroorzaakt door DeepSeek, is het versnellen van de ontwikkeling in de AI-sector een ernstige zorg geworden voor de industrie en de overheid. Sam Altman, CEO van OpenAI, heeft gewaarschuwd tegen regelgeving(nieuw venster) die de VS zou kunnen vertragen in de AI-wapenwedloop met China.

Amerikaanse bedrijven hebben, net als andere bedrijven over de hele wereld, het recht om te innoveren in hun sectoren en te proberen hun concurrenten te overtreffen. Maar ze hebben niet het recht om ongereguleerd te blijven. Het vergroten van de wereldwijde AI-dominantie van Amerika en ervoor zorgen dat de AI-sector onvoldoende gereguleerd blijft, is niet in het belang van de mensheid.

Big Tech heeft ons keer op keer getoond dat het negeren van gegevensregelgeving en het verkopen van persoonlijke gegevens hun snelste route naar winst is. Een winstgestuurde benadering van AI betekent dat bedrijven prioriteit zullen geven aan winst of competitieve geopolitieke winst, zelfs tegen de belangen in van de mensen die hun tools gebruiken. De afgelopen jaren hebben we de kosten gezien van onvoldoende regelgeving:

Zonder adequate regelgeving zullen AI-bedrijven vrij zijn om de doelen na te streven die zij noodzakelijk achten voor groei. Zoals we hebben gezien, zullen deze innovaties waarschijnlijk ten koste gaan van de mensen die hun tools gebruiken.

Kies voor privé AI-tools

Zodra dit uitvoeringsbevel van kracht wordt, zullen consumenten kwetsbaarder worden voor slechte praktijken in de AI-ruimte. Zonder de juiste bescherming worden AI-tools een digitaal surveillanceapparaat. Ze kunnen informatie over ons privéleven lekken(nieuw venster), gevoelige bedrijfsdocumenten lekken(nieuw venster) en ons aanmoedigen om emotioneel op ze te vertrouwen(nieuw venster). Als Amerikaanse AI-tools effectief ongereguleerd blijven, lopen ze een groot risico onveilig te worden voor zowel burgers als bedrijven.

Bij gebrek aan voldoende overheidsregelgeving, zijn onze technologische keuzes de beste optie die we hebben voor onze eigen veiligheid en om veiligere praktijken in de industrie aan te moedigen. We moeten prioriteit geven aan AI-tools die mensen op de eerste plaats zetten en die geen gesprekslogboeken bijhouden of hun modellen trainen met gesprekken van gebruikers. Zelfs als Big Tech niet voldoende gereguleerd is, zijn er veilige alternatieven voor hun tools.

Nadat onze community interesse toonde in privé AI-alternatieven, begonnen onze ingenieurs technologie te verkennen om dit mogelijk te maken. In juli van dit jaar introduceerden we Lumo(nieuw venster), een AI-assistent die is ontworpen om iedereen ter wereld te helpen los te komen van op de VS gerichte tools. In plaats van ons te verbergen voor regelgeving en controle, hebben we ons beveiligingsmodel en onze codebase gepubliceerd, zodat iedereen kan verifiëren hoe Lumo werkt. Het houdt geen logboeken van gesprekken bij, waardoor u erop kunt vertrouwen dat u vertrouwelijk spreekt. Zero-access versleuteling beschermt elk gesprek en zorgt ervoor dat adverteerders en overheden er geen toegang toe hebben. Chatgeschiedenissen kunnen op elk moment worden verwijderd, omdat we GDPR-principes toepassen op al onze gebruikers, zowel binnen als buiten de EU, als een verantwoorde datapraktijk.

In plaats van regelgeving te negeren, pleit Proton actief voor(nieuw venster) strenge privacywetten en tegen surveillance, zowel online als offline. Ons doel is altijd geweest om een internet te creëren waar privacy op de eerste plaats komt — dat betekent het creëren van alternatieven voor Big Tech-tools zoals AI, en het helpen verminderen van de afhankelijkheid van de Europese markt van Amerikaanse tech. We zullen altijd pleiten voor mensen boven winst.