Den amerikanske administration er ved at færdiggøre sin 2026 National Defense Authorization Act (NDAA), som skal vedtages inden udgangen af dette år. En bestemmelse i lovforslaget ville pålægge et 10-årigt moratorium(nyt vindue) for AI-regulering på statsniveau. Dette ville effektivt standse enhver stats evne til at kontrollere, hvordan AI-værktøjer indsamler data eller genererer svar til deres indbyggere.
Det samme moratorium blev afvist i juli 2025(nyt vindue) som en del af One Big Beautiful Bill Act. Men denne gang er administrationen klar med en backup-plan: Hvis moratoriet ikke vedtages som en del af NDAA, har Trump-administrationen allerede udarbejdet en udøvende ordre, der ville forsøge at tvinge stater til at skrotte egne AI-regulativer.
Hos Proton mener vi, at regulering er et effektivt værktøj til at beskytte mennesker, og en føderal standard er den rigtige vej at gå. I et voldsomt splittet politisk klima ville en enkelt føderal lov strømline AI-regulering, forhindre fragmenterede beskyttelser på tværs af stater og gøre reglerne meget mere klare. Men at slette statslove før der foreslås et føderalt alternativ ville være værre. Big Tech ville være i stand til at operere uden autoværn, hvilket sætter alles sikkerhed og privatliv på spil.
Administrationens plan for at accelerere AI
Som en del af sin AI Action Plan(nyt vindue) lagde administrationen sin plan for at fremskynde AI-innovation, bygge amerikansk AI-infrastruktur og føre an i international AI-diplomati og sikkerhed.
For at skubbe denne dagsorden fremad har den føderale regering signaleret, at den er fast besluttet på at forhindre regulering på statsniveau. At tilføje moratoriet til NDAA er en smart måde at skubbe et moratorium gennem Kongressen, fordi forsvarsudgiftsloven skal vedtages. Hvis det ikke lykkes at komme med i den endelige budgetlov, har præsident Trump imidlertid forberedt en udøvende ordre(nyt vindue) som plan B.
Udkastet fastslår at:
- Amerikanske AI-virksomheder skal være frie til at innovere uden regulering, hvilket betyder, at statslovgivende forsamlinger ikke må skabe et reguleringsmæssigt kludetæppe, der ville hindre AI-vækst.
- Inden for 30 dage efter datoen for ordren vil justitsministeren oprette en AI Litigation Task Force, hvis eneste formål ville være at udfordre statslige AI-love.
- Inden for 90 dage efter datoen for ordren vil handelsministeren offentliggøre en evaluering af eksisterende statslove, der “kræver, at modeller ændrer deres sandfærdige output, eller […] tvinger AI-udviklere eller deployere til at afsløre eller rapportere oplysninger på en måde, der ville krænke det første tillæg eller enhver anden bestemmelse i forfatningen”.
- Inden for 90 dage efter datoen for ordren vil handelsministeren udstede en politikmeddelelse, der angiver betingelserne, hvorunder stater kan være berettigede til resterende midler under Broadband Equity Access and Deployment (BEAD)-programmet.
- Enhver stat med AI-love, der er i konflikt med evalueringen nævnt ovenfor, vil få deres skønsmæssige tilskudsprogrammer og ikke-udrulningsmidler vurderet.
Den udøvende ordre og AI Action Plan antyder en klar dagsorden for administrationen: For at udløse amerikansk dominans i AI-industrien bør USA regulere AI med en enkelt føderal lov. Men givet regeringens incitament til at hjælpe AI-virksomheder med at overgå deres konkurrenter – og Kongressens manglende evne til at blive enige om næsten noget som helst – kunne et pres for en enkelt regulering blive lig med ingen regulering overhovedet.
Vi har brug for en AI-industri, der ikke er bange for at blive reguleret
På den korte tid, siden AI-værktøjer er dukket op, har de tydeligt ændret vores virkelighed. De er en del af vores arbejdsdage og vores privatliv, hjælper os med at skrive e-mails, afprøve ideer, undersøge emner vi er interesserede i, og lægge planer. ChatGPT alene nåede mere end 100 millioner brugere(nyt vindue) i sine første par måneder.
Efter uroen forårsaget af DeepSeek er accelererende udvikling i AI-sektoren blevet en alvorlig bekymring for industrien og regeringen. Sam Altman, administrerende direktør for OpenAI, har advaret mod regulativer(nyt vindue), der kunne bremse USA i AI-våbenkapløbet med Kina.
Amerikanske virksomheder har, ligesom andre virksomheder kloden rundt, ret til at innovere i deres sektorer og søge at overgå deres konkurrenter. Men de har ikke ret til at gå ureguleret. At forbedre USA’s globale AI-dominans og sikre, at AI-sektoren forbliver utilstrækkeligt reguleret, er ikke i menneskers interesse.
Big Tech har vist os gang på gang, at hån mod dataregulativer og salg af personlige data er deres hurtigste rute til profit. En profitdrevet tilgang til AI betyder, at virksomheder vil prioritere profit eller konkurrencedygtige geopolitiske gevinster, selv mod interesserne for de mennesker, der bruger deres værktøjer. I de seneste år har vi set omkostningerne ved utilstrækkelig regulering:
- Forsøg på at skabe monopoler(nyt vindue) for AI-chatbots i app-butikker har ført til, at virksomheder overvejer dramatiske prisstigninger(nyt vindue). Virksomheder, der søger at skabe monopoler, er også ivrige efter at hæmme privatliv-først-udviklinger(nyt vindue) for deres værktøjer for ikke at begrænse deres udvikling.
- Big Tech-virksomheder har ikke i tilstrækkelig grad indført grundlæggende sikkerhedsforanstaltninger for at beskytte børn, og især unge piger, mod psykisk skade(nyt vindue).
- Online svindel og svigagtig annoncering breder sig, hvor rapporteringsværktøjer ikke opdager dem, og virksomheder tillader kriminelle at fortsætte med at operere på deres platforme.
- AI-data er let tilgængelige for datamæglere på grund af manglende sikkerhed fra AI-virksomheders side. Datamæglere og hackere er i stand til at sælge ‘jailbreak-as-a-service’(nyt vindue), hvilket forbinder ondsindede aktører direkte med kommercielt tilgængelige AI-værktøjer og gør det muligt for dem at stjæle data.
- Sociale medieplatforme er fyldt med misinformation og gør ikke nok for at bekæmpe dens spredning, undergraver valg(nyt vindue) og provokerer endda et folkedrab(nyt vindue).
Uden tilstrækkelig regulering vil AI-virksomheder være frie til at forfølge de mål, de anser for nødvendige for vækst. Som vi har set, vil disse innovationer sandsynligvis ske på bekostning af de mennesker, der bruger deres værktøjer.
Vælg private AI-værktøjer
Når denne bekendtgørelse træder i kraft, vil forbrugere blive mere sårbare over for dårlig praksis i AI-rummet. Uden de rette beskyttelser på plads bliver AI-værktøjer et digitalt overvågningsapparat. De kan lække oplysninger(nyt vindue) om vores privatliv, lække følsomme forretningsdokumenter(nyt vindue) og opfordre os til at stole følelsesmæssigt på dem(nyt vindue). Hvis amerikanske AI-værktøjer forbliver effektivt uregulerede, har de en høj risiko for at blive usikre for både borgere og virksomheder.
I mangel af tilstrækkelig regeringsregulering er den bedste mulighed, vi har for vores egen sikkerhed og for at fremme mere sikker praksis i industrien, vores teknologivalg. Vi skal prioritere AI-værktøjer, der tjener mennesker først, og som ikke gemmer samtalelogs eller træner deres modeller med brugersamtaler. Selv hvis Big Tech ikke reguleres tilstrækkeligt, er der sikre alternativer til deres værktøjer.
Efter at vores fællesskab udtrykte interesse for private AI-alternativer, begyndte vores ingeniører at udforske teknologi for at muliggøre dette. I juli i år introducerede vi Lumo(nyt vindue), en AI-assistent designet til at hjælpe alle over hele kloden med at løsrive sig fra USA-centrerede værktøjer. I stedet for at skjule os for regulativer og kontrol, offentliggjorde vi vores sikkerhedsmodel og kodebase, så alle kan bekræfte, hvordan Lumo fungerer. Den gemmer ingen logs over samtaler, hvilket giver Dem mulighed for at stole på, at De taler fortroligt. Zero-access kryptering beskytter enhver samtale og sikrer, at annoncører og regeringer ikke kan få adgang til dem. Chathistorikker kan slettes til enhver tid, fordi vi anvender GDPR-principper på alle vores brugere, både i og uden for EU, som en ansvarlig datapraksis.
I stedet for at håne regulativer, taler Proton aktivt for(nyt vindue) strenge love om privatliv og imod overvågning både online og offline. Vores mål har altid været at skabe et internet, hvor privatliv kommer først — det betyder at skabe alternativer til Big Tech-værktøjer som AI og hjælpe med at reducere det europæiske markeds afhængighed af amerikansk teknologi. Vi vil altid tale for mennesker frem for profit.






