L’amministrazione statunitense sta finalizzando il suo National Defense Authorization Act (NDAA) del 2026, che deve passare entro la fine di quest’anno. Una disposizione del disegno di legge imporrebbe una moratoria di 10 anni(nuova finestra) sulla regolamentazione dell’IA a livello statale. Ciò fermerebbe di fatto la capacità di qualsiasi stato di controllare il modo in cui gli strumenti di IA raccolgono dati o generano risposte per i propri residenti.
La stessa moratoria è stata respinta nel luglio 2025(nuova finestra) come parte dell’One Big Beautiful Bill Act. Ma questa volta l’amministrazione è pronta con un piano di riserva: se la moratoria non passa come parte dell’NDAA, l’amministrazione Trump ha già redatto un ordine esecutivo che cercherebbe di costringere gli stati a eliminare qualsiasi loro normativa sull’IA.
In Proton, crediamo che la regolamentazione sia uno strumento efficace per proteggere le persone e che uno standard federale sia la strada giusta da percorrere. In un clima politico ferocemente diviso, un’unica legge federale semplificherebbe la regolamentazione dell’IA, prevenendo protezioni frammentate tra gli stati e rendendo le regole molto più chiare. Ma cancellare le leggi statali prima di proporre qualsiasi alternativa federale sarebbe peggio. Le Big Tech sarebbero in grado di operare senza barriere, mettendo a rischio la sicurezza e la privacy di tutti.
Il piano dell’amministrazione per accelerare l’IA
Come parte del suo Piano d’azione per l’IA(nuova finestra), l’amministrazione ha esposto il suo piano per accelerare l’innovazione dell’IA, costruire l’infrastruttura dell’IA americana e guidare la diplomazia e la sicurezza internazionale dell’IA.
Per portare avanti questa agenda, il governo federale ha segnalato di essere determinato a impedire la regolamentazione a livello statale. Aggiungere la moratoria all’NDAA è un modo intelligente per far passare una moratoria attraverso il Congresso perché il disegno di legge sulla spesa per la difesa deve passare. Se non riesce a entrare nella legge di bilancio finale, tuttavia, il presidente Trump ha preparato un ordine esecutivo(nuova finestra) come piano B.
La bozza stabilisce che:
- Le aziende di IA americane devono essere libere di innovare senza regolamentazione, il che significa che le legislature statali non devono creare un mosaico normativo che impedirebbe la crescita dell’IA.
- Entro 30 giorni dalla data dell’ordine, il procuratore generale creerà una task force per il contenzioso sull’IA il cui unico scopo sarebbe quello di contestare le leggi statali sull’IA.
- Entro 90 giorni dalla data dell’ordine, il segretario al commercio pubblicherà una valutazione delle leggi statali esistenti che “richiedono ai modelli di alterare i loro output veritieri, o […] costringono gli sviluppatori o i distributori di IA a divulgare o segnalare informazioni in un modo che violerebbe il Primo Emendamento o qualsiasi altra disposizione della Costituzione”.
- Entro 90 giorni dalla data dell’ordine, il segretario al commercio emetterà un avviso di policy indicando le condizioni alle quali gli stati possono essere idonei per i finanziamenti rimanenti nell’ambito del programma Broadband Equity Access and Deployment (BEAD).
- Qualsiasi stato con leggi sull’IA in conflitto con la valutazione sopra elencata vedrà valutati i propri programmi di sovvenzione discrezionale e i fondi non di distribuzione.
L’ordine esecutivo e il Piano d’azione per l’IA suggeriscono un’agenda chiara per l’amministrazione: per scatenare il predominio americano nel settore dell’IA, gli Stati Uniti dovrebbero regolare l’IA con un’unica legge federale. Ma dato l’incentivo del governo ad aiutare le aziende di IA a superare i loro concorrenti — e l’incapacità del Congresso di concordare su quasi tutto — spingere per un’unica normativa potrebbe diventare equivalente a nessuna normativa.
Abbiamo bisogno di un’industria dell’IA che non abbia paura di essere regolamentata
Nel breve tempo in cui sono emersi gli strumenti di IA, hanno cambiato distintamente la nostra realtà. Fanno parte delle nostre giornate lavorative e delle nostre vite personali, aiutandoci a scrivere email, sondare idee, ricercare argomenti che ci interessano e fare piani. Solo ChatGPT ha raggiunto più di 100 milioni di utenti(nuova finestra) nei suoi primi mesi.
Dopo lo sconvolgimento causato da DeepSeek, l’accelerazione dello sviluppo nel settore dell’IA è diventata una grave preoccupazione per l’industria e il governo. Sam Altman, CEO di OpenAI, ha messo in guardia contro normative(nuova finestra) che potrebbero rallentare gli Stati Uniti nella corsa agli armamenti dell’IA con la Cina.
Le aziende americane, come altre aziende in tutto il mondo, hanno il diritto di innovare nei loro settori e cercare di superare i loro concorrenti. Ma non hanno il diritto di non essere regolamentate. Migliorare il dominio globale dell’IA americana e garantire che il settore dell’IA rimanga insufficientemente regolamentato non è nell’interesse degli esseri umani.
Le Big Tech ci hanno mostrato più e più volte che violare le normative sui dati e vendere dati personali è la loro via più veloce per il profitto. Un approccio all’IA guidato dal profitto significa che le aziende daranno priorità al profitto o ai vantaggi geopolitici competitivi, anche contro gli interessi delle persone che usano i loro strumenti. Negli ultimi anni, abbiamo visto i costi di una regolamentazione insufficiente:
- I tentativi di creare monopoli(nuova finestra) per i chatbot di IA negli app store hanno portato le aziende a prendere in considerazione drastici aumenti dei prezzi(nuova finestra). Le aziende che cercano di creare monopoli sono anche ansiose di inibire gli sviluppi basati sulla privacy(nuova finestra) per i loro strumenti, in modo da non limitarne lo sviluppo.
- Le aziende Big Tech non hanno messo in atto adeguate garanzie di base per proteggere i bambini, e in particolare le ragazze, dai danni psicologici(nuova finestra).
- Le truffe online e la pubblicità fraudolenta stanno proliferando, con strumenti di segnalazione che non riescono a individuarle e aziende che permettono ai criminali di continuare a operare sulle loro piattaforme.
- I dati dell’IA sono prontamente disponibili ai data broker a causa di una mancanza di sicurezza da parte delle aziende di IA. I data broker e gli hacker sono in grado di vendere ‘jailbreak-as-a-service’(nuova finestra), collegando i cattivi attori direttamente agli strumenti di IA disponibili in commercio e consentendo loro di rubare dati.
- Le piattaforme di social media sono dilaganti di disinformazione e non fanno abbastanza per combatterne la diffusione, sovvertendo le elezioni(nuova finestra) e persino provocando un genocidio(nuova finestra).
Senza una regolamentazione adeguata, le aziende di IA saranno libere di perseguire gli obiettivi che ritengono necessari per la crescita. Come abbiamo visto, queste innovazioni avverranno probabilmente a spese delle persone che utilizzano i loro strumenti.
Scegli strumenti di IA privati
Una volta che questo ordine esecutivo entrerà in vigore, i consumatori diventeranno più vulnerabili alle cattive pratiche nello spazio dell’IA. Senza le giuste protezioni in atto, gli strumenti di IA diventano un apparato di sorveglianza digitale. Possono far trapelare informazioni(nuova finestra) sulle nostre vite personali, far trapelare documenti aziendali sensibili(nuova finestra) e incoraggiarci a affidarci a loro emotivamente(nuova finestra). Se gli strumenti di IA americani diventano di fatto non regolamentati, hanno un alto rischio di diventare non sicuri sia per i cittadini che per le aziende.
In assenza di una sufficiente regolamentazione governativa, la migliore opzione che abbiamo per la nostra sicurezza e per incoraggiare pratiche più sicure nel settore sono le nostre scelte tecnologiche. Dobbiamo dare la priorità agli strumenti di IA che servono prima le persone e che non conservano i registri delle conversazioni o addestrano i loro modelli con le conversazioni degli utenti. Anche se le Big Tech non sono sufficientemente regolamentate, ci sono alternative sicure ai loro strumenti.
Dopo che la nostra comunità ha espresso interesse per alternative di IA private, i nostri ingegneri hanno iniziato a esplorare la tecnologia per rendere questo possibile. A luglio di quest’anno abbiamo introdotto Lumo(nuova finestra), un assistente IA progettato per aiutare chiunque nel mondo a staccarsi dagli strumenti incentrati sugli Stati Uniti. Invece di nasconderci dalla regolamentazione e dal controllo, abbiamo pubblicato il nostro modello di sicurezza e la codebase in modo che chiunque possa verificare come opera Lumo. Non conserva registri delle conversazioni, permettendoti di fidarti del fatto che stai parlando in modo confidenziale. La crittografia zero-access protegge ogni conversazione e garantisce che inserzionisti e governi non possano accedervi. Le cronologie delle chat possono essere eliminate in qualsiasi momento, perché applichiamo i principi del GDPR a tutti i nostri utenti, sia all’interno che all’esterno dell’UE, come pratica responsabile sui dati.
Invece di violare le normative, Proton sostiene(nuova finestra) attivamente leggi rigorose sulla privacy e contro la sorveglianza sia online che offline. Il nostro obiettivo è sempre stato quello di creare un internet in cui la privacy viene prima di tutto — ciò significa creare alternative agli strumenti delle Big Tech come l’IA e aiutare a ridurre la dipendenza del mercato europeo dalla tecnologia statunitense. Sosterremo sempre le persone rispetto ai profitti.
