Un malinteso comune è che se non usi modelli linguistici di grandi dimensioni (LLM) come ChatGPT per le chat, Midjourney per generare immagini o Sora per generare video, sei al sicuro dall’intelligenza artificiale (AI). Che tu la usi o no, l’AI tocca già la tua vita.
Ad esempio, quando scatti foto su Android, Google Foto scansiona ed etichetta automaticamente ogni persona nella tua libreria foto utilizzando il riconoscimento facciale. Pubblicare sui social media senza cambiare le tue impostazioni predefinite crea post pubblici che possono essere copiati negli enormi set di dati utilizzati per addestrare gli LLM. Anche gli annunci personalizzati sui siti web o nelle app sono alimentati da AI addestrata sulle tue preferenze di navigazione e acquisto.
Quella comodità costa la tua privacy e potrebbe avere un profondo impatto sulla tua vita. Venti foto prese dal feed social di tuo figlio sono sufficienti per costruire un video deepfake di 30 secondi che può essere usato per ricatto, bullismo o furto d’identità.
Ecco cosa c’è in gioco quando l’AI ha accesso ai tuoi dati personali e cosa puoi fare per proteggere la tua privacy online.
- In che modo l’AI mette a rischio la tua privacy?
- I tuoi dati personali potrebbero essere raccolti
- Potresti essere ri-identificato
- I tuoi dati potrebbero essere condivisi con terze parti
- Le richieste di cancellazione dei dati potrebbero non funzionare
- Altre persone potrebbero vedere le tue chat private
- Potresti essere trattato ingiustamente
- Il targeting degli annunci sta diventando più preciso
- L’archiviazione cloud potrebbe esporre i tuoi dati
- L’AI può commettere errori
- Chiunque può creare deepfake
- Come mantenere i tuoi dati privati dai sistemi AI
In che modo l’AI mette a rischio la tua privacy?
L’AI può erodere la privacy raccogliendo troppo, deducendo troppo, condividendo troppo.
I tuoi dati personali potrebbero essere raccolti
I sistemi AI diventano più accurati addestrandosi su enormi quantità di dati, spesso copiati da fonti pubblicamente disponibili, come i tuoi post di Facebook(nuova finestra), foto Flickr(nuova finestra) o thread di Reddit(nuova finestra). Post casuali sui social media, foto di famiglia e dettagli del profilo — che spesso contengono informazioni sensibili e originariamente condivise per motivi personali o sociali — sono stati inclusi in set di dati utilizzati per addestrare LLM da miliardi di dollari e sistemi di riconoscimento facciale. Questo accade perché Big Tech tratta i contenuti online come liberamente disponibili per l’uso dell’AI, senza consenso esplicito o riguardo per la proprietà intellettuale.
Potresti essere ri-identificato
Le aziende tecnologiche affermano che i tuoi dati personali non possono essere ricondotti a te una volta de-identificati o pseudo-anonimizzati, il che significa che identificatori ovvi come nomi o numeri di telefono vengono rimossi. Ma questa protezione è fragile, poiché i set di dati anonimizzati possono essere ri-identificati incrociandoli con altre fonti di dati, come profili di social media o tracce di geolocalizzazione.
Ad esempio, gli utenti di Netflix sono stati ri-identificati(nuova finestra) confrontando le loro valutazioni anonime dei film con le informazioni di IMDb. Uno studio(nuova finestra) mostra che quasi ogni americano può essere individuato in qualsiasi set di dati con solo 15 marcatori demografici. Aggiungendo il potere di corrispondenza dei modelli dell’AI, la ri-identificazione è diventata più veloce, più facile e accessibile a chiunque.
I tuoi dati potrebbero essere condivisi con terze parti
Quando usi i sistemi AI, i tuoi dati non rimangono sempre con l’azienda a cui ti sei registrato. Potrebbero essere condivisi con partner o processori di terze parti — alcuni di cui probabilmente non hai più sentito parlare — che potrebbero gestire i tuoi dati secondo i propri termini e standard di sicurezza.
A quel punto, la privacy diventa un esercizio di fiducia. Non ti affidi più solo all’azienda che conosci per proteggere le tue informazioni, ma a un’intera catena di attori esterni sconosciuti, ognuno con la propria infrastruttura, policy e vulnerabilità. Ogni mano che tocca i tuoi dati allarga la superficie di attacco e la responsabilità è sfocata.
Ad esempio, una violazione che ha coinvolto un partner OpenAI ha portato all’esposizione dei dati utente API, mostrando come l’accesso di terze parti possa diventare l’anello più debole del sistema.
Le richieste di cancellazione dei dati potrebbero non funzionare
Una volta che i tuoi dati addestrano un modello AI, riprenderli è quasi impossibile perché modella il comportamento complessivo del modello. Il machine unlearning — tecniche per far dimenticare un modello — è ancora nelle sue fasi iniziali, quindi l’unica opzione oggi sarebbe riaddestrare il modello. E anche se un’azienda afferma di aver onorato la tua richiesta di cancellazione dei dati, non c’è praticamente alcun modo per confermarlo(nuova finestra).
Altre persone potrebbero vedere le tue chat private
LLM come ChatGPT(nuova finestra), Meta AI(nuova finestra) e Grok(nuova finestra) hanno esposto conversazioni private tramite le loro funzionalità di condivisione, con chat indicizzate dai motori di ricerca e rese pubblicamente rilevabili. Le piattaforme non erano abbastanza trasparenti su questo rischio, lasciando gli utenti ignari del fatto che ciò che sembrava uno scambio privato potesse finire visibile a chiunque su Internet.
Potresti essere trattato ingiustamente
Se i dati utilizzati dai sistemi AI per apprendere modelli contengono pregiudizi nascosti — come da disuguaglianze storiche o set di dati incompleti — l’AI può rafforzare o amplificare quei modelli. La posta in gioco è più alta con i sistemi AI non privati di Big Tech, che sono closed-source e operano come scatole nere che non possono essere riviste in modo indipendente. Questi sistemi possono utilizzare attributi sensibili come razza, genere o codice postale per prendere decisioni automatizzate in polizia predittiva(nuova finestra), assunzioni(nuova finestra), assistenza sanitaria(nuova finestra) o punteggio di credito(nuova finestra).
Il targeting degli annunci sta diventando più preciso
Mentre l’AI non privata rende gli annunci più intelligenti abilitando l’iper-targeting, spesso invade la privacy di tutta la tua famiglia. Ad esempio, Publicis, un data broker e la più grande azienda pubblicitaria del mondo, afferma di profilare 2,3 miliardi di persone e tracciare dettagli come preferenze familiari e reddito(nuova finestra) per decidere se indirizzare loro prodotti economici o premium.
Con i chatbot AI che sostituiscono la ricerca tradizionale, gli annunci ci seguono in questo nuovo spazio. Ad esempio, Perplexity sta incorporando annunci nelle risposte generate dall’AI(nuova finestra) e ha piazzato un’offerta di 34,5 miliardi di dollari per acquistare Google Chrome — una mossa volta a ottenere l’accesso agli oltre 3 miliardi di utenti del browser e ai dati comportamentali intimi che ne derivano.
L’archiviazione cloud potrebbe esporre i tuoi dati
I provider di archiviazione cloud senza crittografia end-to-end (E2EE) possono accedere alle foto, ai documenti e ai File sensibili che carichi. Potrebbero anche utilizzare quei dati per alimentare strumenti AI, generare approfondimenti su di te o mostrare annunci personalizzati.
Google Drive, ad esempio, mantiene l’accesso ai tuoi dati e li usa per funzionalità AI come il controllo ortografico e il completamento automatico in Google Docs. Se Gemini, l’assistente AI di Google, rimane strettamente integrato con Google Workspace, le query che fai sui tuoi File Drive potrebbero anche alimentare l’addestramento dell’AI.
Allo stesso modo, Microsoft ha annunciato che Word, Excel e PowerPoint eseguiranno presto il salvataggio automatico su OneDrive per impostazione predefinita, un altro servizio non E2EE in cui l’uso futuro dei tuoi dati per la pubblicità o l’addestramento AI rimane incerto.
L’AI può commettere errori
I sistemi automatizzati potrebbero scansionare le tue comunicazioni private e segnalarle come sospette. La legge proposta dall’UE sul controllo delle chat richiederebbe ai servizi di messaggistica come WhatsApp e Signal di utilizzare l’AI per scansionare ogni messaggio privato e foto per rilevare materiale pedopornografico (CSAM).
Ma questo significa monitorare le conversazioni di tutti, non solo quelle di sospetti criminali. E la storia mostra quanto facilmente l’AI possa commettere errori. L’account Google di un padre, ad esempio, è stato chiuso(nuova finestra) e segnalato alle autorità dopo aver inviato una foto di suo figlio a un medico. Ciò che dovrebbe rimanere tra te e il tuo medico, o te e la tua famiglia, potrebbe improvvisamente essere esposto alle aziende tecnologiche e alle forze dell’ordine.
Chiunque può creare deepfake
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
I malintenzionati sfruttano i deepfake per furto d’identità, frode, ricatto o danno reputazionale — e i rischi si estendono ai bambini. Nel 2019, i criminali hanno utilizzato audio deepfake per imitare la voce di un CEO(nuova finestra) e ingannato un dipendente a trasferire 220.000 €. I rischi si estendono anche ai bambini. In un incidente, un predatore ha creato un’immagine deepfake di un 14enne(nuova finestra) per estorcere denaro minacciando di condividerla.
Come mantenere i tuoi dati privati dai sistemi AI
Ci sono molte preoccupazioni sulla privacy con i sistemi AI, in particolare i modelli non privati e closed-source gestiti da Big Tech. E mentre non puoi impedire completamente a questi sistemi di copiare o abusare dei tuoi dati una volta che sono là fuori, puoi ridurre la tua impronta, richiedere responsabilità e scegliere AI privacy-first che non sfruttano i tuoi dati. Ecco cosa puoi fare:
- Sui social media, rendi i tuoi profili e post privati, elimina i vecchi caricamenti, rimuovi i dati EXIF dalle foto prima di condividerle ed evita di condividere dettagli identificabili — come indirizzi, nomi completi dei bambini o le scuole che frequentano. Scopri di più su come gestire Internet per la tua famiglia.
- Controlla le impostazioni privacy delle tue app. Ad esempio, Meta AI potrebbe scansionare le foto del tuo rullino fotografico e i video sull’app Facebook per Android e iOS.
- Proteggiti dai deepfake sfocando o oscurando i volti della tua famiglia prima di pubblicare foto online.
- Maschera la tua impronta digitale utilizzando una rete privata virtuale (VPN)(nuova finestra) per nascondere il tuo indirizzo IP e usa alias per proteggere il tuo indirizzo email quando pubblichi informazioni sensibili che non vorresti fossero ricondotte a te.
- Usa servizi privacy-first che non monetizzano i tuoi dati, come Signal per la messaggistica sicura e Brave o DuckDuckGo per la navigazione privata.
- Per archiviare in modo sicuro i tuoi File più sensibili, incluse foto private e documenti riservati, usa Proton Drive per l’archiviazione cloud crittografata end-to-end. A differenza delle piattaforme che potrebbero esporre contenuti presumibilmente privati, Drive non scansiona, indicizza o utilizza i tuoi dati per l’addestramento AI — e non possono essere visti da nessun altro, anche quando scegli di condividerli. Mantenere le tue foto veramente private significa anche che non finiranno online dove potrebbero essere usate impropriamente per creare deepfake.
- Decidi di non partecipare all’addestramento AI quando possibile, come su Gemini, ChatGPT(nuova finestra), Claude(nuova finestra) o Meta AI. Le Policy possono cambiare da un giorno all’altro con poco avviso, quindi se vuoi i vantaggi sia dell’AI che della privacy, passa a Lumo — il nostro assistente AI privacy-first(nuova finestra) che non conserva log o si addestra sui tuoi dati.
Normative più rigorose sulla privacy dell’IA, come l’AI Act dell’UE(nuova finestra), saranno fondamentali per restituire il potere agli Utenti di internet. Fino ad allora, la miglior difesa è essere consapevoli di ciò che condividi online, richiedendo responsabilità alle aziende che costruiscono questi sistemi e scegliendo strumenti IA trasparenti(nuova finestra) che rispettino la privacy fin dalle fondamenta.




