Man mano che l’uso dell’intelligenza artificiale aumenta, gli assistenti IA(nuova finestra) stanno diventando compagni fidati. Milioni di persone si rivolgono a chatbot come ChatGPT, Claude, Gemini, DeepSeek e altri per fare domande e risolvere problemi. Le loro query possono essere profondamente sensibili, chiedendo informazioni su problemi di salute, condividendo dati dei clienti o cercando supporto emotivo e ispirazione creativa.
Per molti, questi chatbot sembrano umani, reattivi e confidenziali. Ma recenti sviluppi (un ordine legale ha costretto OpenAI a conservare i dati di output di ChatGPT(nuova finestra) a tempo indeterminato, e Sam Altman, il fondatore di OpenAI, afferma che ChatGPT non offre “confidenzialità legale(nuova finestra)”) accendono una luce sul rischio che ogni parola che digiti possa essere registrata, archiviata, analizzata e possibilmente abusata o fatta trapelare a terze parti.
Ecco cosa potrebbe significare e perché dovrebbe preoccuparci tutti.
La posta in gioco è più alta con l’IA
L’ascesa degli assistenti IA sembra una nuova frontiera, ma per molti versi ci siamo già passati. Le preoccupazioni che circondano i log delle chat IA echeggiano quelle emerse nei primi giorni dei motori di ricerca, molte delle quali si sono rivelate fondate. I log di ricerca sono stati utilizzati per costruire redditizi profili di ad-targeting, sono stati esposti in violazioni dei dati e sono stati richiesti in tribunale.
Con l’IA, la posta in gioco è più alta perché i dati sono più personali e dettagliati. Un numero crescente di persone si sta rivolgendo dai motori di ricerca ai chatbot IA per le proprie risposte, con previsioni che l’utilizzo dei motori di ricerca calerà del 25% entro il 2026(nuova finestra). A differenza di una barra di ricerca, che in genere cattura query brevi e frammentate, le domande ai chatbot sono formulate come se chi chiede stesse parlando con un’altra persona, rivelando molto di più su se stessi nel processo. Una singola conversazione potrebbe contenere pensieri personali(nuova finestra), lotte emotive, problemi di salute(nuova finestra), paure finanziarie o persino nomi completi e indirizzi.
In breve, i log delle chat offrono una mappa incredibilmente ricca e intima della tua identità, più dei log dei motori di ricerca — e con implicazioni molto maggiori per la tua privacy. Le Big Tech potrebbero accedere ai tuoi log delle chat e usarli per costruire un profilo psicologico su di te che può essere divulgato al governo o utilizzato per pubblicità mirata. Ad esempio, Meta sta utilizzando i dati delle chat IA per creare annunci personalizzati.
Le tue chat “anonime” non rimarranno sempre tali
Un argomento comune contro la preoccupazione per la privacy dei log delle chat è che l’enorme volume di dati rende improbabile lo sfruttamento individuale, specialmente quando gli utenti non sono loggati. Ma la storia recente racconta una storia diversa.
A luglio, i giornalisti hanno scoperto che più di 100.000 conversazioni in ChatGPT(nuova finestra) erano state indicizzate da Google e rese ricercabili. Gli utenti che cliccavano sul pulsante “condividi” per inviare una conversazione ad amici o colleghi quasi certamente non si rendevano conto che le loro conversazioni private sarebbero state visibili a tutti su Internet.
Questo esempio è un avvertimento: i cosiddetti dati “anonimi” sono raramente anonimi. Accoppiati con indirizzi IP, timestamp, impronte digitali del dispositivo e ID di sessione e cookie, questi log diventano molto più identificabili.
Come le chat possono esporre le nostre vite interiori
Le popolari piattaforme di IA ChatGPT(nuova finestra), Gemini(nuova finestra) e DeepSeek(nuova finestra) affermano tutte che i log delle chat degli utenti vengono utilizzati per migliorare le prestazioni del modello e non per “vendere” i tuoi dati per pubblicità o profilazione dell’Utente. Ma le Policy possono cambiare da un giorno all’altro, come mostra la battaglia legale di OpenAI.
Ad esempio, Anthropic ha aggiornato la sua informativa sulla privacy(nuova finestra) senza preavviso nell’agosto 2025 per estendere il periodo di conservazione dei dati. Con i log archiviati a tempo indeterminato, i dati personali che un tempo sembravano inaccessibili potrebbero improvvisamente diventare una fonte redditizia di profitti.
Non sarebbe la prima volta che accade. Quando Google è stato lanciato nel 1998, i co-fondatori Sergey Brin e Larry Page hanno avvertito(nuova finestra) che i motori di ricerca basati sulla pubblicità sarebbero stati inevitabilmente “intrinsecamente di parte verso gli inserzionisti e lontani dalle esigenze dei consumatori”. Un decennio dopo, Google ha iniziato a utilizzare le cronologie di ricerca per indirizzare gli annunci(nuova finestra).
Con l’accesso diretto alle vite interiori delle persone, i log dell’IA possono spingere il targeting pubblicitario ai suoi limiti. Con un numero crescente di Utenti che si rivolgono ai chatbot per supporto emotivo(nuova finestra), qualcuno potrebbe confidare:
- “Ultimamente mi sento sopraffatto e solo.”
- “Pensi che io abbia la depressione?”
- “Cosa posso fare se non riesco a pagare l’affitto il mese prossimo?”
Queste affermazioni non sono solo parole chiave o una raccolta di interazioni, sono chiari indicatori emotivi e situazionali. Se archiviati e analizzati, potrebbero essere utilizzati per costruire profili psicologici e manipolare le decisioni dell’Utente.
Non è allarmistico suggerire che tali informazioni intime e sensibili possano essere utilizzate per scopi di sfruttamento — perché le aziende Big Tech hanno fatto esattamente questo. Nel 2017, Facebook ha dimostrato che nessuna interazione è off-limits esplorando modi per prendere di mira adolescenti emotivamente vulnerabili(nuova finestra) con annunci durante momenti di insicurezza.
I log dei chatbot sono una finestra sulla tua psiche. E quel livello di accesso solleva notevoli preoccupazioni etiche e sulla privacy in un settore che non ha ancora linee guida e normative chiare sull’utilizzo e l’applicazione dei dati.
I rischi legali per gli Utenti
La cronologia delle ricerche ha giocato a lungo un ruolo nelle indagini penali e nei casi giudiziari. Ci sono molteplici casi in cui le query online hanno contribuito a verdetti di colpevolezza, in particolare Moira Akers contro lo Stato negli Stati Uniti.
Dopo aver avuto un parto di un feto morto nel 2018, Akers è stata accusata di omicidio e nel 2022 è stata condannata a 30 anni di prigione. Una parte fondamentale del caso dell’accusa erano le ricerche su internet di Akers sull’aborto, condotte durante le prime fasi della gravidanza. Secondo l’accusa, queste ricerche servivano come prova dell’intento di Akers — nonostante il fatto che avesse portato a termine la gravidanza. La Corte Suprema del Maryland ha annullato la sua condanna nel 2025, sentenziando che la prova della query di ricerca fosse inammissibile(nuova finestra). Ma Akers aveva già trascorso quasi tre anni in prigione. Il caso evidenzia come i log archiviati possano essere utilizzati per raccontare una storia adatta a una narrazione sfavorevole, anche se ci sono prove che la contraddicono.
La posta in gioco potrebbe essere ancora più alta con le chat archiviate dell’IA che potrebbero essere oggetto di prove legali. A differenza delle query di ricerca, queste interazioni sono più colloquiali e persino speculative, a volte come un modo per sollecitare un certo tipo di risposta dall’LLM, o modello linguistico di grandi dimensioni. Uno scambio privato e innocente con un’IA potrebbe in seguito essere interpretato come incriminante in un contesto legale, indipendentemente dall’intento in quel momento.
Un potente strumento di manipolazione
Coloro che possono vedere i log dei chatbot possono ottenere l’accesso a schemi comportamentali dettagliati: abitudini personali, stimoli emotivi, dinamiche relazionali e persino vulnerabilità professionali. Nelle mani sbagliate, questi dati sono un potente strumento per l’ingegneria sociale, che è una tattica di hacking comune che coinvolge la manipolazione psicologica.
Questo rischio è tutt’altro che ipotetico. Nel gennaio 2025, la piattaforma di IA DeepSeek ha lasciato un enorme database esposto online(nuova finestra). La violazione includeva oltre un milione di log di chat IA e chiavi API, tutti pubblicamente accessibili a chiunque sapesse dove guardare. Tra i dati esposti c’erano conversazioni in testo semplice che potrebbero aver contenuto discussioni su famiglia, finanze e progetti riservati — informazioni che potrebbero essere facilmente sfruttate per frodi, ricatti o furti d’identità.
Una volta trapelati, questi dati possono essere armati per impersonarti o manipolarti. Facendo riferimento a dettagli personali tratti da conversazioni passate, gli aggressori possono guadagnare la tua fiducia e sfruttarla per creare gravi vulnerabilità finanziarie o di sicurezza.
Lo spettro della sorveglianza politica
Nei regimi autoritari, le conseguenze delle interazioni digitali archiviate possono essere molto più gravi. Ad esempio, diversi paesi hanno vietato l’uso della piattaforma di IA basata in Cina DeepSeek sui dispositivi governativi(nuova finestra) per preoccupazioni di sicurezza su come le informazioni personali degli Utenti vengono gestite dall’operatore. Corea del Sud, Australia e Taiwan hanno sollevato preoccupazioni sul fatto che questi dati potrebbero essere accessibili alle autorità cinesi e potenzialmente utilizzati per la sorveglianza.
Per dissidenti, attivisti o giornalisti, questa non è solo una questione di privacy, è una questione di sicurezza. Una chat apparentemente informale su diritti di protesta, leggi sui media o percorsi di asilo potrebbe essere interpretata come prova incriminante in giurisdizioni con protezioni limitate per la libertà di parola e le libertà civili.
Una minaccia alla proprietà intellettuale
Nel 2023, gli ingegneri Samsung hanno involontariamente caricato codice sorgente proprietario(nuova finestra) su ChatGPT mentre cercavano di fare il debug di un problema, con la convinzione errata che le loro query fossero private. Una volta inviati, quei dati sono diventati parte del sistema di addestramento di OpenAI, scatenando preoccupazioni sulla sicurezza e la proprietà della proprietà intellettuale condivisa con gli strumenti di IA.
Una preoccupazione correlata è emersa nel caso di alto profilo sul copyright intentato dal The New York Times contro OpenAI(nuova finestra) menzionato all’inizio di questo articolo. Il caso ha portato a un ordine del tribunale che richiede a OpenAI di preservare tutti i dati di output di ChatGPT a tempo indeterminato dopo le accuse secondo cui l’azienda avrebbe utilizzato milioni di articoli del giornale per addestrare i suoi modelli senza permesso. Sebbene il caso sia incentrato sui web crawler di OpenAI che raccolgono contenuti di notizie, solleva questioni più ampie per i creativi — scrittori, designer, musicisti e altri — che contribuiscono con opere originali alle piattaforme di IA.
Se il contenuto inviato dall’Utente viene conservato e riutilizzato dal modello, c’è un rischio reale che il materiale proprietario o creativo possa essere ridistribuito ad altri Utenti senza attribuzione o consenso. Questo offusca la linea tra il contributo dell’Utente e i dati di addestramento dell’IA, e solleva questioni urgenti su paternità e proprietà nell’era dell’IA generativa.
Cosa deve cambiare e come proteggerti
La maggior parte delle persone vuole e si aspetta la privacy nella propria vita reale. Crediamo che le stesse aspettative debbano estendersi alla vita digitale delle persone. Abbiamo costruito una suite di servizi crittografati che rendono la privacy online accessibile a chiunque, sia che tu stia inviando email ai tuoi amici, guardando in streaming i tuoi programmi preferiti(nuova finestra) o facendo il backup delle foto. Non è troppo tardi per correggere i primi errori di internet, e con l’IA ai suoi primi giorni c’è ancora tempo per tracciare un nuovo corso per questa tecnologia che rispetti la tua privacy.
Abbiamo costruito il nostro assistente IA(nuova finestra) Lumo in modo da sostenere le protezioni chiave fin dalla progettazione:
- Nessun logging dei dati: Gli Utenti dovrebbero essere in grado di interagire con i chatbot senza preoccuparsi che i loro invii vengano archiviati, utilizzati per profitto o usati contro di loro.
- Nessun addestramento del modello: Le chat private non dovrebbero mai essere sfruttate come dati di addestramento, perché si corre il rischio che riappaiano negli output del modello in seguito.
- Trasparenza nella gestione dei dati: Dovrebbe essere chiaro come vengono utilizzati i dati Utente archiviati, chi può accedervi, dove sono archiviati, per quanto tempo vengono conservati e come possono essere eliminati.
- Crittografia zero-access predefinita: Le conversazioni dovrebbero essere protette utilizzando le chiavi crittografiche dell’Utente, in modo che nemmeno il provider di IA possa ottenerne l’accesso.
Sebbene i pericoli dei chatbot che registrano silenziosamente i nostri dati siano reali e pressanti, non siamo impotenti. Scegliendo strumenti di IA privacy-first e richiedendo trasparenza e responsabilità ai loro creatori, possiamo spostare l’equilibrio del potere di nuovo nelle mani degli Utenti, affermando la convinzione che la privacy è un diritto, non un privilegio.