OpenAI ha rilasciato ChatGPT Atlas, un nuovo browser che integra ChatGPT direttamente in ogni interazione che le persone hanno sul web. L’azienda lo descrive come un passo verso un assistente digitale che si muove attraverso i siti web con te, interpreta ciò che vedi e completa i compiti che richiedi.

Attualmente disponibile solo su Mac, Atlas promette una straordinaria comodità. Tuttavia, introduce anche nuovi rischi per la privacy e la sicurezza con conseguenze sconosciute. OpenAI non ha ancora risposto a diverse domande chiave su come il prodotto protegge i dati dell’Utente.

Ne sappiamo già abbastanza, però, per esaminare i suoi principali vantaggi e i seri rischi per la privacy che comportano.

Come funziona ChatGPT Atlas

Atlas introduce due sistemi principali che cambiano il funzionamento della navigazione. Il primo, memorie del browser, registra quali siti visiti e come interagisci con essi, mirando a rendere le risposte di ChatGPT più personali. Il secondo, modalità agente, consente all’IA di aprire pagine, compilare moduli o svolgere compiti all’interno della finestra del browser.

OpenAI afferma che queste funzionalità sono opzionali. Puoi disattivarle, cancellare i loro dati o navigare privatamente. L’azienda afferma inoltre che il contenuto della tua navigazione è escluso dall’addestramento dei modelli a meno che tu non dia il consenso.

Per quanto si parli di reinvenzione, tuttavia, ChatGPT Atlas funziona ancora su Chromium(nuova finestra), lo stesso motore open source dietro Chrome ed Edge.

Quel framework si basa sulle impostazioni e sulle abitudini dell’Utente. Ampie ricerche mostrano che la maggior parte delle persone non cambia le proprie impostazioni predefinite(nuova finestra). E i precedenti browser IA mostrano quanto possano essere fragili tali controlli in condizioni reali.

Rischi di sicurezza dei browser IA: cosa hanno scoperto i ricercatori finora

Uno dei primi browser IA è stato Comet di Perplexity, rilasciato nel luglio 2025. Una vulnerabilità nel sistema IA del browser, segnalata per la prima volta da Time(nuova finestra), ha rivelato come la navigazione IA potrebbe aprire nuovi vettori di attacco. I ricercatori di LayerX hanno scoperto una vulnerabilità chiamata CometJacking(nuova finestra), che consentiva ai link dannosi di nascondere istruzioni all’interno degli URL. Quando cliccati, l’IA di Comet interpretava quei prompt come comandi reali.

I test hanno mostrato che il browser poteva estrarre dati da Gmail e calendari, scaricare file dannosi e in alcuni casi persino tentare acquisti su siti web truffaldini. iTnews ha poi dettagliato(nuova finestra) scoperte simili dai ricercatori di Guardio, che hanno descritto Comet come un assistente troppo zelante: rapido ad agire e lento a mettere in discussione istruzioni sospette. L’analisi di Kaspersky(nuova finestra) è andata oltre, avvertendo che integrare l’IA direttamente in un browser offre ai contenuti web dannosi un canale diretto per manipolarla.

Perché Atlas è rischioso by design

La ricerca è sempre stata sorveglianza. La ricerca IA la rende sorveglianza intima. Atlas la rende sorveglianza totale.

I motori tradizionali come Google catturano domande isolate: un sintomo medico, una ricetta, una query legale. L’IA conversazionale trasforma quei frammenti in storie. Ti chiede chiarimenti, incoraggia follow-up e registra il contesto. Nel tempo, questi scambi creano ritratti dettagliati della tua vita privata, costruendo una narrazione sulle tue intenzioni, vulnerabilità e schemi decisionali.

Questo è già rischioso quando confinato alle app ChatGPT. Con Atlas, lo stesso meccanismo vive all’interno del tuo browser, offrendo a OpenAI una sorveglianza totale di ogni interazione che hai online.

La stessa documentazione di OpenAI(nuova finestra) conferma che Atlas può visualizzare le pagine che visiti, ricordarne il contenuto tramite le memorie del browser e agire per tuo conto tramite la modalità agente. Ogni livello aumenta la visibilità. Atlas non registra solo le tue query; osserva cosa leggi, quanto tempo resti e cosa fai dopo.

Il risultato è un record unico e completo di intenzioni e comportamenti. Anche quando OpenAI afferma che questo contenuto non viene utilizzato per l’addestramento per impostazione predefinita, viene comunque elaborato e analizzato per la personalizzazione. Attraverso l’inferenza, Atlas può collegare azioni ordinarie per costruire narrazioni rivelatrici, come collegare ricerche di sintomi d’ansia con elenchi di terapeuti e ricerche di farmaci per formare un quadro della salute mentale di una persona.

I controlli sulla privacy esistono ma richiedono una vigilanza costante. Gli utenti possono attivare/disattivare la visibilità o eliminare le memorie, ma la maggior parte dimenticherà di gestire quelle impostazioni. Puoi ottenere i tuoi dati o eliminarli. Ma i modelli sono già stati addestrati su ciò che hai fatto.

Atlas estende la sorveglianza oltre ciò che Google ha ottenuto combinando ricerca e dati del browser. OpenAI ha unito la conversazione IA, le interazioni web (comprese quelle al di fuori del motore di ricerca) e la raccolta di dati personali in un’unica interfaccia che comprende il contesto e agisce su di esso.

Privacy e preoccupazioni sull’esposizione dei dati

TechCrunch riporta(nuova finestra) che Atlas tiene traccia dell’attività di navigazione per personalizzare le risposte. Kaspersky avverte(nuova finestra) che un’IA integrata a questo livello ha piena visibilità sul traffico web e sui file sul dispositivo. Quella visibilità può includere materiale privato come abbonamenti, documenti di lavoro o dati finanziari.

I browser IA segnano un passaggio dalla raccolta passiva di dati alla mappatura comportamentale continua. Ogni pagina visitata, ogni prompt scritto, ogni compito delegato diventa un altro segnale in un ciclo di feedback progettato per prevedere e influenzare il comportamento.

OpenAI indica le impostazioni dell’Utente come salvaguardie: interruttori per la privacy, cancellazione dei dati e navigazione in incognito. Ma questi sono controlli di superficie. Una volta che un’IA unisce i puntini, rimuovere un pezzo di dati non cancella la storia che ha già costruito. Atlas può dimenticare voci discrete; le inferenze, tuttavia, rimangono.

Questo modello unisce i due motori di raccolta dati più potenti del web — l’indice di ricerca e il browser — e li sovrappone con un’IA capace di ragionare su ciò che osserva.

L’amo è che è utile. Uno strumento che organizza le liste della spesa mappa anche il comportamento finanziario. Uno strumento che ti aiuta a ricercare terapie deduce anche il tuo stato emotivo. Ciò che appare come personalizzazione è estrazione di dati con l’empatia come maschera.

Il capitalismo di sorveglianza precedente si basava sull’apatia dell’Utente: persone troppo pigre per aggiornare le proprie impostazioni privacy. Atlas dipende dal coinvolgimento: è così intelligente e conveniente che non puoi fare a meno di fidarti.

Perché Atlas non è pronto per un uso sensibile

Atlas è un passo audace verso la navigazione a mani libere, ma non è costruito per la fiducia. Le stesse scelte di design che lo rendono potente lo rendono anche insicuro. Ricercatori di sicurezza e tester sono giunti a una conclusione coerente sui browser IA: sono dimostrazioni notevoli, ma inaffidabili per la vita quotidiana.

Se provi Atlas, trattalo come un ambiente di test. Tieni banche, lavoro e account personali altrove. Non dare per scontato che le sue salvaguardie resisteranno alle minacce del mondo reale.

OpenAI probabilmente migliorerà la sicurezza di Atlas, ma oggi, usare un browser IA significa concedere all’azienda visibilità diretta sul tuo comportamento online e sperare che l’accesso rimanga protetto.

Quella preoccupazione non finisce con OpenAI stessa, poiché l’azienda condivide i tuoi dati con partner e fornitori di servizi terzi, espandendo la cerchia di accesso oltre il suo controllo diretto. Ad esempio, una violazione che ha coinvolto un partner OpenAI ha esposto i dati degli utenti API: un promemoria che una volta che le tue informazioni entrano nell’ecosistema ChatGPT, ogni parte aggiuntiva diventa un potenziale anello debole.

Usa un assistente IA privato che ti tiene al sicuro

C’è un altro approccio, ed è già utilizzato da milioni di persone.

Lumo, l’assistente IA(nuova finestra) privato di Proton, è costruito per dimostrare che intelligenza e privacy possono coesistere. Opera secondo una rigorosa politica di non conservazione dei log. La cronologia delle chat è protetta con crittografia zero-access, il che significa che nemmeno Proton può leggerla. Le conversazioni non vengono mai utilizzate per l’addestramento. Sia il codice che i modelli sono open source, consentendo a chiunque di verificare cosa succede sotto il cofano. Gli utenti possiedono i propri dati a titolo definitivo. E poiché Lumo è finanziato dalla comunità, non dagli inserzionisti, non c’è alcun incentivo commerciale a sfruttare le informazioni personali.

Questa è la differenza tra IA di sorveglianza e IA per la privacy. Una è costruita per raccogliere dati; l’altra è costruita per proteggerli.