OpenAI a lancé ChatGPT Atlas, un nouveau navigateur qui intègre ChatGPT directement dans chaque interaction que les gens ont sur le web. L’entreprise le décrit comme une étape vers un assistant numérique qui se déplace à travers les sites web avec vous, interprète ce que vous voyez et effectue les tâches que vous demandez.
Actuellement disponible uniquement sur Mac, Atlas promet une commodité extraordinaire. Pourtant, il introduit également de nouveaux risques pour le respect de la vie privée et la sécurité aux conséquences inconnues. OpenAI n’a pas encore répondu à plusieurs questions clés sur la manière dont le produit protège les données des utilisateurs.
Nous en savons déjà assez, cependant, pour examiner ses principaux avantages et les risques sérieux pour le respect de la vie privée qui les accompagnent.
Comment fonctionne ChatGPT Atlas
Atlas introduit deux systèmes centraux qui changent le fonctionnement de la navigation. Le premier, les souvenirs du navigateur, enregistre quels sites vous visitez et comment vous interagissez avec eux, visant à rendre les réponses de ChatGPT plus personnelles. Le second, le mode agent, permet à l’IA d’ouvrir des pages, de remplir des formulaires ou d’effectuer des tâches à l’intérieur de la fenêtre du navigateur.
OpenAI dit que ces fonctionnalités sont optionnelles. Vous pouvez les désactiver, effacer leurs données ou naviguer en privé. L’entreprise affirme également que votre contenu de navigation est exclu de l’entraînement du modèle à moins que vous ne choisissiez de participer.
Malgré tous ses discours sur la réinvention, ChatGPT Atlas fonctionne toujours sur Chromium(nouvelle fenêtre), le même moteur open source derrière Chrome et Edge.
Ce cadre repose sur les paramètres et les habitudes des utilisateurs. De nombreuses recherches montrent que la plupart des gens ne modifient pas leurs paramètres par défaut(nouvelle fenêtre). Et les précédents navigateurs IA montrent à quel point de tels contrôles peuvent être fragiles dans des conditions réelles.
Risques de sécurité des navigateurs IA : ce que les chercheurs ont découvert jusqu’à présent
L’un des premiers navigateurs IA a été Comet de Perplexity, sorti en juillet 2025. Une vulnérabilité dans le système d’IA du navigateur, d’abord signalée par Time(nouvelle fenêtre), a révélé comment la navigation par IA pourrait ouvrir de nouveaux vecteurs d’attaque. Des chercheurs de LayerX ont découvert une vulnérabilité appelée CometJacking(nouvelle fenêtre), qui permettait à des liens malveillants de masquer des instructions à l’intérieur des URL. Lorsqu’on cliquait dessus, l’IA de Comet interprétait ces invites comme de véritables commandes.
Les tests ont montré que le navigateur pouvait extraire des données de Gmail et des calendriers, télécharger des fichiers malveillants et, dans certains cas, même tenter des achats sur des sites web frauduleux. iTnews a plus tard détaillé(nouvelle fenêtre) des conclusions similaires des chercheurs de Guardio, qui ont décrit Comet comme un assistant trop zélé, prompt à agir et lent à remettre en question des instructions suspectes. L’analyse de Kaspersky(nouvelle fenêtre) est allée plus loin, avertissant que l’intégration directe de l’IA dans un navigateur donne au contenu web malveillant un canal direct pour le manipuler.
Pourquoi Atlas est risqué par conception
La recherche a toujours été de la surveillance. La recherche par IA en fait une surveillance intime. Atlas en fait une surveillance totale.
Les moteurs traditionnels comme Google capturent des questions isolées (un symptôme médical, une recette, une requête juridique). L’IA conversationnelle transforme ces fragments en histoires. Elle vous demande des éclaircissements, encourage les suivis et enregistre le contexte. Au fil du temps, ces échanges créent des portraits détaillés de votre vie privée, construisant un récit sur vos intentions, vos vulnérabilités et vos schémas de prise de décision.
C’est déjà risqué lorsqu’on se limite aux applications ChatGPT. Avec Atlas, ce même mécanisme vit à l’intérieur de votre navigateur, offrant à OpenAI une surveillance totale de chaque interaction que vous avez en ligne.
La propre documentation d’OpenAI(nouvelle fenêtre) confirme qu’Atlas peut voir les pages que vous visitez, se souvenir de leur contenu grâce aux souvenirs du navigateur et agir en votre nom via le mode agent. Chaque couche augmente la visibilité. Atlas ne se contente pas d’enregistrer vos requêtes ; il observe ce que vous lisez, combien de temps vous restez et ce que vous faites ensuite.
Le résultat est un enregistrement unique et complet de l’intention et du comportement. Même lorsque OpenAI dit que ce contenu n’est pas utilisé pour l’entraînement par défaut, il est toujours traité et analysé pour la personnalisation. Par inférence, Atlas peut relier des actions ordinaires pour construire des récits révélateurs, comme lier des recherches de symptômes d’anxiété à des annuaires de thérapeutes et à des recherches de médicaments pour former une image de la santé mentale d’une personne.
Les contrôles de confidentialité existent mais exigent une vigilance constante. Les utilisateurs peuvent basculer la visibilité ou supprimer des souvenirs, pourtant la plupart oublieront de gérer ces paramètres. Vous pouvez obtenir vos données, ou les supprimer. Mais les modèles ont déjà été entraînés sur ce que vous avez fait.
Atlas étend la surveillance au-delà de ce que Google a réalisé en combinant les données de recherche et de navigateur. OpenAI a fusionné la conversation IA, les interactions web (y compris celles en dehors du moteur de recherche) et la collecte de données personnelles en une seule interface qui comprend le contexte et agit en conséquence.
Préoccupations concernant la vie privée et l’exposition des données
TechCrunch rapporte(nouvelle fenêtre) qu’Atlas conserve un registre de l’activité de navigation pour personnaliser les réponses. Kaspersky avertit(nouvelle fenêtre) qu’une IA intégrée à ce niveau a une visibilité totale sur le trafic web et les fichiers sur l’appareil. Cette visibilité peut inclure du matériel privé tel que des abonnements, des documents de travail ou des données financières.
Les navigateurs IA marquent un passage de la collecte passive de données à la cartographie comportementale continue. Chaque page visitée, chaque invite écrite, chaque tâche déléguée devient un autre signal dans une boucle de rétroaction conçue pour prédire et influencer le comportement.
OpenAI désigne les paramètres utilisateur comme des garde-fous : bascules de confidentialité, suppression des données et navigation privée. Mais ce sont des contrôles de surface. Une fois qu’une IA relie les points, retirer un élément de données n’efface pas l’histoire qu’elle a déjà construite. Atlas peut oublier des entrées discrètes ; les inférences, cependant, restent.
Ce modèle unit les deux moteurs de collecte de données les plus puissants du web (l’index de recherche et le navigateur) et les superpose à une IA capable de raisonner sur ce qu’elle observe.
L’accroche est que c’est utile. Un outil qui organise les listes de courses cartographie aussi le comportement financier. Un outil qui vous aide à rechercher une thérapie déduit aussi votre état émotionnel. Ce qui apparaît comme de la personnalisation est de l’extraction de données masquée par de l’empathie.
Le capitalisme de surveillance antérieur reposait sur l’apathie des utilisateurs : les gens étant trop paresseux pour mettre à jour leurs paramètres de confidentialité. Atlas dépend de l’engagement : c’est tellement intelligent et pratique que vous ne pouvez pas vous empêcher de lui faire confiance.
Pourquoi Atlas n’est pas prêt pour un usage sensible
Atlas est une étape audacieuse vers une navigation mains libres, mais il n’est pas conçu pour la confiance. Les mêmes choix de conception qui le rendent puissant le rendent aussi dangereux. Les chercheurs en sécurité et les testeurs sont parvenus à une conclusion cohérente sur les navigateurs IA : ce sont des démonstrations remarquables, mais peu fiables pour la vie quotidienne.
Si vous essayez Atlas, traitez-le comme un environnement de test. Gardez vos comptes bancaires, professionnels et personnels ailleurs. Ne supposez pas que ses garde-fous résisteront aux menaces du monde réel.
OpenAI améliorera probablement la sécurité d’Atlas, mais aujourd’hui, utiliser un navigateur IA signifie accorder à l’entreprise une visibilité directe sur votre comportement en ligne et espérer que cet accès reste protégé.
Cette préoccupation ne s’arrête pas à OpenAI elle-même, car l’entreprise partage vos données avec des partenaires et des fournisseurs de services tiers, élargissant le cercle d’accès au-delà de son contrôle direct. Par exemple, une fuite impliquant un partenaire d’OpenAI a exposé des données d’utilisateurs de l’API (un rappel qu’une fois que vos informations entrent dans l’écosystème ChatGPT, chaque partie supplémentaire devient un maillon faible potentiel).
Utilisez un assistant IA privé qui vous protège
Il existe une autre approche, et elle est déjà utilisée par des millions de personnes.
Lumo, l’assistant IA(nouvelle fenêtre) privé de Proton, est conçu pour prouver que l’intelligence et le respect de la vie privée peuvent coexister. Il fonctionne selon une politique stricte de non-journalisation (no-logs). L’historique des discussions est protégé par un chiffrement zéro accès, ce qui signifie que même Proton ne peut pas le lire. Les conversations ne sont jamais utilisées pour l’entraînement. Le code et les modèles sont open source, permettant à quiconque de vérifier ce qui se passe sous le capot. Les utilisateurs possèdent leurs données sans réserve. Et parce que Lumo est financé par la communauté, et non par les annonceurs, il n’y a aucune incitation commerciale à exploiter les informations personnelles.
C’est la différence entre l’IA de surveillance et l’IA respectueuse de la vie privée. L’une est conçue pour collecter des données ; l’autre est conçue pour les protéger.