À mesure que l’utilisation de l’intelligence artificielle augmente, les assistants IA(nouvelle fenêtre) deviennent des compagnons de confiance. Des millions de personnes se tournent vers des chatbots comme ChatGPT, Claude, Gemini, DeepSeek et d’autres pour poser des questions et résoudre des problèmes. Leurs requêtes peuvent être profondément sensibles, posant des questions sur des problèmes de santé, partageant des données clients ou cherchant un soutien émotionnel et une inspiration créative.

Pour beaucoup, ces chatbots semblent humains, réactifs et confidentiels. Mais des développements récents (une ordonnance judiciaire a contraint OpenAI à conserver indéfiniment les données de sortie de ChatGPT(nouvelle fenêtre), et Sam Altman, le fondateur d’OpenAI, affirme que ChatGPT n’offre pas de « confidentialité légale »(nouvelle fenêtre)) mettent en lumière le risque que chaque mot que vous tapez puisse être journalisé, stocké, analysé et potentiellement utilisé à mauvais escient ou divulgué à des tiers.

Voici ce que cela pourrait signifier, et pourquoi cela devrait tous nous préoccuper.

Les enjeux sont plus élevés avec l’IA

La montée des assistants IA ressemble à une nouvelle frontière, mais à bien des égards, nous avons déjà connu cela. Les inquiétudes entourant les journaux de discussion IA font écho à celles qui ont émergé aux débuts des moteurs de recherche, dont beaucoup se sont révélées fondées. Les journaux de recherche ont été utilisés pour construire des profils de ciblage publicitaire lucratifs, ont été exposés lors de fuites de données et ont fait l’objet de citations à comparaître devant les tribunaux.

Avec l’IA, les enjeux sont plus élevés car les données sont plus personnelles et détaillées. Un nombre croissant de personnes délaissent les moteurs de recherche pour les chatbots IA pour leurs réponses, avec des prédictions selon lesquelles l’utilisation des moteurs de recherche chutera de 25 % d’ici 2026(nouvelle fenêtre). Contrairement à une barre de recherche, qui capture généralement des requêtes courtes et fragmentées, les questions posées aux chatbots sont formulées comme si les demandeurs parlaient à une autre personne, en révélant beaucoup plus sur eux-mêmes au passage. Une seule conversation peut contenir des pensées personnelles(nouvelle fenêtre), des luttes émotionnelles, des problèmes de santé(nouvelle fenêtre), des craintes financières ou même des noms complets et des adresses.

En bref, les journaux de discussion offrent une carte incroyablement riche et intime de votre identité, bien plus que les journaux des moteurs de recherche (et avec des implications bien plus grandes pour votre vie privée). Les géants de la tech pourraient accéder à vos journaux de discussion et les utiliser pour construire un profil psychologique sur vous qui peut être divulgué au gouvernement ou utilisé pour la publicité ciblée. Par exemple, Meta utilise les données de discussion IA pour créer des publicités personnalisées.

Vos discussions « anonymes » ne le resteront pas toujours

Un argument courant contre l’inquiétude concernant la confidentialité des journaux de discussion est que le volume même des données rend l’exploitation individuelle improbable, surtout lorsque les utilisateurs ne sont pas connectés. Mais l’histoire récente raconte une autre histoire.

En juillet, des journalistes ont découvert que plus de 100 000 conversations dans ChatGPT(nouvelle fenêtre) avaient été indexées par Google et rendues consultables. Les utilisateurs cliquant sur le bouton « partager » pour envoyer une conversation à des amis ou des collègues ne réalisaient presque certainement pas que leurs conversations privées seraient visibles par tout le monde sur internet.

Cet exemple est un avertissement : les données soi-disant « anonymes » sont rarement anonymes. Associés aux adresses IP, aux horodatages, aux empreintes digitales des appareils et aux ID de session et de cookie, ces journaux deviennent bien plus identifiables.

Comment les discussions peuvent exposer nos vies intérieures

Les plateformes d’IA populaires ChatGPT(nouvelle fenêtre), Gemini(nouvelle fenêtre) et DeepSeek(nouvelle fenêtre) indiquent toutes que les journaux de discussion des utilisateurs sont utilisés pour améliorer les performances du modèle et ne servent pas à « vendre » vos données à des fins publicitaires ou de profilage. Mais les politiques peuvent changer du jour au lendemain, comme le montre la bataille juridique d’OpenAI.

Par exemple, Anthropic a mis à jour sa politique de confidentialité(nouvelle fenêtre) sans avertissement en août 2025 pour prolonger la durée de conservation des données. Avec des journaux stockés indéfiniment, les données personnelles qui semblaient autrefois hors limites pourraient soudainement devenir une source lucrative de profits.

Ce ne serait pas la première fois que cela se produit. Lors du lancement de Google en 1998, les cofondateurs Sergey Brin et Larry Page ont averti(nouvelle fenêtre) que les moteurs de recherche basés sur la publicité seraient inévitablement « intrinsèquement biaisés en faveur des annonceurs et au détriment des besoins des consommateurs ». Une décennie plus tard, Google a commencé à utiliser les historiques de recherche pour cibler les publicités(nouvelle fenêtre).

Avec un accès direct à la vie intérieure des gens, les journaux d’IA peuvent repousser les limites du ciblage publicitaire. Alors qu’un nombre croissant d’utilisateurs se tournent vers les chatbots pour obtenir un soutien émotionnel(nouvelle fenêtre), quelqu’un pourrait confier :

  • « Je me sens dépassé et seul ces derniers temps. »
  • « Pensez-vous que je souffre de dépression ? »
  • « Que puis-je faire si je ne peux pas payer mon loyer le mois prochain ? »

Ces déclarations ne sont pas seulement des mots-clés ou une collection d’interactions, ce sont des indicateurs émotionnels et situationnels clairs. Si elles sont stockées et analysées, elles pourraient être utilisées pour établir des profils psychologiques et manipuler les décisions des utilisateurs.

Il n’est pas alarmiste de suggérer que des informations aussi intimes et sensibles pourraient être utilisées à des fins d’exploitation, car les grandes entreprises technologiques ont fait exactement cela. En 2017, Facebook a démontré qu’aucune interaction n’est hors limites en explorant des moyens de cibler des adolescents émotionnellement vulnérables(nouvelle fenêtre) avec des publicités pendant des moments d’insécurité.

Les journaux de chatbot sont une fenêtre sur votre psyché. Et ce niveau d’accès soulève d’importantes préoccupations éthiques et de respect de la vie privée dans un secteur qui ne dispose pas encore de directives et de réglementations claires sur l’utilisation et l’application des données.

Les risques juridiques pour les utilisateurs

L’historique de recherche joue depuis longtemps un rôle dans les enquêtes criminelles et les affaires judiciaires. Il existe de multiples exemples où des requêtes en ligne ont contribué à des verdicts de culpabilité, notamment Moira Akers contre l’État aux États-Unis.

Après avoir vécu une mortinaissance en 2018, Akers a été accusée de meurtre et condamnée en 2022 à 30 ans de prison. Une partie clé du dossier de l’accusation reposait sur les recherches internet d’Akers concernant l’avortement, effectuées au début de sa grossesse. Selon l’accusation, ces recherches servaient de preuve de l’intention d’Akers, bien qu’elle ait mené la grossesse à terme. La Cour suprême du Maryland a annulé sa condamnation en 2025, jugeant les preuves issues des requêtes de recherche inadmissibles(nouvelle fenêtre). Mais Akers avait déjà passé près de trois ans en prison. L’affaire souligne comment les journaux stockés peuvent être utilisés pour raconter une histoire correspondant à un récit défavorable, même s’il existe des preuves qui le contredisent.

Les enjeux pourraient être encore plus élevés avec les discussions stockées par l’IA qui peuvent faire l’objet de preuves juridiques. Contrairement aux requêtes de recherche, ces interactions sont plus conversationnelles et même spéculatives, parfois comme un moyen de susciter un certain type de réponse de la part du LLM, ou grand modèle de langage. Un échange privé et innocent avec une IA pourrait plus tard être interprété comme incriminant dans un cadre juridique, quelle que soit l’intention au moment des faits.

Un outil puissant de manipulation

Ceux qui peuvent voir les journaux de chatbot peuvent accéder à des plans comportementaux détaillés : habitudes personnelles, déclencheurs émotionnels, dynamiques relationnelles et même vulnérabilités professionnelles. Entre de mauvaises mains, ces données sont un outil puissant pour l’ingénierie sociale, qui est une tactique de piratage courante impliquant une manipulation psychologique.

Ce risque est loin d’être hypothétique. En janvier 2025, la plateforme d’IA DeepSeek a laissé une base de données massive exposée en ligne(nouvelle fenêtre). La brèche comprenait plus d’un million de journaux de discussion d’IA et de clés API, tous accessibles publiquement à quiconque savait où chercher. Parmi les données exposées se trouvaient des conversations en texte clair qui pouvaient contenir des discussions sur la famille, les finances et des projets confidentiels — des informations qui pourraient facilement être exploitées pour la fraude, le chantage ou l’usurpation d’identité.

Une fois divulguées, ces données peuvent être utilisées comme une arme pour usurper votre identité ou vous manipuler. En référençant des informations personnelles tirées de conversations passées, les attaquants peuvent gagner votre confiance et l’exploiter pour créer de graves vulnérabilités financières ou de sécurité.

Le spectre de la surveillance politique

Dans les régimes autoritaires, les conséquences des interactions numériques stockées peuvent être bien plus graves. Par exemple, plusieurs pays ont interdit l’utilisation de la plateforme d’IA basée en Chine DeepSeek sur les appareils gouvernementaux(nouvelle fenêtre) en raison de problèmes de sécurité concernant la manière dont les informations personnelles des utilisateurs sont traitées par l’opérateur. La Corée du Sud, l’Australie et Taïwan ont soulevé des inquiétudes quant au fait que ces données pourraient être accessibles aux autorités chinoises et potentiellement utilisées à des fins de surveillance.

Pour les dissidents, les militants ou les journalistes, ce n’est pas seulement un problème de respect de la vie privée, c’est une question de sécurité. Une discussion apparemment décontractée sur les droits de manifestation, les lois sur les médias ou les itinéraires d’asile pourrait être interprétée comme une preuve incriminante dans des juridictions offrant des protections limitées pour la liberté d’expression et les libertés civiles.

Une menace pour la propriété intellectuelle

En 2023, des ingénieurs de Samsung ont involontairement importé du code source propriétaire(nouvelle fenêtre) dans ChatGPT en essayant de déboguer un problème, croyant à tort que leurs requêtes étaient privées. Une fois soumises, ces données sont devenues partie intégrante du système d’entraînement d’OpenAI, suscitant des inquiétudes quant à la sécurité et à la propriété intellectuelle partagées avec les outils d’IA.

Une préoccupation connexe a émergé dans l’affaire de droits d’auteur très médiatisée intentée par The New York Times contre OpenAI(nouvelle fenêtre) mentionnée au début de cet article. L’affaire a donné lieu à une ordonnance du tribunal obligeant OpenAI à conserver indéfiniment toutes les données de sortie de ChatGPT après des allégations selon lesquelles l’entreprise a utilisé des millions d’articles du journal pour entraîner ses modèles sans permission. Bien que l’affaire se concentre sur les robots d’indexation d’OpenAI récupérant du contenu d’actualité, elle soulève des questions plus larges pour les créatifs — écrivains, designers, musiciens et autres — qui contribuent avec des œuvres originales aux plateformes d’IA.

Si le contenu soumis par l’utilisateur est conservé et réutilisé par le modèle, il existe un risque réel que du matériel propriétaire ou créatif soit redistribué à d’autres utilisateurs sans attribution ni consentement. Cela brouille la ligne entre la contribution de l’utilisateur et les données d’entraînement de l’IA, et soulève des questions urgentes sur la paternité et la propriété à l’ère de l’IA générative.

Ce qui doit changer et comment vous protéger

La plupart des gens veulent et attendent le respect de la vie privée dans leur vie réelle. Nous pensons que les mêmes attentes devraient s’étendre à la vie numérique des gens. Nous avons conçu une suite de services chiffrés qui rendent le respect de la vie privée en ligne accessible à tous, que vous envoyiez des messages à vos amis, regardiez vos émissions préférées en streaming(nouvelle fenêtre) ou sauvegardiez des photos. Il n’est pas trop tard pour corriger les premières erreurs d’internet, et avec l’IA à ses débuts, il est encore temps de tracer une nouvelle voie pour cette technologie qui respecte votre vie privée.

Nous avons conçu notre assistant IA(nouvelle fenêtre) Lumo de manière à respecter des protections clés dès la conception :

  • Pas de journalisation des données : Les utilisateurs devraient pouvoir interagir avec des chatbots sans craindre que leurs soumissions soient stockées, utilisées à des fins lucratives ou utilisées contre eux. 
  • Pas d’entraînement de modèle : Les discussions privées ne devraient jamais être exploitées comme données d’entraînement, car elles risquent de réapparaître plus tard dans les sorties du modèle.
  • Transparence dans le traitement des données : Il devrait être clair comment les données utilisateur stockées sont utilisées, qui peut y accéder, où elles sont stockées, combien de temps elles sont conservées et comment elles peuvent être supprimées.
  • Chiffrement zéro accès par défaut : Les conversations devraient être sécurisées en utilisant les clés de chiffrement de l’utilisateur, afin que même le fournisseur d’IA ne puisse pas y accéder.

Bien que les dangers des chatbots qui journalisent silencieusement nos données soient réels et pressants, nous ne sommes pas impuissants. En choisissant des outils d’IA axés sur le respect de la vie privée et en exigeant transparence et responsabilité de la part de leurs créateurs, nous pouvons faire pencher la balance du pouvoir entre les mains des utilisateurs, affirmant la conviction que le respect de la vie privée est un droit, et non un privilège.