Les hommes ont cru ce qu’ils ont vu en ligne : un site internet rempli d’images explicites générées par l’IA de son visage sur le corps de quelqu’un d’autre, accompagnées de son adresse réelle. Le site prétendait que sa maison était une maison close.

Sweet Anita, l’une des streameuses les plus reconnaissables de Twitch, comprenait les risques d’être une femme en ligne et a pris des précautions. Elle a masqué son vrai nom, fixé des limites et engagé une équipe. Rien de tout cela n’a empêché quelqu’un de créer un deepfake d’elle.

Rien ne l’avait préparée à la suite.

L’histoire de Sweet Anita

Un homme anonyme a commandé de la pornographie générée par IA la mettant en scène, puis a créé un faux site internet la présentant comme une travailleuse du sexe — et a indiqué son adresse personnelle. L’ensemble du dispositif était conçu pour attirer des hommes chez elle avec la fausse attente qu’ils pourraient la forcer à avoir des relations sexuelles. « Après qu’il ait fait ça, j’ai commencé à voir des hommes venir chez moi, surtout quand je faisais du livestream et que j’étais loin de chez moi », a-t-elle déclaré. « Je ne me sens pas en sécurité dans ma propre maison. »

Des inconnus avec des sacs de sport ont essayé d’entrer par effraction. Elle avait peur de recevoir du courrier du facteur. Elle a dû arrêter d’ouvrir sa porte et de laisser la maison sans surveillance. Elle a déjà déménagé par le passé, mais ils continuaient à la retrouver.

Et les abus ne se limitaient pas à son pas de porte. Sa défunte mère, fière du travail de sa fille, consultait les réseaux sociaux d’Anita et était forcée de faire défiler des images explicites générées par IA. Des amis et des collègues les ont vues aussi. « Je pourrais tout supprimer de YouTube, Twitch, tous mes réseaux sociaux — et il y aurait encore des tas d’images de mon visage dans des vidéos qui pourraient être utilisées comme référence », a-t-elle déclaré.

Les deepfakes sont le nouveau harcèlement

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Selon une étude de Girlguiding(nouvelle fenêtre), plus d’un adolescent sur quatre déclare avoir vu un deepfake explicite d’une personne qu’il connaît — un camarade de classe, un enseignant, un ami ou même lui-même. CNN rapporte(nouvelle fenêtre) que 40 % des élèves et 29 % des enseignants ont déclaré avoir eu connaissance d’un deepfake concernant une personne liée à leur école au cours de l’année écoulée, et 15 % des élèves ont déclaré avoir vu des versions explicites. La plupart des écoles n’ont pas de politiques pour traiter cette forme d’abus.

Les préjudices sont graves. Les victimes peuvent souffrir d’anxiété, de dépression et même de SSPT. Elles peuvent se retirer socialement, perdre des amis ou éviter de postuler à des emplois ou à des universités parce que des faux explicites pourraient faire surface lors d’une recherche. Certaines sont même obligées de dépenser de l’argent pour essayer de supprimer du contenu d’internet.

Le Forum économique mondial note(nouvelle fenêtre) que bien que les deepfakes n’aient pas déstabilisé les élections comme beaucoup le craignaient, ils sont devenus un outil de harcèlement et d’escroquerie. La pornographie non consensuelle est la forme la plus extrême, mais les attaquants utilisent également des voix clonées et de faux appels vidéo pour commettre des fraudes. En 2024, un employé de la finance à Hong Kong a été escroqué et a payé 25 millions de dollars après avoir rejoint un appel Zoom dans lequel chaque participant — y compris le directeur financier — était un deepfake(nouvelle fenêtre).

« Pour le reste de ma vie, je ne vois pas comment je pourrais personnellement éviter cela », a déclaré Anita. « Et je ne pense pas non plus que je devrais en être responsable. Ce n’est pas mon problème, et ce n’est pas ma faute. »

Cela pourrait arriver à n’importe qui

Il suffit d’une poignée d’images. Un Instagram public. Une photo d’école. Un album partagé. Une fois qu’un visage est en ligne, il peut être copié, récupéré et utilisé à mauvais escient.

Selon le professeur Carsten Maple du Centre de cybersécurité de l’Université de Warwick, avec les outils d’IA d’aujourd’hui, seulement 20 photos suffisent pour créer un profil réaliste de quelqu’un, ou même une vidéo de 30 secondes, élargissant la portée des dangers potentiels — un fait que 53 % des parents récemment interrogés ignoraient.

Le New York Times a fait état de l’augmentation des applications dites « nudifier »(nouvelle fenêtre) qui peuvent retirer les vêtements des photos à l’aide de l’IA. Ces applications sont bon marché, faciles à utiliser et largement disponibles. Les enquêteurs estiment que l’industrie rapporte environ 36 millions de dollars par an. Malgré une nouvelle loi américaine rendant illégale la publication de faux nus non consensuels, les applications elles-mêmes restent légales. « N’importe quel enfant ayant accès à internet peut être à la fois une victime ou un auteur », a déclaré Alexios Mantzarlis, dont l’équipe a enquêté sur 85 sites de ce type, au New York Times.

Les comptes privés ne sont pas une garantie de sécurité. Les abuseurs sont souvent des personnes que la victime connaît. Même des publications apparemment inoffensives, comme des fêtes d’anniversaire, peuvent révéler des informations qui alimentent l’usurpation d’identité, qui a touché environ 1,1 million d’enfants en 2024.

« Les gens qui [créent des deepfakes] oublient souvent que c’est effrayant, que c’est inapproprié — comme si leurs collègues et amis le savaient, ils seraient licenciés et ostracisés. Ils perdraient tous ceux qu’ils connaissent, leurs parents seraient déçus d’eux, n’est-ce pas ? » a-t-elle déclaré. « Mais, quand vous êtes en ligne et que vous créez ce matériel les uns pour les autres avec un groupe de détraqués partageant les mêmes idées, alors ce n’est qu’un passe-temps et un loisir pour eux. Ils parviennent complètement à contourner, oublier et se bercer d’illusions sur l’impact que cela a sur la vie des gens. »

Le risque de deepfake va bien au-delà des réseaux sociaux

Aujourd’hui, le plus grand risque peut venir de ce qui est partagé sur les réseaux sociaux. Mais qu’en est-il de toutes les photos que vous ne partagez pas du tout ?

Google, Apple, Amazon, Meta et d’autres offrent tous un stockage cloud pour vos photos, parfois gratuitement. Mais cette commodité a tout de même un coût. Google utilise vos photos pour entraîner l’IA depuis au moins 2015, lorsqu’elle a été contrainte de s’excuser d’avoir classé un couple noir comme des « gorilles ».(nouvelle fenêtre) Depuis lors, tous les principaux fournisseurs de stockage se sont nettement améliorés en matière de reconnaissance faciale. Comment pensez-vous que cela s’est produit ? Plus de photos, alimentant constamment l’IA.

Les milliards de photos et de vidéos stockées par les grandes entreprises technologiques constituent un vaste trésor de matériel qui pourrait un jour servir à générer des deepfakes incroyablement détaillés et réalistes.

Il suffit d’un changement discret dans les conditions d’utilisation du service.

Protégez vos souvenirs comme vous protégez vos mots de passe

Vous ne pouvez pas contrôler ce que les autres font de votre image. Mais vous pouvez contrôler où vos images vivent et qui y a accès. Proton Drive vous offre un moyen privé et chiffré de stocker les photos et les fichiers qui comptent le plus.

  • Chiffrement de bout en bout : Vos fichiers sont chiffrés avant même de quitter votre appareil. Contrairement aux grandes entreprises technologiques, même Proton ne peut pas les voir.
  • Privé par défaut : Vos données ne sont jamais vendues, partagées ou utilisées pour entraîner l’IA.
  • Partage sécurisé : Ajoutez des mots de passe, définissez des dates d’expiration ou révoquez l’accès à tout moment.
  • Sauvegarde automatique : Même si votre téléphone est perdu ou volé, vos souvenirs restent en sécurité.

Avec Proton Drive, vos données restent les vôtres — toujours.