De mannen geloofden wat ze online zagen: een website vol met expliciete, door AI gegenereerde afbeeldingen van haar gezicht op het lichaam van iemand anders, naast haar echte huisadres. De site beweerde dat haar huis een bordeel was.
Sweet Anita, een van de meest herkenbare streamers van Twitch, begreep de risico’s van vrouw zijn online en nam voorzorgsmaatregelen. Ze verborg haar echte naam, stelde grenzen en huurde een team in. Niets daarvan hield iemand tegen om haar te deepfaken.
Niets bereidde haar voor op wat daarna kwam.
Het verhaal van Sweet Anita
Een anonieme man gaf opdracht tot door AI gegenereerde pornografie van haar, bouwde vervolgens een nepwebsite die haar afschilderde als sekswerker — en vermeldde haar huisadres. De hele opzet was bedoeld om mannen naar haar huis te lokken met de valse verwachting dat ze haar tot seks konden dwingen. “Nadat hij dat deed, kwamen er mannen naar mijn huis, vooral wanneer ik livestreamde en van huis was,” zei ze. “Ik voel me niet veilig in mijn eigen huis.”
Vreemden met plunjezakken probeerden in te breken. Ze was bang om post van de postbode te krijgen. Ze moest stoppen met het opendoen van de deur en het onbeheerd achterlaten van het huis. Ze is eerder verhuisd, maar ze bleven haar vinden.
En het misbruik beperkte zich niet tot haar voordeur. Haar overleden moeder, trots op het werk van haar dochter, keek op de sociale media van Anita en werd gedwongen om langs expliciete, door AI gegenereerde afbeeldingen te scrollen. Vrienden en collega’s zagen ze ook. “Ik zou alles van YouTube, Twitch, al mijn sociale kanalen kunnen verwijderen — en er zouden nog steeds massa’s afbeeldingen van mijn gezicht zijn in video’s die als referentie gebruikt zouden kunnen worden,” zei ze.
Deepfakes zijn het nieuwe pesten
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
Volgens onderzoek van Girlguiding(nieuw venster) zegt meer dan een op de vier tieners dat ze een expliciete deepfake hebben gezien van iemand die ze kennen — een klasgenoot, een leraar, een vriend of zelfs zijzelf. CNN meldt(nieuw venster) dat 40 % van de studenten en 29 % van de leraren zeiden dat ze in het afgelopen jaar op de hoogte waren van een deepfake van iemand die aan hun school verbonden was, en 15 % van de studenten zei dat ze expliciete versies hadden gezien. De meeste scholen hebben geen beleid voor het omgaan met deze vorm van misbruik.
De schade is ernstig. Slachtoffers kunnen lijden aan angst, depressie en zelfs PTSS. Ze kunnen zich sociaal terugtrekken, vrienden verliezen of vermijden te solliciteren naar banen of universiteiten omdat expliciete vervalsingen tijdens een zoekopdracht naar boven kunnen komen. Sommigen worden zelfs gedwongen geld uit te geven om inhoud van het internet te proberen te verwijderen.
Het World Economic Forum merkt op(nieuw venster) dat hoewel deepfakes verkiezingen niet destabiliseerden zoals velen vreesden, ze een hulpmiddel zijn geworden voor intimidatie en oplichting. Niet-consensuele pornografie is de meest extreme vorm, maar aanvallers gebruiken ook gekloonde stemmen en nepvideogesprekken om fraude te plegen. In 2024 werd een financieel medewerker in Hong Kong opgelicht om 25 miljoen dollar te betalen na deelname aan een Zoom-gesprek waarin elke deelnemer — inclusief de CFO — een deepfake was(nieuw venster).
“Voor de rest van mijn leven zie ik geen manier waarop ik dit persoonlijk ooit zou kunnen vermijden,” zei Anita. “En ik vind ook niet dat ik daar verantwoordelijk voor zou moeten zijn. Het is niet mijn probleem en het is niet mijn schuld.”
Dit kan iedereen overkomen
Er zijn maar een handvol afbeeldingen nodig. Een openbare Instagram. Een schoolfoto. Een gedeeld album. Zodra een gezicht online staat, kan het worden gekopieerd, gescrapet en misbruikt.
Volgens professor Carsten Maple van het Cyber Security Centre van de Universiteit van Warwick zijn met de huidige AI-tools slechts 20 foto’s genoeg om een realistisch profiel van iemand te maken, of zelfs een video van 30 seconden, waardoor de reikwijdte van potentiële gevaren wordt vergroot — een feit dat 53 % van de recent ondervraagde ouders niet wist.
The New York Times rapporteerde over de opkomst van zogenaamde “nudifier-apps”(nieuw venster) die met behulp van AI kleding van foto’s kunnen verwijderen. Deze apps zijn goedkoop, gemakkelijk te gebruiken en breed beschikbaar. Onderzoekers schatten dat de industrie ongeveer 36 miljoen dollar per jaar binnenhaalt. Ondanks een nieuwe Amerikaanse wet die het illegaal maakt om niet-consensuele nepnaaktfoto’s te plaatsen, blijven de apps zelf legaal. “Elk kind met toegang tot het internet kan zowel slachtoffer als dader zijn,” vertelde Alexios Mantzarlis, wiens team 85 van dergelijke sites onderzocht, aan de New York Times.
Privéaccounts zijn geen garantie voor veiligheid. Misbruikers zijn vaak mensen die het slachtoffer kent. Zelfs ogenschijnlijk onschuldige berichten, zoals verjaardagsfeestjes, kunnen gegevens onthullen die identiteitsdiefstal voeden, wat naar schatting 1,1 miljoen kinderen trof in 2024.
“Mensen die [deepfakes maken] vergeten vaak dat het griezelig is, dat het ongepast is — als, hun collega’s en vrienden het wisten, zouden ze ontslagen en verstoten worden. Ze zouden iedereen verliezen die ze kennen, hun ouders zouden teleurgesteld in ze zijn, toch?” zei ze. “Maar, wanneer je online bent en je maakt dit materiaal voor elkaar met een stel gelijkgestemde griezels, dan is het gewoon een hobby en een tijdverdrijf voor hen. Ze kunnen de impact die het op mensenlevens heeft volledig omzeilen en vergeten en zichzelf voor de gek houden.”
Het deepfake-risico gaat veel verder dan sociale media
Vandaag de dag komt het grootste risico misschien van wat er op sociale media wordt gedeeld. Maar hoe zit het met alle foto’s die u helemaal niet deelt?
Google, Apple, Amazon, Meta en anderen bieden allemaal cloudopslag voor uw foto’s, soms gratis. Maar dat gemak heeft nog steeds een prijs. Google gebruikt uw foto’s al sinds ten minste 2015 om AI te trainen, toen het gedwongen werd om zich te verontschuldigen voor het classificeren van een zwart koppel als “gorilla’s.”(nieuw venster) Sindsdien zijn alle grote opslagproviders veel beter geworden in gezichtsherkenning. Hoe denkt u dat dat is gebeurd? Meer foto’s, die de AI constant voeden.
De miljarden foto’s en video’s die worden opgeslagen bij Big Tech zijn een enorme schat aan materiaal dat op een dag voer zou kunnen zijn voor het genereren van ongelooflijk gedetailleerde en levensechte deepfakes.
Het enige dat nodig is, is een stille wijziging in de servicevoorwaarden.
Bescherm uw herinneringen zoals u uw wachtwoorden beschermt
U hebt geen controle over wat anderen met uw afbeelding doen. Maar u kunt wel bepalen waar uw afbeeldingen wonen en wie er toegang toe heeft. Proton Drive geeft u een privé, versleutelde manier om de foto’s en bestanden die er het meest toe doen op te slaan.
- End-to-end versleuteling: Uw bestanden worden versleuteld voordat ze uw apparaat verlaten. In tegenstelling tot Big Tech kan zelfs Proton ze niet zien.
- Privé als standaard: Uw gegevens worden nooit verkocht, gedeeld of gebruikt om AI te trainen.
- Veilig delen: Voeg wachtwoorden toe, stel verloopdatums in of trek toegang op elk moment in.
- Automatische back-up: Zelfs als uw telefoon verloren of gestolen is, blijven uw herinneringen veilig.
Met Proton Drive blijven uw gegevens van u — altijd.




