Mændene troede på det, de så online: et websted fyldt med eksplicitte AI-genererede billeder af hendes ansigt på en andens krop, sammen med hendes rigtige hjemmeadresse. Siden påstod, at hendes hjem var et bordel.
Sweet Anita, en af Twitchs mest genkendelige streamere, forstod risiciene ved at være kvinde online og tog forholdsregler. Hun skjulte sit rigtige navn, satte grænser og hyrede et team. Intet af det stoppede nogen i at lave deepfakes af hende.
Intet forberedte hende på det, der kom bagefter.
Sweet Anitas historie
En anonym mand bestilte AI-genereret pornografi af hende, byggede derefter et falsk websted, der fremstillede hende som sexarbejder — og opførte hendes hjemmeadresse. Hele opsætningen var designet til at lokke mænd til hendes hjem med den falske forventning om, at de kunne tvinge hende til sex. “Efter han gjorde det, begyndte jeg at få mænd, der kom til mit hus, især når jeg livestreamede, og jeg var væk hjemmefra,” sagde hun. “Jeg føler mig ikke sikker i mit eget hjem.”
Fremmede med sportstasker forsøgte at bryde ind. Hun var bange for at modtage post fra postbuddet. Hun måtte stoppe med at åbne døren og forlade huset uden opsyn. Hun er flyttet før, men de blev ved med at finde hende.
Og misbruget begrænsede sig ikke til hendes hoveddør. Hendes afdøde mor, stolt af sin datters arbejde, tjekkede Anitas sociale medier og blev tvunget til at scrolle forbi eksplicitte, AI-genererede billeder. Venner og kolleger så dem også. “Jeg kunne slette alt fra YouTube, Twitch, alle mine sociale medier — og der ville stadig være masser af billeder af mit ansigt i videoer, der kunne bruges som reference,” sagde hun.
Deepfakes er den nye mobning
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
Ifølge forskning fra Girlguiding(nyt vindue) siger mere end én ud af fire teenagere, at de har set en eksplicit deepfake af nogen, de kender — en klassekammerat, en lærer, en ven eller endda dem selv. CNN rapporterer(nyt vindue), at 40 % af de studerende og 29 % af lærerne sagde, at de var opmærksomme på en deepfake af nogen forbundet til deres skole i det forgangne år, og 15 % af de studerende sagde, at de havde set eksplicitte versioner. De fleste skoler har ikke politikker til at håndtere denne form for misbrug.
Skaderne er alvorlige. Ofre kan lide af angst, depression og endda PTSD. De kan trække sig socialt, miste venner eller undgå at søge job eller uddannelse, fordi eksplicitte forfalskninger kunne dukke op under en søgning. Nogle er endda tvunget til at bruge penge på at forsøge at rense indhold fra internettet.
World Economic Forum bemærker(nyt vindue), at mens deepfakes ikke destabiliserede valg, som mange frygtede, er de blevet et værktøj til chikane og svindel. Pornografi uden samtykke er den mest ekstreme form, men angribere bruger også klonede stemmer og falske videoopkald til at begå bedrageri. I 2024 blev en finansmedarbejder i Hong Kong snydt til at betale 25 mio. dollars efter at have deltaget i et Zoom-opkald, hvor hver deltager — inklusive finansdirektøren — var en deepfake(nyt vindue).
“I resten af mit liv ser jeg ikke en måde, hvorpå jeg nogensinde personligt kan undgå dette,” sagde Anita. “Og jeg synes heller ikke, jeg skal være ansvarlig for det. Det er ikke mit problem, og det er ikke min skyld.”
Dette kunne ske for enhver
Det kræver kun en håndfuld billeder. En offentlig Instagram. Et skolefoto. Et delt album. Når et ansigt er online, kan det kopieres, skrabes og misbruges.
Ifølge professor Carsten Maple fra University of Warwicks Cyber Security Centre er så få som 20 billeder med nutidens AI-værktøjer nok til at skabe en realistisk profil af nogen, eller endda en 30-sekunders video, hvilket udvider omfanget af potentielle farer — en kendsgerning, som 53 % af de nyligt adspurgte forældre ikke kendste til.
The New York Times rapporterede om stigningen af såkaldte “nudifier-apps”(nyt vindue), der kan fjerne tøj fra billeder ved hjælp af AI. Disse apps er billige, nemme at bruge og bredt tilgængelige. Efterforskere anslår, at industrien indbringer omkring 36 mio. dollars om året. På trods af en ny amerikansk lov, der gør det ulovligt at slå falske nøgenbilleder op uden samtykke, forbliver selve apperne lovlige. “Ethvert barn med adgang til internettet kan både være et offer eller en gerningsmand,” fortalte Alexios Mantzarlis, hvis hold undersøgte 85 sådanne websteder, til New York Times.
Private konti er ikke en garanti for sikkerhed. Krænkere er ofte personer, offeret kender. Selv tilsyneladende harmløse opslag, såsom fødselsdagsfester, kan afsløre detaljer, der nærer identitetstyveri, som ramte anslået 1,1 millioner børn i 2024.
“Folk, der [laver deepfakes], glemmer ofte, at det er uhyggeligt, at det er upassende — altså, hvis deres kolleger og venner vidste det, ville de blive fyret og udstødt. De ville miste alle, de kender, deres forældre ville blive skuffede over dem, ikke?” sagde hun. “Men når man er online, og man laver dette materiale til hinanden med en flok ligesindede uhyggelige typer, så er det bare en hobby og et tidsfordriv for dem. De får helt lov til at omgå og glemme og være vildledte om den indvirkning, det har på folks liv.”
Deepfake-risikoen går langt ud over sociale medier
I dag kommer den største risiko måske fra det, der bliver delt på sociale medier. Men hvad med alle de billeder, du slet ikke deler?
Google, Apple, Amazon, Meta og andre tilbyder alle cloud-lagerplads til dine fotos, nogle gange gratis. Men den bekvemmelighed har stadig en pris. Google har brugt dine fotos til at træne AI siden mindst 2015, da de blev tvunget til at undskylde for at klassificere et sort par som “gorillaer.”(nyt vindue) Siden da er alle de store udbydere af lagerplads blevet meget bedre til ansigtsgenkendelse. Hvordan tror du, det skete? Flere fotos, der konstant fodrer AI’en.
De milliarder af fotos og videoer, der bliver lagret hos Big Tech, er en enorm skattekiste af materiale, der en dag kunne blive foder til at generere utroligt detaljerede og livagtige deepfakes.
Alt, det kræver, er en stille ændring i servicevilkårene.
Beskyt dine minder, som du beskytter dine adgangskoder
Du kan ikke kontrollere, hvad andre gør med dit billede. Men du kan kontrollere, hvor dine billeder bor, og hvem der har adgang til dem. Proton Drive giver dig en privat, krypteret måde at gemme de fotos og filer, der betyder mest.
- End-to-end kryptering: Dine filer er krypterede, før de nogensinde forlader din enhed. I modsætning til Big Tech kan ikke engang Proton se dem.
- Privat som standard: Dine data bliver aldrig solgt, delt eller brugt til at træne AI.
- Sikker deling: Tilføj adgangskoder, indstil udløbsdatoer eller tilbagekald adgang når som helst.
- Automatisk sikkerhedskopi: Selv hvis din telefon bliver tabt eller stjålet, forbliver dine minder sikre.
Med Proton Drive forbliver dine data dine — altid.






