Bărbații au crezut ceea ce au văzut online: un site web plin cu imagini explicite generate de AI cu fața ei pe corpul altcuiva, alături de adresa ei reală de acasă. Site-ul susținea că locuința ei era un bordel.
Sweet Anita, unul dintre cei mai cunoscuți streameri de pe Twitch, a înțeles riscurile de a fi o femeie online și și-a luat măsuri de precauție. Și-a ascuns numele real, a stabilit limite și a angajat o echipă. Nimic din toate acestea nu a împiedicat pe cineva să-i facă un deepfake.
Nimic nu a pregătit-o pentru ceea ce a urmat.
Povestea lui Sweet Anita
Un bărbat anonim a comandat pornografie generată de AI cu ea, apoi a construit un site web fals prezentând-o ca o lucrătoare sexuală — și i-a listat adresa de acasă. Întreaga configurare a fost concepută pentru a ademeni bărbați la ea acasă cu așteptarea falsă că o pot forța să facă sex. „După ce a făcut asta, am început să primesc bărbați venind la casa mea, mai ales când făceam livestream și eram departe de casă”, a spus ea. „Nu mă simt în siguranță în propria mea casă.”
Străini cu genți de voiaj au încercat să intre prin efracție. I-a fost frică să primească corespondența de la poștaș. A trebuit să nu mai răspundă la ușă și să nu lase casa nesupravegheată. S-a mutat înainte, dar au continuat să o găsească.
Iar abuzul nu s-a limitat la pragul ușii ei. Răposata ei mamă, mândră de munca fiicei sale, verifica rețelele de socializare ale Anitei și era forțată să treacă peste imagini explicite generate de AI. Prietenii și colegii le-au văzut și ei. „Aș putea șterge totul de pe YouTube, Twitch, toate rețelele mele sociale — și ar exista totuși o mulțime de imagini cu fața mea în videoclipuri care ar putea fi folosite ca referință”, a spus ea.
Deepfake-urile sunt noua formă de hărțuire
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
Potrivit cercetărilor efectuate de Girlguiding(fereastră nouă), mai mult de unul din patru adolescenți spun că au văzut un deepfake explicit cu cineva pe care îl cunosc — un coleg de clasă, un profesor, un prieten sau chiar ei înșiși. CNN raportează(fereastră nouă) că 40 % dintre elevi și 29 % dintre profesori au spus că au fost conștienți de un deepfake al unei persoane conectate la școala lor în ultimul an, iar 15 % dintre elevi au spus că au văzut versiuni explicite. Majoritatea școlilor nu au politici pentru a face față acestei forme de abuz.
Daunele sunt grave. Victimele pot suferi de anxietate, depresie și chiar PTSD. Se pot retrage social, pot pierde prieteni sau pot evita să aplice pentru locuri de muncă sau colegii, deoarece falsurile explicite ar putea ieși la iveală în timpul unei căutări. Unii sunt chiar forțați să cheltuiască bani încercând să șteargă conținutul de pe internet.
Forumul Economic Mondial notează(fereastră nouă) că, deși deepfake-urile nu au destabilizat alegerile așa cum se temeau mulți, au devenit un instrument pentru hărțuire și înșelătorii. Pornografia neconsensuală este forma cea mai extremă, dar atacatorii folosesc și voci clonate și apeluri video false pentru a comite fraude. În 2024, un lucrător financiar din Hong Kong a fost păcălit să plătească 25 de milioane de dolari după ce s-a alăturat unui apel Zoom în care fiecare participant — inclusiv CFO-ul — era un deepfake(fereastră nouă).
„Pentru tot restul vieții mele, nu văd o modalitate prin care aș putea evita personal acest lucru”, a spus Anita. „Și nu cred că ar trebui să fiu responsabilă nici pentru asta. Nu este problema mea și nu este vina mea.”
Acest lucru i se poate întâmpla oricui
Este nevoie doar de o mână de imagini. Un Instagram public. O fotografie de la școală. Un album partajat. Odată ce o față este online, aceasta poate fi copiată, extrasă și utilizată greșit.
Potrivit profesorului Carsten Maple de la Centrul de Securitate Cibernetică al Universității din Warwick, cu instrumentele AI de astăzi, doar 20 de fotografii sunt suficiente pentru a crea un profil realist al cuiva, sau chiar un videoclip de 30 de secunde, extinzând sfera pericolelor potențiale — un fapt pe care 53 % dintre părinții chestionați recent nu îl cunoșteau.
The New York Times a raportat despre creșterea așa-numitelor aplicații „nudifier”(fereastră nouă) care pot elimina hainele din fotografii folosind AI. Aceste aplicații sunt ieftine, ușor de utilizat și disponibile pe scară largă. Anchetatorii estimează că industria aduce aproximativ 36 de milioane de dolari pe an. În ciuda unei noi legi din SUA care face ilegală postarea de nuduri false neconsensuale, aplicațiile în sine rămân legale. „Orice copil cu accesare la internet poate fi atât victimă, cât și autor”, a declarat pentru New York Times Alexios Mantzarlis, a cărui echipă a investigat 85 de astfel de site-uri.
Conturile private nu sunt o garanție a siguranței. Abuzatorii sunt adesea oameni pe care victima îi cunoaște. Chiar și postările aparent inofensive, cum ar fi petrecerile de ziua de naștere, pot dezvălui detalii care alimentează furtul de identitate, care a afectat aproximativ 1,1 milioane de copii în 2024.
„Oamenii care [fac deepfake-uri] uită adesea că este înfiorător, că este inadecvat — de exemplu, dacă colegii și prietenii lor ar ști, ar fi concediați și ostracizați. Ar pierde pe toți cei pe care îi cunosc, părinții lor ar fi dezamăgiți de ei, nu?” a spus ea. „Dar, când ești online și faci acest material unul pentru celălalt cu o grămadă de ciudați cu aceleași idei, atunci este doar un hobby și o distracție pentru ei. Ei reușesc complet să ocolească, să uite și să se amăgească cu privire la impactul pe care îl are asupra vieții oamenilor.”
Riscul deepfake merge mult dincolo de rețelele sociale
Astăzi, cel mai mare risc poate proveni din ceea ce este partajat pe rețelele sociale. Dar ce zici de toate fotografiile pe care nu le partajezi deloc?
Google, Apple, Amazon, Meta și alții oferă stocare în cloud pentru fotografiile dvs., uneori gratuit. Dar această comoditate vine totuși cu un cost. Google vă folosește fotografiile pentru a antrena AI cel puțin din 2015, când a fost forțat să își ceară scuze pentru clasificarea unui cuplu de culoare drept „gorile”.(fereastră nouă) De atunci, toți furnizorii majori de stocare au devenit mult mai buni la recunoașterea facială. Cum credeți că s-a întâmplat asta? Mai multe fotografii, hrănind constant AI-ul.
Miliardele de fotografii și videoclipuri stocate cu Big Tech sunt o vastă comoară de material care ar putea fi într-o zi hrană pentru generarea de deepfake-uri incredibil de detaliate și realiste.
Este nevoie doar de o modificare discretă în condițiile serviciului.
Protejați-vă amintirile așa cum vă protejați parolele
Nu puteți controla ce fac alții cu imaginea dvs. Dar puteți controla unde se află imaginile dvs. și cine are accesare la ele. Proton Drive vă oferă o modalitate privată și criptată de a stoca fotografiile și fișierele care contează cel mai mult.
- Criptare de la un capăt la altul: Fișierele dvs. sunt criptate înainte de a părăsi dispozitivul. Spre deosebire de Big Tech, nici măcar Proton nu le poate vedea.
- Privat în mod implicit: Datele dvs. nu sunt niciodată vândute, partajate sau folosite pentru a antrena AI.
- Partajare sigură: Adăugați parole, setați date de expirare sau revocați accesarea oricând.
- Backup automat: Chiar dacă telefonul dvs. este pierdut sau furat, amintirile dvs. rămân în siguranță.
Cu Proton Drive, datele dvs. rămân ale dvs. — întotdeauna.






