Gli uomini credevano a ciò che vedevano online: un sito web pieno di immagini esplicite generate dall’IA del suo volto sul corpo di qualcun altro, accanto al suo vero indirizzo di casa. Il sito sosteneva che la sua casa fosse un bordello.

Sweet Anita, una delle streamer più riconoscibili di Twitch, comprendeva i rischi di essere una donna online e ha preso precauzioni. Ha nascosto il suo vero nome, stabilito confini e assunto un team. Niente di tutto ciò ha impedito a qualcuno di creare deepfake su di lei.

Niente l’ha preparata per ciò che è successo dopo.

La storia di Sweet Anita

Un uomo anonimo ha commissionato pornografia generata dall’IA su di lei, poi ha costruito un sito web falso incastrandola come una lavoratrice del sesso — e ha elencato il suo indirizzo di casa. L’intera configurazione è stata progettata per attirare uomini a casa sua con la falsa aspettativa di poterla costringere a fare sesso. “Dopo che lo ha fatto, ho iniziato a ricevere uomini che venivano a casa mia, specialmente quando trasmettevo in diretta ed ero lontana da casa”, ha detto. “Non mi sento al sicuro a casa mia.”

Sconosciuti con borsoni hanno cercato di irrompere. Aveva paura di ricevere posta dal postino. Ha dovuto smettere di rispondere alla porta e di lasciare la casa incustodita. Si è trasferita in passato, ma continuavano a trovarla.

E l’abuso non si limitava alla soglia di casa. La sua defunta madre, orgogliosa del lavoro di sua figlia, controllava i social media di Anita e ed era costretta a scorrere immagini esplicite generate dall’IA. Anche amici e colleghi le vedevano. “Potrei eliminare tutto da YouTube, Twitch, tutti i miei social — e ci sarebbero ancora un sacco di immagini del mio volto nei video che potrebbero essere utilizzate come riferimento”, ha detto.

I deepfake sono il nuovo bullismo

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Secondo una ricerca di Girlguiding(nuova finestra), più di un adolescente su quattro afferma di aver visto un deepfake esplicito di qualcuno che conosce — un compagno di classe, un insegnante, un amico o persino se stesso. La CNN riporta(nuova finestra) che il 40% degli studenti e il 29% degli insegnanti hanno affermato di essere a conoscenza di un deepfake di qualcuno collegato alla loro scuola nell’ultimo anno, e il 15% degli studenti ha affermato di aver visto versioni esplicite. La maggior parte delle scuole non ha Policy per affrontare questa forma di abuso.

I danni sono gravi. Le vittime possono soffrire di ansia, depressione e persino PTSD. Potrebbero ritirarsi socialmente, perdere amici o evitare di candidarsi per lavori o università perché i falsi espliciti potrebbero emergere durante una ricerca. Alcuni sono persino costretti a spendere soldi cercando di ripulire i contenuti da internet.

Il World Economic Forum nota(nuova finestra) che mentre i deepfake non hanno destabilizzato le elezioni come molti temevano, sono diventati uno strumento per molestie e truffe. La pornografia non consensuale è la forma più estrema, ma gli aggressori utilizzano anche voci clonate e videochiamate false per commettere frodi. Nel 2024, un lavoratore finanziario a Hong Kong è stato truffato pagando 25 milioni di dollari dopo essersi unito a una chiamata Zoom in cui ogni partecipante — incluso il CFO — era un deepfake(nuova finestra).

“Per il resto della mia vita, non vedo un modo in cui potrei mai evitare personalmente questo”, ha detto Anita. “E non penso nemmeno che dovrei esserne responsabile. Non è un mio problema, e non è colpa mia.”

Questo potrebbe accadere a chiunque

Basta una manciata di immagini. Un Instagram pubblico. Una foto scolastica. Un album condiviso. Una volta che un volto è online, può essere copiato, prelevato (scraped) e utilizzato in modo improprio.

Secondo il professor Carsten Maple del Cyber Security Centre dell’Università di Warwick, con gli strumenti di IA di oggi, bastano 20 foto per creare un profilo realistico di qualcuno, o anche un video di 30 secondi, ampliando la portata dei potenziali pericoli — un fatto che il 53% dei genitori intervistati di recente non sapeva.

Il New York Times ha riferito sull’aumento delle cosiddette “app nudifier”(nuova finestra) che possono spogliare i vestiti dalle foto utilizzando l’IA. Queste app sono economiche, facili da usare e ampiamente disponibili. Gli investigatori stimano che l’industria incassi circa 36 milioni di dollari all’anno. Nonostante una nuova legge statunitense renda illegale pubblicare nudi falsi non consensuali, le app stesse rimangono legali. “Qualsiasi bambino con accesso a internet può essere sia una vittima che un autore”, ha detto al New York Times Alexios Mantzarlis, il cui team ha indagato su 85 di questi siti.

Gli account privati non sono una garanzia di sicurezza. Gli abusatori sono spesso persone che la vittima conosce. Anche post apparentemente innocui, come feste di compleanno, possono rivelare dettagli che alimentano il furto d’identità, che ha colpito circa 1,1 milioni di bambini nel 2024.

“Le persone che [creano deepfake] spesso dimenticano che è inquietante, che è inappropriato — tipo, se i loro colleghi e amici lo sapessero, verrebbero licenziati e ostracizzati. Perderebbero tutti quelli che conoscono, i loro genitori sarebbero delusi da loro, giusto?” ha detto. “Ma, quando sei online e stai creando questo materiale l’uno per l’altro con un gruppo di fanatici che la pensano allo stesso modo, allora è solo un hobby e un passatempo per loro. Riescono completamente a schivare e dimenticare e a illudersi sull’impatto che ha sulla vita delle persone.”

Il rischio deepfake va ben oltre i social media

Oggi, il rischio più grande potrebbe derivare da ciò che viene condiviso sui social media. Ma che dire di tutte le foto che non condividi affatto?

Google, Apple, Amazon, Meta e altri offrono tutti archiviazione cloud per le tue foto, a volte gratuitamente. Ma quella comodità ha comunque un costo. Google utilizza le tue foto per addestrare l’IA almeno dal 2015, quando è stata costretta a chiedere scusa per aver classificato una coppia nera come “gorilla”.(nuova finestra) Da allora, tutti i principali fornitori di archiviazione sono migliorati molto nel riconoscimento facciale. Come pensi che sia successo? Più foto, che alimentano costantemente l’IA.

I miliardi di foto e video archiviati con le Big Tech sono un vasto tesoro di materiale che un giorno potrebbe essere foraggio per generare deepfake incredibilmente dettagliati e realistici.

Basta un cambiamento silenzioso nei termini di servizio.

Proteggi i tuoi ricordi come proteggi le tue password

Non puoi controllare cosa fanno gli altri con la tua immagine. Ma puoi controllare dove vivono le tue immagini e chi ha accesso ad esse. Proton Drive ti offre un modo privato e crittografato per archiviare le foto e i file che contano di più.

  • Crittografia end-to-end: I tuoi file vengono crittografati prima di lasciare il tuo dispositivo. A differenza delle Big Tech, nemmeno Proton può vederli.
  • Privato per impostazione predefinita: I tuoi dati non vengono mai venduti, condivisi o utilizzati per addestrare l’IA.
  • Condivisione sicura: Aggiungi password, imposta date di scadenza o revoca l’accesso in qualsiasi momento.
  • Backup automatico: Anche se il tuo telefono viene smarrito o rubato, i tuoi ricordi rimangono al sicuro.

Con Proton Drive, i tuoi dati rimangono tuoi — sempre.