Os homens acreditaram no que viram online: um sítio web cheio de imagens explícitas geradas por IA do rosto dela no corpo de outra pessoa, juntamente com o seu endereço de casa real. O sítio afirmava que a casa dela era um bordel.
Sweet Anita, uma das streamers mais reconhecíveis da Twitch, compreendeu os riscos de ser uma mulher online e tomou precauções. Ela ocultou o seu nome verdadeiro, estabeleceu limites e contratou uma equipa. Nada disso impediu alguém de criar deepfakes dela.
Nada a preparou para o que veio a seguir.
A história de Sweet Anita
Um homem anónimo encomendou pornografia gerada por IA dela, depois construiu um sítio web falso enquadrando-a como trabalhadora do sexo — e listou o seu endereço de casa. Toda a configuração foi concebida para atrair homens para a sua casa com a falsa expectativa de que poderiam forçá-la a ter sexo. “Depois de ele ter feito isso, comecei a ter homens a vir a minha casa, especialmente quando fazia transmissões ao vivo e estava longe de casa”, disse ela. “Não me sinto segura na minha própria casa.”
Estranhos com sacos de desporto tentaram arrombar a entrada. Ela tinha medo de receber correio do carteiro. Teve de parar de abrir a porta e de deixar a casa sem vigilância. Ela já tinha mudado de casa antes, mas eles continuavam a encontrá-la.
E o abuso não se limitou à sua porta. A sua falecida mãe, orgulhosa do trabalho da filha, consultava as redes sociais de Anita e era forçada a passar por imagens explícitas geradas por IA. Amigos e colegas de trabalho também as viram. “Eu podia eliminar tudo do YouTube, Twitch, todas as minhas redes sociais — e ainda haveria imensas imagens do meu rosto em vídeos que poderiam ser usadas como referência”, disse ela.
Os deepfakes são o novo bullying
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
De acordo com uma investigação da Girlguiding(nova janela), mais de um em cada quatro adolescentes dizem ter visto um deepfake explícito de alguém que conhecem — um colega de turma, um professor, um amigo ou até eles próprios. A CNN reporta(nova janela) que 40 % dos estudantes e 29 % dos professores disseram ter conhecimento de um deepfake de alguém ligado à sua escola no último ano, e 15 % dos estudantes disseram ter visto versões explícitas. A maioria das escolas não tem políticas para lidar com esta forma de abuso.
Os danos são graves. As vítimas podem sofrer de ansiedade, depressão e até TEPT. Podem isolar-se socialmente, perder amigos ou evitar candidatar-se a empregos ou faculdades porque falsificações explícitas poderiam surgir durante uma pesquisa. Alguns são até forçados a gastar dinheiro a tentar remover conteúdo da internet.
O Fórum Económico Mundial nota(nova janela) que, embora os deepfakes não tenham desestabilizado eleições como muitos temiam, tornaram-se uma ferramenta para assédio e burlas. A pornografia não consensual é a forma mais extrema, mas os atacantes também usam vozes clonadas e chamadas de vídeo falsas para cometer fraudes. Em 2024, um trabalhador financeiro em Hong Kong foi enganado a pagar 25 milhões de dólares depois de participar numa chamada de Zoom em que todos os participantes — incluindo o CFO — eram um deepfake(nova janela).
“Para o resto da minha vida, não vejo uma forma de alguma vez poder evitar pessoalmente isto”, disse Anita. “E também não acho que deva ser responsável por isso. Não é o meu problema, e não é culpa minha.”
Isto podia acontecer a qualquer pessoa
Bastam algumas imagens. Um Instagram público. Uma fotografia de escola. Um álbum partilhado. Assim que um rosto está online, pode ser copiado, extraído e mal utilizado.
De acordo com o Professor Carsten Maple do Centro de Segurança Cibernética da Universidade de Warwick, com as ferramentas de IA de hoje, apenas 20 fotografias são suficientes para criar um perfil realista de alguém, ou até um vídeo de 30 segundos, expandindo o âmbito dos perigos potenciais — um facto que 53 % dos pais inquiridos recentemente não sabiam.
O New York Times noticiou o aumento das chamadas “aplicações nudificadoras”(nova janela) que conseguem remover a roupa de fotografias usando IA. Estas aplicações são baratas, fáceis de usar e amplamente disponíveis. Os investigadores estimam que a indústria gera cerca de 36 milhões de dólares por ano. Apesar de uma nova lei dos EUA tornar ilegal publicar nus falsos não consensuais, as próprias aplicações permanecem legais. “Qualquer criança com acesso à internet pode ser tanto uma vítima como um perpetrador”, disse Alexios Mantzarlis, cuja equipa investigou 85 desses sítios, ao New York Times.
As contas privadas não são uma garantia de segurança. Os abusadores são muitas vezes pessoas que a vítima conhece. Até publicações aparentemente inofensivas, como festas de aniversário, podem revelar detalhes que alimentam o roubo de identidade, que afetou cerca de 1,1 milhões de crianças em 2024.
“As pessoas que [fazem deepfakes] esquecem-se muitas vezes de que é assustador, de que é inapropriado — tipo, se os seus colegas de trabalho e amigos soubessem, seriam despedidos e ostracizados. Perderiam toda a gente que conhecem, os seus pais ficariam desapontados com eles, certo?”, disse ela. “Mas, quando estás online e estás a fazer este material para os outros com um bando de assustadores que pensam da mesma forma, então é apenas um hobby e um passatempo para eles. Eles conseguem contornar e esquecer completamente e iludir-se sobre o impacto que isso tem na vida das pessoas.”
O risco de deepfake vai muito além das redes sociais
Hoje, o maior risco pode vir do que é partilhado nas redes sociais. Mas e quanto a todas as fotografias que não partilha de todo?
A Google, Apple, Amazon, Meta e outras oferecem todas armazenamento na nuvem para as suas fotografias, por vezes gratuitamente. Mas essa conveniência ainda tem um custo. A Google tem usado as suas fotografias para treinar a IA desde pelo menos 2015, quando foi forçada a pedir desculpa por classificar um casal negro como “gorilas”.(nova janela) Desde então, todos os principais fornecedores de armazenamento tornaram-se muito melhores no reconhecimento facial. Como acha que isso aconteceu? Mais fotografias, a alimentar constantemente a IA.
Os milhares de milhões de fotografias e vídeos a ser armazenados com a Big Tech são um vasto tesouro de material que um dia poderia servir de alimento para gerar deepfakes incrivelmente detalhados e realistas.
Basta uma mudança silenciosa nos Termos de serviço.
Proteja as suas memórias como protege as suas palavras-passe
Não pode controlar o que os outros fazem com a sua imagem. Mas pode controlar onde as suas imagens vivem e quem tem acesso a elas. O Proton Drive dá-lhe uma forma privada e encriptada de armazenar as fotografias e ficheiros que mais importam.
- Encriptação ponto a ponto: Os seus ficheiros são encriptados antes de deixarem o seu dispositivo. Ao contrário da Big Tech, nem mesmo a Proton consegue vê-los.
- Privado por predefinição: Os seus dados nunca são vendidos, partilhados ou utilizados para treinar a IA.
- Partilha segura: Adicione palavras-passe, defina datas de expiração ou revogue o acesso a qualquer momento.
- Cópia de segurança automática: Mesmo que o seu telemóvel seja perdido ou roubado, as suas memórias permanecem seguras.
Com o Proton Drive, os seus dados permanecem seus — sempre.






