Los hombres creyeron lo que vieron online: un sitio web lleno de imágenes explícitas generadas por IA de su cara en el cuerpo de otra persona, junto a su dirección real. El sitio afirmaba que su casa era un burdel.

Sweet Anita, una de las streamers más reconocibles de Twitch, entendía los riesgos de ser una mujer online y tomó precauciones. Ocultó su nombre real, estableció límites y contrató un equipo. Nada de eso impidió que alguien le hiciera un deepfake.

Nada la preparó para lo que vino después.

La historia de Sweet Anita

Un hombre anónimo encargó pornografía generada por IA de ella, luego construyó un sitio web falso presentándola como trabajadora sexual, y publicó su dirección particular. Toda la configuración fue diseñada para atraer hombres a su casa con la falsa expectativa de que podrían forzarla a tener sexo. “Después de que él hiciera eso, empecé a tener hombres viniendo a mi casa, especialmente cuando hacía directos y estaba lejos de casa”, dijo. “No me siento segura en mi propia casa”.

Desconocidos con bolsas de deporte intentaron entrar. Tenía miedo de recibir correo del cartero. Tuvo que dejar de abrir la puerta y dejar la casa desatendida. Se ha mudado antes, pero siguieron encontrándola.

Y el abuso no se limitó a la puerta de su casa. Su difunta madre, orgullosa del trabajo de su hija, revisaba las redes sociales de Anita y se veía obligada a pasar por imágenes explícitas generadas por IA. Amigos y compañeros de trabajo también las vieron. “Podría eliminar todo de YouTube, Twitch, todas mis redes sociales, y todavía habría montones de imágenes de mi cara en vídeos que podrían usarse como referencia”, dijo.

Los deepfakes son el nuevo acoso escolar

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Según una investigación de Girlguiding(ventana nueva), más de una de cada cuatro adolescentes dice haber visto un deepfake explícito de alguien que conoce: un compañero de clase, un profesor, un amigo o incluso ellas mismas. CNN informa(ventana nueva) que el 40 % de los estudiantes y el 29 % de los profesores dijeron estar al tanto de un deepfake de alguien conectado a su escuela en el último año, y el 15 % de los estudiantes dijo haber visto versiones explícitas. La mayoría de las escuelas no tienen políticas para tratar esta forma de abuso.

Los daños son graves. Las víctimas pueden sufrir ansiedad, depresión e incluso TEPT. Pueden retraerse socialmente, perder amigos o evitar solicitar trabajos o universidades porque los falsos explícitos podrían surgir durante una búsqueda. Algunas incluso se ven obligadas a gastar dinero intentando borrar contenido de internet.

El Foro Económico Mundial señala(ventana nueva) que, si bien los deepfakes no desestabilizaron las elecciones como muchos temían, se han convertido en una herramienta para el acoso y las estafas. La pornografía no consentida es la forma más extrema, pero los atacantes también utilizan voces clonadas y videollamadas falsas para cometer fraude. En 2024, un trabajador financiero en Hong Kong fue engañado para pagar 25 millones de dólares después de unirse a una llamada de Zoom en la que cada participante, incluido el director financiero, era un deepfake(ventana nueva).

“Por el resto de mi vida, no veo una manera de poder evitar esto personalmente”, dijo Anita. “Y no creo que deba ser responsable de eso tampoco. No es mi problema y no es mi culpa”.

Esto podría pasarle a cualquiera

Solo se necesita un puñado de imágenes. Un Instagram público. Una foto escolar. Un álbum compartido. Una vez que una cara está online, puede ser copiada, extraída y mal utilizada.

Según el profesor Carsten Maple del Centro de Ciberseguridad de la Universidad de Warwick, con las herramientas de IA actuales, tan solo 20 fotos son suficientes para crear un perfil realista de alguien, o incluso un vídeo de 30 segundos, ampliando el alcance de los peligros potenciales, un hecho que el 53 % de los padres encuestados recientemente no sabían.

The New York Times informó sobre el auge de las llamadas “aplicaciones para desnudar”(ventana nueva) que pueden quitar la ropa de las fotos usando IA. Estas aplicaciones son baratas, fáciles de usar y ampliamente disponibles. Los investigadores estiman que la industria genera alrededor de 36 millones de dólares al año. A pesar de una nueva ley estadounidense que hace ilegal publicar desnudos falsos no consentidos, las aplicaciones en sí mismas siguen siendo legales. “Cualquier niño con acceso a internet puede ser tanto una víctima como un perpetrador”, dijo al New York Times Alexios Mantzarlis, cuyo equipo investigó 85 sitios de este tipo.

Las cuentas privadas no son una garantía de seguridad. Los abusadores suelen ser personas que la víctima conoce. Incluso publicaciones aparentemente inofensivas, como fiestas de cumpleaños, pueden revelar detalles que alimentan el robo de identidad, que afectó a aproximadamente 1,1 millones de niños en 2024.

“La gente que [hace deepfakes] a menudo olvida que es espeluznante, que es inapropiado; como si sus compañeros de trabajo y amigos lo supieran, serían despedidos y excluidos. Perderían a todos los que conocen, sus padres estarían decepcionados de ellos, ¿verdad?”, dijo. “Pero, cuando estás online y estás haciendo este material el uno para el otro con un grupo de bichos raros afines, entonces es solo un pasatiempo para ellos. Consiguen eludir y olvidar completamente y engañarse sobre el impacto que tiene en las vidas de las personas”.

El riesgo de deepfake va mucho más allá de las redes sociales

Hoy en día, el mayor riesgo puede venir de lo que se comparte en las redes sociales. Pero, ¿qué pasa con todas las fotos que no compartes en absoluto?

Google, Apple, Amazon, Meta y otros ofrecen almacenamiento en la nube para tus fotos, a veces de forma gratuita. Pero esa conveniencia aún tiene un coste. Google ha estado usando tus fotos para entrenar IA desde al menos 2015, cuando se vio obligado a disculparse por clasificar a una pareja negra como “gorilas”.(ventana nueva) Desde entonces, todos los principales proveedores de almacenamiento han mejorado mucho en el reconocimiento facial. ¿Cómo crees que sucedió eso? Más fotos, alimentando constantemente a la IA.

Los miles de millones de fotos y vídeos almacenados con las grandes tecnológicas son un vasto tesoro de material que algún día podría ser alimento para generar deepfakes increíblemente detallados y realistas.

Todo lo que se necesita es un cambio silencioso en los términos de servicio.

Protege tus recuerdos como proteges tus contraseñas

No puedes controlar lo que otros hacen con tu imagen. Pero puedes controlar dónde viven tus imágenes y quién tiene acceso a ellas. Proton Drive te ofrece una forma privada y cifrada de almacenar las fotos y archivos que más importan.

  • Cifrado de extremo a extremo: Tus archivos se cifran antes de que salgan de tu dispositivo. A diferencia de las grandes tecnológicas, ni siquiera Proton puede verlos.
  • Privado por defecto: Tus datos nunca se venden, comparten ni utilizan para entrenar IA.
  • Compartir seguro: Añade contraseñas, establece fechas de expiración o revoca el acceso en cualquier momento.
  • Copia de seguridad automática: Incluso si pierdes o te roban el teléfono, tus recuerdos permanecen seguros.

Con Proton Drive, tus datos siguen siendo tuyos, siempre.