Los hombres creyeron lo que vieron en línea: un sitio web lleno de imágenes explícitas generadas por IA de su rostro en el cuerpo de otra persona, junto con su dirección particular real. El sitio afirmaba que su casa era un burdel.

Sweet Anita, una de las streamers más reconocidas de Twitch, comprendió los riesgos de ser una mujer en línea y tomó precauciones. Ocultó su nombre real, estableció límites y contrató a un equipo. Nada de eso impidió que alguien creara un deepfake de ella.

Nada la preparó para lo que vino después.

La historia de Sweet Anita

Un hombre anónimo encargó pornografía generada por IA de ella, luego construyó un sitio web falso que la incriminaba como trabajadora sexual, y enumeró su dirección particular. Toda la configuración fue diseñada para atraer a hombres a su casa con la falsa expectativa de que podrían obligarla a tener relaciones sexuales. «Después de que hizo eso, comencé a recibir hombres que venían a mi casa, especialmente cuando hacía transmisiones en vivo y estaba lejos de casa», dijo. «No me siento segura en mi propia casa».

Desconocidos con bolsas de deporte intentaron entrar. Tenía miedo de recibir correo del cartero. Tuvo que dejar de abrir la puerta y de dejar la casa desatendida. Se ha mudado antes, pero siguieron encontrándola.

Y el abuso no se limitó a la puerta de su casa. Su difunta madre, orgullosa del trabajo de su hija, revisaba las redes sociales de Anita y se veía obligada a desplazarse por imágenes explícitas generadas por IA. Amigos y compañeros de trabajo también las vieron. «Podría eliminar todo de YouTube, Twitch, todas mis redes sociales, y todavía habría montones de imágenes de mi cara en videos que podrían usarse como referencia», dijo.

Los deepfakes son el nuevo acoso escolar

Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.

Según una investigación de Girlguiding(nueva ventana), más de una de cada cuatro adolescentes dicen haber visto un deepfake explícito de alguien que conocen: un compañero de clase, un maestro, un amigo o incluso ellas mismas. CNN informa(nueva ventana) que el 40 % de los estudiantes y el 29 % de los maestros dijeron que sabían de un deepfake de alguien conectado a su escuela en el último año, y el 15 % de los estudiantes dijeron que habían visto versiones explícitas. La mayoría de las escuelas no tienen políticas para lidiar con esta forma de abuso.

Los daños son graves. Las víctimas pueden sufrir ansiedad, depresión e incluso TEPT. Pueden aislarse socialmente, perder amigos o evitar solicitar trabajos o universidades porque las falsificaciones explícitas podrían surgir durante una búsqueda. Algunas incluso se ven obligadas a gastar dinero tratando de eliminar contenido de Internet.

El Foro Económico Mundial señala(nueva ventana) que, si bien los deepfakes no desestabilizaron las elecciones como muchos temían, se han convertido en una herramienta para el acoso y las estafas. La pornografía no consensuada es la forma más extrema, pero los atacantes también usan voces clonadas y videollamadas falsas para cometer fraudes. En 2024, un trabajador financiero en Hong Kong fue engañado para que pagara 25 millones de dólares después de unirse a una llamada de Zoom en la que cada participante, incluido el director financiero, era un deepfake(nueva ventana).

«Por el resto de mi vida, no veo una manera de evitar esto personalmente», dijo Anita. «Y tampoco creo que deba ser responsable de eso. No es mi problema y no es mi culpa».

Esto podría sucederle a cualquiera

Solo se necesitan un puñado de imágenes. Un Instagram público. Una foto escolar. Un álbum compartido. Una vez que una cara está en línea, se puede copiar, extraer y usar indebidamente.

Según el profesor Carsten Maple del Centro de Seguridad Cibernética de la Universidad de Warwick, con las herramientas de IA actuales, tan solo 20 fotos son suficientes para crear un perfil realista de alguien, o incluso un video de 30 segundos, ampliando el alcance de los peligros potenciales, un hecho que el 53 % de los padres encuestados recientemente no sabían.

The New York Times informó sobre el auge de las llamadas «aplicaciones para desnudar»(nueva ventana) que pueden quitar la ropa de las fotos usando IA. Estas aplicaciones son baratas, fáciles de usar y están ampliamente disponibles. Los investigadores estiman que la industria genera alrededor de 36 millones de dólares al año. A pesar de una nueva ley estadounidense que hace ilegal publicar desnudos falsos no consensuados, las aplicaciones en sí mismas siguen siendo legales. «Cualquier niño con acceso a Internet puede ser tanto una víctima como un perpetrador», dijo al New York Times Alexios Mantzarlis, cuyo equipo investigó 85 sitios de este tipo.

Las cuentas privadas no son una garantía de seguridad. Los abusadores suelen ser personas que la víctima conoce. Incluso las publicaciones aparentemente inofensivas, como fiestas de cumpleaños, pueden revelar detalles que alimentan el robo de identidad, que afectó a aproximadamente 1,1 millones de niños en 2024.

«Las personas que [hacen deepfakes] a menudo olvidan que es espeluznante, que es inapropiado; es decir, si sus compañeros de trabajo y amigos lo supieran, serían despedidos y excluidos. Perderían a todos los que conocen, sus padres estarían decepcionados de ellos, ¿verdad?», dijo. «Pero, cuando estás en línea y estás haciendo este material el uno para el otro con un grupo de personas espeluznantes de ideas afines, entonces es solo un pasatiempo para ellos. Consiguen eludir por completo y olvidar y engañarse sobre el impacto que tiene en la vida de las personas».

El riesgo de los deepfakes va mucho más allá de las redes sociales

Hoy, el mayor riesgo puede provenir de lo que se comparte en las redes sociales. Pero, ¿qué pasa con todas las fotos que usted no comparte en absoluto?

Google, Apple, Amazon, Meta y otros ofrecen almacenamiento en la nube para sus fotos, a veces de forma gratuita. Pero esa conveniencia todavía tiene un costo. Google ha estado usando sus fotos para entrenar IA desde al menos 2015, cuando se vio obligado a disculparse por clasificar a una pareja negra como «gorilas».(nueva ventana) Desde entonces, todos los principales proveedores de almacenamiento han mejorado mucho en el reconocimiento facial. ¿Cómo cree que sucedió eso? Más fotos, alimentando constantemente a la IA.

Los miles de millones de fotos y videos almacenados con las grandes tecnológicas son un vasto tesoro de material que algún día podría ser forraje para generar deepfakes increíblemente detallados y realistas.

Todo lo que se necesita es un cambio silencioso en los Términos de servicio.

Proteja sus recuerdos como protege sus contraseñas

No puede controlar lo que otros hacen con su imagen. Pero puede controlar dónde viven sus imágenes y quién tiene acceso a ellas. Proton Drive le ofrece una forma privada y cifrada de almacenar las fotos y los archivos que más importan.

  • Cifrado de extremo a extremo: Sus archivos se cifran antes de salir de su dispositivo. A diferencia de las grandes tecnológicas, ni siquiera Proton puede verlos.
  • Privado por defecto: Sus datos nunca se venden, comparten ni se utilizan para entrenar IA.
  • Intercambio seguro: Agregue contraseñas, establezca fechas de vencimiento o revoque el acceso en cualquier momento.
  • Copia de seguridad automática: Incluso si pierde o le roban su teléfono, sus recuerdos permanecen seguros.

Con Proton Drive, sus datos siguen siendo suyos, siempre.