Un error común es pensar que si no usas grandes modelos de lenguaje (LLM) como ChatGPT para chats, Midjourney para generar imágenes o Sora para generar vídeos, estás a salvo de la inteligencia artificial (IA). La uses o no, la IA ya toca tu vida.
Por ejemplo, cuando haces fotos en Android, Google Fotos escanea y etiqueta automáticamente a cada persona en tu fototeca usando reconocimiento facial. Publicar en redes sociales sin cambiar tus ajustes predeterminados crea publicaciones públicas que pueden ser rastreadas para los conjuntos de datos masivos utilizados para entrenar LLM. Incluso los anuncios personalizados en sitios web o aplicaciones funcionan con IA entrenada con tus preferencias de navegación y compras.
Esa comodidad cuesta tu privacidad y puede tener un profundo impacto en tu vida. Veinte fotos sacadas del feed social de tu hijo son suficientes para crear un vídeo deepfake de 30 segundos que puede usarse para chantaje, acoso o robo de identidad.
Esto es lo que está en juego cuando la IA tiene acceso a tus datos personales y lo que puedes hacer para proteger tu privacidad online.
- ¿Cómo pone la IA en riesgo tu privacidad?
- Tus datos personales pueden ser recopilados
- Puedes ser reidentificado
- Tus datos pueden compartirse con terceros
- Las solicitudes de eliminación de datos pueden no funcionar
- Otras personas pueden ver tus chats privados
- Puedes recibir un trato injusto
- La segmentación de anuncios es cada vez más precisa
- El almacenamiento en la nube puede exponer tus datos
- La IA puede cometer errores
- Cualquiera puede crear deepfakes
- Cómo mantener tus datos privados frente a los sistemas de IA
¿Cómo pone la IA en riesgo tu privacidad?
La IA puede erosionar la privacidad recopilando demasiado, infiriendo demasiado y compartiendo demasiado.
Tus datos personales pueden ser recopilados
Los sistemas de IA se vuelven más precisos entrenándose con cantidades masivas de datos, a menudo extraídos de fuentes disponibles públicamente, como tus publicaciones de Facebook(ventana nueva), fotos de Flickr(ventana nueva) o hilos de Reddit(ventana nueva). Las publicaciones casuales en redes sociales, fotos familiares y detalles del perfil (que a menudo contienen información confidencial y se compartieron originalmente por motivos personales o sociales) se han incluido en conjuntos de datos utilizados para entrenar LLM de miles de millones de dólares y sistemas de reconocimiento facial. Esto sucede porque las Big Tech tratan el contenido online como disponible gratuitamente para el uso de la IA, sin consentimiento explícito ni respeto por la propiedad intelectual.
Puedes ser reidentificado
Las empresas tecnológicas afirman que tus datos personales no pueden rastrearse hasta ti una vez que han sido desidentificados o seudonimizados, lo que significa que se eliminan identificadores obvios como nombres o números de teléfono. Pero esta protección es frágil, ya que los conjuntos de datos anonimizados pueden reidentificarse cruzándolos con otras fuentes de datos, como perfiles de redes sociales o rastros de geolocalización.
Por ejemplo, usuarios de Netflix han sido reidentificados(ventana nueva) comparando sus calificaciones anónimas de películas con información de IMDb. Un estudio(ventana nueva) muestra que casi cualquier estadounidense puede ser singularizado en cualquier conjunto de datos con solo 15 marcadores demográficos. Sumando el poder de coincidencia de patrones de la IA, la reidentificación se ha vuelto más rápida, fácil y accesible para cualquiera.
Tus datos pueden compartirse con terceros
Cuando utilizas sistemas de IA, tus datos no siempre se quedan en la empresa en la que te registraste. Pueden compartirse con socios o procesadores externos (algunos de los que probablemente nunca hayas oído hablar) que pueden manejar tus datos bajo sus propios términos y estándares de seguridad.
En ese punto, la privacidad se convierte en un ejercicio de confianza. Ya no dependes solo de la empresa que conoces para proteger tu información, sino de toda una cadena de actores externos desconocidos, cada uno con su propia infraestructura, políticas y vulnerabilidades. Cada mano que toca tus datos amplía la superficie de ataque, y la responsabilidad se difumina.
Por ejemplo, una vulneración que involucró a un socio de OpenAI provocó la exposición de datos de usuarios de la API, mostrando cómo el acceso de terceros puede convertirse en el eslabón más débil del sistema.
Las solicitudes de eliminación de datos pueden no funcionar
Una vez que tus datos entrenan un modelo de IA, recuperarlos es casi imposible porque moldean el comportamiento general del modelo. El desaprendizaje automático (técnicas para hacer que un modelo olvide) todavía está en sus primeras etapas, por lo que la única opción hoy sería reentrenar el modelo. E incluso si una empresa afirma haber cumplido con tu solicitud de eliminación de datos, prácticamente no hay forma de confirmarlo(ventana nueva).
Otras personas pueden ver tus chats privados
LLM como ChatGPT(ventana nueva), Meta AI(ventana nueva) y Grok(ventana nueva) han expuesto conversaciones privadas a través de sus funciones de compartir, con chats indexados por motores de búsqueda y accesibles públicamente. Las plataformas no fueron lo suficientemente transparentes sobre este riesgo, dejando a los usuarios sin saber que lo que parecía un intercambio privado podría terminar visible para cualquiera en Internet.
Puedes recibir un trato injusto
Si los datos utilizados por los sistemas de IA para aprender patrones contienen sesgos ocultos (como desigualdades históricas o conjuntos de datos incompletos), la IA puede reforzar o amplificar esos patrones. Lo que está en juego es más importante con los sistemas de IA no privados de las Big Tech, que son de código cerrado y operan como cajas negras que no pueden ser revisadas de forma independiente. Estos sistemas pueden utilizar atributos sensibles como la raza, el género o el código postal para tomar decisiones automatizadas en vigilancia policial predictiva(ventana nueva), contratación(ventana nueva), atención sanitaria(ventana nueva) o calificación crediticia(ventana nueva).
La segmentación de anuncios es cada vez más precisa
Si bien la IA no privada hace que los anuncios sean más inteligentes al permitir la hipersegmentación, a menudo invade la privacidad de toda tu familia. Por ejemplo, Publicis, un corredor de datos y la mayor empresa de publicidad del mundo, afirma perfilar a 2300 millones de personas y rastrear detalles como preferencias familiares e ingresos(ventana nueva) para decidir si dirigirles productos económicos o prémium.
Con los chatbots de IA reemplazando la búsqueda tradicional, los anuncios nos siguen a este nuevo espacio. Por ejemplo, Perplexity está incrustando anuncios en respuestas generadas por IA(ventana nueva) y ha hecho una oferta de 34 500 millones de dólares para comprar Google Chrome, una medida destinada a obtener acceso a los más de 3000 millones de usuarios del navegador y los datos de comportamiento íntimos que conlleva.
El almacenamiento en la nube puede exponer tus datos
Los proveedores de almacenamiento en la nube sin cifrado de extremo a extremo (E2EE) pueden acceder a las fotos, documentos y archivos confidenciales que subes. También pueden usar esos datos para impulsar herramientas de IA, generar información sobre ti o mostrar anuncios personalizados.
Google Drive, por ejemplo, conserva el acceso a tus datos y los usa para funciones de IA como el corrector ortográfico y el autocompletado en Google Docs. Si Gemini, el asistente de IA de Google, permanece estrechamente integrado con Google Workspace, las consultas que hagas sobre tus archivos de Drive también podrían alimentar el entrenamiento de la IA.
Del mismo modo, Microsoft ha anunciado que Word, Excel y PowerPoint pronto tendrán guardado automático en OneDrive por defecto, otro servicio sin E2EE donde el uso futuro de tus datos para publicidad o entrenamiento de IA sigue siendo incierto.
La IA puede cometer errores
Los sistemas automatizados podrían escanear tus comunicaciones privadas y marcarlas como sospechosas. La ley de Control de Chat propuesta por la UE requeriría que los servicios de mensajería como WhatsApp y Signal usaran IA para escanear cada mensaje privado y foto para detectar material de abuso sexual infantil (CSAM).
Pero esto significa monitorizar las conversaciones de todos, no solo las de presuntos delincuentes. Y la historia muestra lo fácil que es que la IA cometa errores. La cuenta de Google de un padre, por ejemplo, fue cancelada(ventana nueva) y denunciada a las autoridades después de enviar una foto de su hijo a un médico. Lo que debería quedar entre tú y tu médico, o tú y tu familia, podría quedar repentinamente expuesto a empresas tecnológicas y a las fuerzas del orden.
Cualquiera puede crear deepfakes
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Los delincuentes explotan los deepfakes para el robo de identidad, el fraude, el chantaje o el daño a la reputación, y los riesgos se extienden a los niños. En 2019, unos delincuentes usaron audio deepfake para imitar la voz de un director ejecutivo(ventana nueva) y engañaron a un empleado para que transfiriera 220 000 €. Los riesgos también se extienden a los niños. En un incidente, un depredador creó una imagen deepfake de una niña de 14 años(ventana nueva) para extorsionar dinero amenazando con compartirla.
Cómo mantener tus datos privados frente a los sistemas de IA
Hay muchas preocupaciones de privacidad con los sistemas de IA, particularmente los modelos no privados y de código cerrado administrados por las Big Tech. Y aunque no puedes evitar por completo que estos sistemas extraigan o hagan un mal uso de tus datos una vez que están ahí fuera, puedes reducir tu huella, exigir responsabilidad y elegir una IA que priorice la privacidad y que no explote tus datos. Esto es lo que puedes hacer:
- En las redes sociales, haz que tus perfiles y publicaciones sean privados, elimina las cargas antiguas, borra los datos EXIF de las fotos antes de compartirlas y evita compartir detalles identificables, como direcciones, nombres completos de niños o las escuelas a las que asisten. Obtén más información sobre cómo administrar Internet para tu familia.
- Revisa los ajustes de privacidad de tus aplicaciones. Por ejemplo, Meta AI podría estar escaneando las fotos de tu carrete y vídeos en la aplicación de Facebook para Android e iOS.
- Protégete contra los deepfakes desenfocando o censurando las caras de tu familia antes de publicar fotos online.
- Enmascara tu huella digital usando una red privada virtual (VPN)(ventana nueva) para ocultar tu dirección IP, y usa alias para proteger tu dirección de correo electrónico cuando publiques información confidencial que no quieras que se rastree hasta ti.
- Usa servicios que prioricen la privacidad y que no moneticen tus datos, como Signal para mensajería segura y Brave o DuckDuckGo para navegación privada.
- Para almacenar de forma segura tus archivos más confidenciales, incluidas fotos privadas y documentos confidenciales, utiliza Proton Drive para un almacenamiento en la nube cifrado de extremo a extremo. A diferencia de las plataformas que pueden exponer contenido supuestamente privado, Drive no escanea, indexa ni utiliza tus datos para el entrenamiento de IA, y nadie más puede verlos, incluso cuando eliges compartirlos. Mantener tus fotos verdaderamente privadas también significa que no terminarán online, donde podrían usarse indebidamente para crear deepfakes.
- Opta por no participar en el entrenamiento de IA siempre que sea posible, como en Gemini, ChatGPT(ventana nueva), Claude(ventana nueva) o Meta AI. Las políticas pueden cambiar de la noche a la mañana con poca advertencia, así que si quieres los beneficios tanto de la IA como de la privacidad, cámbiate a Lumo, nuestro asistente de IA que prioriza la privacidad(ventana nueva) y que no guarda registros ni se entrena con tus datos.
Unas regulaciones más estrictas sobre la privacidad de la IA, como la Ley de IA de la UE(ventana nueva), serán fundamentales para devolver el poder a los usuarios de Internet. Hasta entonces, la mejor defensa es ser consciente de lo que compartes online, exigir responsabilidad a las empresas que construyen estos sistemas y elegir herramientas de IA transparentes(ventana nueva) que respeten la privacidad desde el principio.




