A medida que aumenta el uso de la inteligencia artificial, los asistentes de IA(nueva ventana) se están convirtiendo en compañeros de confianza. Millones de personas recurren a chatbots como ChatGPT, Claude, Gemini, DeepSeek y otros para hacer preguntas y resolver problemas. Sus consultas pueden ser profundamente confidenciales, preguntando sobre problemas de salud, compartiendo datos de clientes o buscando soporte emocional e inspiración creativa.

Para muchos, estos chatbots se sienten humanos, receptivos y confidenciales. Pero los desarrollos recientes (una orden legal ha obligado a OpenAI a conservar los datos de salida de ChatGPT(nueva ventana) indefinidamente, y Sam Altman, el fundador de OpenAI, dice que ChatGPT no ofrece “confidencialidad legal(nueva ventana)”) arrojan luz sobre el riesgo de que cada palabra que escriba pueda ser registrada, almacenada, analizada y posiblemente mal utilizada o filtrada a terceros.

He aquí lo que eso podría significar, y por qué debería preocuparnos a todos.

Hay más en juego con la IA

El auge de los asistentes de IA se siente como una nueva frontera, pero en muchos sentidos, ya hemos estado aquí antes. Las preocupaciones que rodean los registros de chat de IA hacen eco de las que surgieron en los primeros días de los motores de búsqueda, muchos de los cuales resultaron estar bien fundados. Los registros de búsqueda se han utilizado para crear perfiles de orientación de anuncios lucrativos, se han expuesto en vulneraciones de datos y han sido citados en los tribunales.

Con la IA, hay más en juego porque los datos son más personales y detallados. Un número creciente de personas está pasando de los motores de búsqueda a los chatbots de IA para sus respuestas, con predicciones de que el uso de motores de búsqueda caerá un 25 % para 2026(nueva ventana). A diferencia de una barra de búsqueda, que generalmente captura consultas cortas y fragmentadas, las preguntas a los chatbots se enmarcan como si los interrogadores estuvieran hablando con otra persona, revelando mucho más sobre sí mismos en el proceso. Una sola conversación puede contener pensamientos personales(nueva ventana), luchas emocionales, problemas de salud(nueva ventana), temores financieros o incluso nombres completos y direcciones.

En resumen, los registros de chat ofrecen un mapa increíblemente rico e íntimo de su identidad, más que los registros de motores de búsqueda, y con implicaciones mucho mayores para su privacidad. Las grandes tecnológicas podrían acceder a sus registros de chat y usarlos para construir un perfil psicológico sobre usted que puede ser divulgado al gobierno o usado para publicidad dirigida. Por ejemplo, Meta está utilizando datos de chat de IA para crear anuncios personalizados.

Sus chats ‘anónimos’ no siempre permanecerán así

Un argumento común en contra de preocuparse por la privacidad del registro de chat es que el gran volumen de datos hace que la explotación individual sea poco probable, especialmente cuando los usuarios no han iniciado sesión. Pero la historia reciente cuenta una historia diferente.

En julio, los reporteros descubrieron que más de 100.000 conversaciones en ChatGPT(nueva ventana) fueron indexadas por Google y se hicieron buscables. Los usuarios que hicieron clic en el botón “compartir” para enviar una conversación a amigos o colegas casi con certeza no se dieron cuenta de que sus conversaciones privadas serían visibles para todos en internet.

Este ejemplo es una advertencia: Los llamados datos “anónimos” rara vez son anónimos. Emparejados con direcciones IP, marcas de tiempo, huellas digitales de dispositivos e ID de sesión y cookie, estos registros se vuelven mucho más identificables.

Cómo los chats pueden exponer nuestras vidas interiores

Las populares plataformas de IA ChatGPT(nueva ventana), Gemini(nueva ventana) y DeepSeek(nueva ventana) afirman que los registros de chat de los usuarios se utilizan para mejorar el rendimiento del modelo y no para «vender» sus datos para publicidad o elaboración de perfiles de usuario. Pero las políticas pueden cambiar de la noche a la mañana, como muestra la batalla legal de OpenAI.

Por ejemplo, Anthropic actualizó su política de privacidad(nueva ventana) sin previo aviso en agosto de 2025 para extender el período de retención de datos. Con los registros almacenados indefinidamente, los datos personales que alguna vez parecieron estar fuera de los límites podrían convertirse repentinamente en una fuente lucrativa de ganancias.

No sería la primera vez que esto sucede. Cuando Google se lanzó en 1998, los cofundadores Sergey Brin y Larry Page advirtieron(nueva ventana) que los motores de búsqueda basados en publicidad inevitablemente estarían «intrínsecamente sesgados hacia los anunciantes y lejos de las necesidades de los consumidores». Una década después, Google comenzó a utilizar los historiales de búsqueda para segmentar anuncios(nueva ventana).

Con acceso directo a la vida interior de las personas, los registros de IA pueden llevar la segmentación publicitaria al límite. Con un número cada vez mayor de usuarios recurriendo a chatbots para obtener apoyo emocional(nueva ventana), alguien podría confiar:

  • «Me siento abrumado y solo últimamente».
  • «¿Crees que tengo depresión?»
  • «¿Qué puedo hacer si no puedo pagar el alquiler el próximo mes?»

Estas declaraciones no son solo palabras clave o una colección de interacciones, son claros significantes emocionales y situacionales. Si se almacenan y analizan, podrían usarse para construir perfiles psicológicos y manipular las decisiones de los usuarios.

No es alarmista sugerir que dicha información íntima y sensible podría utilizarse con fines de explotación, porque las grandes empresas tecnológicas han hecho exactamente eso. En 2017, Facebook demostró que ninguna interacción está fuera de los límites al explorar formas de dirigirse a adolescentes emocionalmente vulnerables(nueva ventana) con anuncios durante momentos de inseguridad.

Los registros de los chatbots son una ventana a su psique. Y ese nivel de acceso plantea importantes preocupaciones éticas y de privacidad en un sector que aún no tiene directrices y regulaciones claras sobre el uso y la aplicación de datos.

Los riesgos legales para los usuarios

El historial de búsqueda ha desempeñado durante mucho tiempo un papel en las investigaciones penales y los casos judiciales. Hay múltiples casos en los que las consultas en línea contribuyeron a veredictos de culpabilidad, en particular Moira Akers vs State en los EE. UU.

Después de sufrir un parto de feto muerto en 2018, Akers fue acusada de asesinato y en 2022 fue sentenciada a 30 años de prisión. Una parte clave del caso del fiscal fueron las búsquedas en Internet de Akers sobre el aborto, realizadas durante las primeras etapas de su embarazo. Según la fiscalía, estas búsquedas sirvieron como prueba de la intención de Akers, a pesar de que llevó el embarazo a término. La Corte Suprema de Maryland anuló su condena en 2025, dictaminando que la evidencia de la consulta de búsqueda era inadmisible(nueva ventana). Pero Akers ya había pasado casi tres años en prisión. El caso destaca cómo los registros almacenados se pueden usar para contar una historia que se ajuste a una narrativa desfavorable, incluso si hay evidencia que la contradice.

Lo que está en juego podría ser aún mayor con los chats de IA almacenados que pueden estar sujetos a evidencia legal. A diferencia de las consultas de búsqueda, estas interacciones son más conversacionales e incluso especulativas, a veces como una forma de provocar cierto tipo de respuesta del LLM, o modelo de lenguaje grande. Un intercambio privado e inocente con una IA podría interpretarse más tarde como incriminatorio en un entorno legal, independientemente de la intención en ese momento.

Una herramienta poderosa para la manipulación

Aquellos que pueden ver los registros de los chatbots pueden obtener acceso a planos de comportamiento detallados: hábitos personales, desencadenantes emocionales, dinámicas de relaciones e incluso vulnerabilidades profesionales. En las manos equivocadas, estos datos son una herramienta poderosa para la ingeniería social, que es una táctica de piratería común que implica manipulación psicológica.

Este riesgo dista mucho de ser hipotético. En enero de 2025, la plataforma de IA DeepSeek dejó una base de datos masiva expuesta en línea(nueva ventana). La vulneración incluyó más de un millón de registros de chat de IA y claves API, todos accesibles públicamente para cualquiera que supiera dónde buscar. Entre los datos expuestos había conversaciones de texto sin formato que pueden haber contenido discusiones sobre familia, finanzas y proyectos confidenciales, información que podría explotarse fácilmente para fraude, chantaje o robo de identidad.

Una vez filtrados, estos datos pueden usarse como arma para suplantar su identidad o manipularlo. Al hacer referencia a detalles personales extraídos de conversaciones pasadas, los atacantes pueden ganarse su confianza y explotarla para crear graves vulnerabilidades financieras o de seguridad.

El espectro de la vigilancia política

En regímenes autoritarios, las consecuencias de las interacciones digitales almacenadas pueden ser mucho más graves. Por ejemplo, varios países han prohibido el uso de la plataforma de IA con sede en China DeepSeek en dispositivos gubernamentales(nueva ventana) debido a preocupaciones de seguridad sobre cómo el operador maneja la información personal de los usuarios. Corea del Sur, Australia y Taiwán expresaron su preocupación de que las autoridades chinas pudieran acceder a estos datos y utilizarlos potencialmente para la vigilancia.

Para los disidentes, activistas o periodistas, esto no es solo un problema de privacidad, es una cuestión de seguridad. Una charla aparentemente informal sobre derechos de protesta, leyes de medios o rutas de asilo podría interpretarse como evidencia incriminatoria en jurisdicciones con protecciones limitadas para la libertad de expresión y las libertades civiles.

Una amenaza para la propiedad intelectual

En 2023, ingenieros de Samsung cargaron involuntariamente código fuente propietario(nueva ventana) en ChatGPT mientras intentaban depurar un problema, bajo la creencia errónea de que sus consultas eran privadas. Una vez enviados, esos datos se convirtieron en parte del sistema de entrenamiento de OpenAI, lo que generó preocupaciones sobre la seguridad y la propiedad de la propiedad intelectual compartida con las herramientas de IA.

Una preocupación relacionada surgió en el caso de derechos de autor de alto perfil presentado por The New York Times contra OpenAI(nueva ventana) mencionado al comienzo de este artículo. El caso provocó una orden judicial que requería que OpenAI preservara todos los datos de salida de ChatGPT indefinidamente después de las acusaciones de que la compañía utilizó millones de artículos del periódico para entrenar sus modelos sin permiso. Aunque el caso se centra en los rastreadores web de OpenAI que extraen contenido de noticias, plantea preguntas más amplias para los creativos (escritores, diseñadores, músicos y otros) que contribuyen con trabajo original a las plataformas de IA.

Si el modelo retiene y reutiliza el contenido enviado por el usuario, existe un riesgo real de que el material propietario o creativo pueda redistribuirse a otros usuarios sin atribución o consentimiento. Esto desdibuja la línea entre la contribución del usuario y los datos de entrenamiento de IA, y plantea preguntas urgentes sobre la autoría y la propiedad en la era de la IA generativa.

Qué debe cambiar y cómo protegerse

La mayoría de las personas quieren y esperan privacidad en su vida real. Creemos que las mismas expectativas deberían extenderse a la vida digital de las personas. Creamos un conjunto de servicios cifrados que hacen que la privacidad en línea sea accesible para cualquier persona, ya sea que esté enviando correos electrónicos a sus amigos, haciendo streaming de sus programas favoritos(nueva ventana) o haciendo copias de seguridad de fotos. No es demasiado tarde para corregir los primeros errores de Internet, y con la IA en sus primeros días, todavía hay tiempo para trazar un nuevo rumbo para esta tecnología que respete su privacidad.

Creamos nuestro asistente de IA(nueva ventana) Lumo de manera que mantenga protecciones clave por diseño:

  • Sin registro de datos: Los usuarios deben poder interactuar con chatbots sin preocuparse de que sus envíos se almacenen, se utilicen con fines de lucro o se utilicen en su contra. 
  • Sin entrenamiento de modelos: Los chats privados nunca deben explotarse como datos de entrenamiento, porque corren el riesgo de reaparecer en las salidas del modelo más tarde.
  • Transparencia en el manejo de datos: Debe quedar claro cómo se utilizan los datos de usuario almacenados, quién puede obtener acceso a ellos, dónde se almacenan, cuánto tiempo se conservan y cómo se pueden eliminar.
  • Cifrado de acceso cero por defecto: Las conversaciones deben estar protegidas mediante el uso de las claves de cifrado del usuario, para que ni siquiera el proveedor de IA pueda obtener acceso.

Si bien los peligros de los chatbots que registran silenciosamente nuestros datos son reales y urgentes, no somos impotentes. Al elegir herramientas de IA centradas en la privacidad y exigir transparencia y responsabilidad a sus creadores, podemos cambiar el equilibrio de poder nuevamente a manos de los usuarios, afirmando la creencia de que la privacidad es un derecho, no un privilegio.