A medida que aumenta el uso de la inteligencia artificial, los asistentes de IA(ventana nueva) se están convirtiendo en compañeros de confianza. Millones de personas recurren a chatbots como ChatGPT, Claude, Gemini, DeepSeek y otros para hacer preguntas y resolver problemas. Sus consultas pueden ser profundamente sensibles, preguntando sobre problemas de salud, compartiendo datos de clientes o buscando apoyo emocional e inspiración creativa.

Para muchos, estos chatbots se sienten humanos, receptivos y confidenciales. Pero los desarrollos recientes (una orden legal ha obligado a OpenAI a preservar los datos de salida de ChatGPT(ventana nueva) indefinidamente, y Sam Altman, el fundador de OpenAI, dice que ChatGPT no ofrece «confidencialidad legal»(ventana nueva)) arrojan luz sobre el riesgo de que cada palabra que escribas pueda ser registrada, almacenada, analizada y posiblemente mal utilizada o filtrada a terceros.

Aquí tienes lo que eso podría significar y por qué debería preocuparnos a todos.

Lo que está en juego es mayor con la IA

El auge de los asistentes de IA parece una nueva frontera, pero en muchos sentidos, ya hemos estado aquí antes. Las preocupaciones que rodean a los registros de chat de IA se hacen eco de las que surgieron en los primeros días de los motores de búsqueda, muchas de las cuales resultaron estar bien fundadas. Los registros de búsqueda se han utilizado para crear lucrativos perfiles de segmentación publicitaria, se han expuesto en vulneraciones de datos y han sido citados en tribunales.

Con la IA, lo que está en juego es mayor porque los datos son más personales y detallados. Un número creciente de personas está pasando de los motores de búsqueda a los chatbots de IA para obtener sus respuestas, con predicciones de que el uso de los motores de búsqueda caerá un 25 % para 2026(ventana nueva). A diferencia de una barra de búsqueda, que normalmente captura consultas cortas y fragmentadas, las preguntas a los chatbots se formulan como si quienes preguntan estuvieran hablando con otra persona, revelando mucho más sobre sí mismos en el proceso. Una sola conversación podría contener pensamientos personales(ventana nueva), luchas emocionales, problemas de salud(ventana nueva), temores financieros o incluso nombres completos y direcciones.

En resumen, los registros de chat ofrecen un mapa increíblemente rico e íntimo de tu identidad, más que los registros de los motores de búsqueda, y con implicaciones mucho mayores para tu privacidad. Las grandes tecnológicas podrían acceder a tus registros de chat y usarlos para crear un perfil psicológico sobre ti que puede ser revelado al gobierno o usado para publicidad dirigida. Por ejemplo, Meta está usando datos de chat de IA para crear anuncios personalizados.

Tus chats «anónimos» no siempre seguirán siéndolo

Un argumento común contra la preocupación por la privacidad de los registros de chat es que el gran volumen de datos hace que la explotación individual sea improbable, especialmente cuando los usuarios no han iniciado sesión. Pero la historia reciente cuenta una historia diferente.

En julio, los reporteros descubrieron que más de 100 000 conversaciones en ChatGPT(ventana nueva) fueron indexadas por Google y se hicieron buscables. Los usuarios que hicieron clic en el botón «compartir» para enviar una conversación a amigos o colegas casi con seguridad no se dieron cuenta de que sus conversaciones privadas serían visibles para todos en internet.

Este ejemplo es una advertencia: los llamados datos «anónimos» rara vez son anónimos. Emparejados con direcciones IP, marcas de tiempo, huellas digitales del dispositivo e identificadores de sesión y cookies, estos registros se vuelven mucho más identificables.

Cómo los chats pueden exponer nuestras vidas interiores

Las populares plataformas de IA ChatGPT(ventana nueva), Gemini(ventana nueva) y DeepSeek(ventana nueva) declaran que los registros de chat de los usuarios se utilizan para ayudar a mejorar el rendimiento del modelo y no para “vender” tus datos para publicidad o perfiles de usuario. Pero las políticas pueden cambiar de la noche a la mañana, como demuestra la batalla legal de OpenAI.

Por ejemplo, Anthropic actualizó su política de privacidad(ventana nueva) sin previo aviso en agosto de 2025 para ampliar el periodo de conservación de datos. Con los registros almacenados indefinidamente, los datos personales que antes parecían fuera de los límites podrían convertirse de repente en una lucrativa fuente de beneficios.

No sería la primera vez que ocurre. Cuando Google se lanzó en 1998, sus cofundadores Sergey Brin y Larry Page advirtieron(ventana nueva) que los motores de búsqueda basados en publicidad estarían inevitablemente “intrínsecamente sesgados hacia los anunciantes y alejados de las necesidades de los consumidores”. Una década después, Google comenzó a utilizar los historiales de búsqueda para dirigir anuncios(ventana nueva).

Con acceso directo a la vida interior de las personas, los registros de IA pueden llevar la orientación de anuncios al límite. Con un número cada vez mayor de usuarios que recurren a los chatbots en busca de soporte emocional(ventana nueva), alguien podría confiar:

  • “Me siento abrumado y solo últimamente”.
  • “¿Crees que tengo depresión?”.
  • “¿Qué puedo hacer si no puedo pagar el alquiler el mes que viene?”.

Estas afirmaciones no son solo palabras clave o una colección de interacciones, son claros significantes emocionales y situacionales. Si se almacenan y analizan, podrían usarse para crear perfiles psicológicos y manipular las decisiones del usuario.

No es alarmista sugerir que información tan íntima y sensible podría usarse con fines de explotación, porque las grandes empresas tecnológicas han hecho exactamente eso. En 2017, Facebook demostró que ninguna interacción está fuera de los límites explorando formas de dirigirse a adolescentes emocionalmente vulnerables(ventana nueva) con anuncios durante momentos de inseguridad.

Los registros de los chatbots son una ventana a tu psique. Y ese nivel de acceso plantea importantes preocupaciones éticas y de privacidad en un sector que aún no tiene directrices claras y normativas sobre el uso y la aplicación de datos.

Los riesgos legales para los usuarios

El historial de búsqueda ha jugado durante mucho tiempo un rol en investigaciones criminales y casos judiciales. Hay múltiples casos en los que las consultas online contribuyeron a veredictos de culpabilidad, notablemente Moira Akers contra el Estado en EE. UU.

Después de sufrir un parto de feto muerto en 2018, Akers fue acusada de asesinato y en 2022 fue sentenciada a 30 años de prisión. Una parte clave del caso del fiscal fueron las búsquedas en internet de Akers sobre el aborto, realizadas durante sus primeras etapas del embarazo. Según la acusación, estas búsquedas sirvieron como prueba de la intención de Akers, a pesar del hecho de que llevó el embarazo a término. El Tribunal Supremo de Maryland anuló su condena en 2025, declarando inadmisible la prueba de la consulta de búsqueda(ventana nueva). Pero Akers ya había pasado casi tres años en prisión. El caso destaca cómo los registros almacenados pueden usarse para contar una historia que encaje con una narrativa desfavorable, incluso si hay pruebas que la contradicen.

Las apuestas podrían ser aún más altas con los chats almacenados de IA que pueden ser objeto de pruebas legales. A diferencia de las consultas de búsqueda, estas interacciones son más conversacionales e incluso especulativas, a veces como una forma de provocar cierto tipo de respuesta del LLM, o modelo de lenguaje grande. Un intercambio privado e inocente con una IA podría interpretarse más tarde como incriminatorio en un entorno legal, independientemente de la intención en ese momento.

Una poderosa herramienta para la manipulación

Quienes pueden ver los registros de los chatbots pueden obtener acceso a planos de comportamiento detallados: hábitos personales, desencadenantes emocionales, dinámicas de relaciones e incluso vulnerabilidades profesionales. En las manos equivocadas, estos datos son una herramienta poderosa para la ingeniería social, que es una táctica de hacking común que implica manipulación psicológica.

Este riesgo está lejos de ser hipotético. En enero de 2025, la plataforma de IA DeepSeek dejó una base de datos masiva expuesta online(ventana nueva). La vulneración incluyó más de un millón de registros de chat de IA y claves API, todos accesibles públicamente para cualquiera que supiera dónde buscar. Entre los datos expuestos había conversaciones en texto plano que podrían haber contenido discusiones sobre familia, finanzas y proyectos confidenciales; información que podría explotarse fácilmente para fraude, chantaje o robo de identidad.

Una vez filtrados, estos datos pueden usarse como arma para suplantar tu identidad o manipularte. Al hacer referencia a detalles personales extraídos de conversaciones pasadas, los atacantes pueden ganarse tu confianza y explotarla para crear graves vulnerabilidades financieras o de seguridad.

El espectro de la vigilancia política

En regímenes autoritarios, las consecuencias de las interacciones digitales almacenadas pueden ser mucho más graves. Por ejemplo, varios países han prohibido el uso de la plataforma de IA con sede en China DeepSeek en dispositivos gubernamentales(ventana nueva) por preocupaciones de seguridad sobre cómo la información personal de los usuarios es gestionada por el operador. Corea del Sur, Australia y Taiwán plantearon preocupaciones de que las autoridades chinas pudieran acceder a estos datos y usarlos potencialmente para vigilancia.

Para disidentes, activistas o periodistas, esto no es solo un problema de privacidad, es una cuestión de seguridad. Un chat aparentemente casual sobre derechos de protesta, leyes de medios o rutas de asilo podría interpretarse como prueba incriminatoria en jurisdicciones con protecciones limitadas para la libertad de expresión y las libertades civiles.

Una amenaza para la propiedad intelectual

En 2023, ingenieros de Samsung cargaron involuntariamente código fuente propietario(ventana nueva) en ChatGPT mientras intentaban depurar un problema, bajo la creencia errónea de que sus consultas eran privadas. Una vez enviados, esos datos se convirtieron en parte del sistema de entrenamiento de OpenAI, provocando preocupaciones sobre la seguridad y la propiedad de la propiedad intelectual compartida con herramientas de IA.

Una preocupación relacionada surgió en el caso de derechos de autor de alto perfil presentado por The New York Times contra OpenAI(ventana nueva) mencionado al comienzo de este artículo. El caso provocó una orden judicial que requería que OpenAI preservara todos los datos de salida de ChatGPT indefinidamente tras las acusaciones de que la empresa utilizó millones de artículos del periódico para entrenar sus modelos sin permiso. Aunque el caso se centra en los rastreadores web de OpenAI que extraen contenido de noticias, plantea preguntas más amplias para los creativos —escritores, diseñadores, músicos y otros— que aportan trabajo original a las plataformas de IA.

Si el contenido enviado por el usuario se conserva y reutiliza por el modelo, existe un riesgo real de que el material propietario o creativo pueda redistribuirse a otros usuarios sin atribución ni consentimiento. Esto difumina la línea entre la contribución del usuario y los datos de entrenamiento de la IA, y plantea preguntas urgentes sobre la autoría y la propiedad en la era de la IA generativa.

Qué necesita cambiar y cómo protegerte

La mayoría de la gente quiere y espera privacidad en sus vidas reales. Creemos que las mismas expectativas deberían extenderse a las vidas digitales de las personas. Creamos un conjunto de servicios cifrados que hacen que la privacidad online sea accesible para cualquiera, ya estés enviando correos electrónicos a tus amigos, viendo en streaming tus programas favoritos(ventana nueva) o haciendo copias de seguridad de fotos. No es demasiado tarde para corregir los primeros errores de internet, y con la IA en sus primeros días todavía hay tiempo para trazar un nuevo rumbo para esta tecnología que respete tu privacidad.

Construimos nuestro asistente de IA(ventana nueva) Lumo de una manera que mantiene protecciones clave por diseño:

  • Sin registro de datos: Los usuarios deberían poder interactuar con los chatbots sin preocuparse de que sus envíos sean almacenados, utilizados con fines de lucro o usados en su contra. 
  • Sin entrenamiento de modelos: Los chats privados nunca deben ser explotados como datos de entrenamiento, porque corre el riesgo de reaparecer en los resultados del modelo más tarde.
  • Transparencia en el manejo de datos: Debe estar claro cómo se utilizan los datos de usuario almacenados, quién puede obtener acceso a ellos, dónde se almacenan, cuánto tiempo se conservan y cómo se pueden eliminar.
  • Cifrado de acceso cero por defecto: Las conversaciones deben estar aseguradas utilizando las claves de cifrado del usuario, para que ni siquiera el proveedor de IA pueda obtener acceso.

Si bien los peligros de los chatbots que registran silenciosamente nuestros datos son reales y urgentes, no estamos indefensos. Al elegir herramientas de IA centradas en la privacidad y exigir transparencia y responsabilidad a sus creadores, podemos devolver el equilibrio de poder a manos de los usuarios, afirmando la creencia de que la privacidad es un derecho, no un privilegio.