OpenAI ha lanzado ChatGPT Atlas, un nuevo navegador que incorpora ChatGPT directamente en cada interacción que las personas tienen en la web. La compañía lo describe como un paso hacia un asistente digital que se mueve a través de sitios web contigo, interpreta lo que ves y completa las tareas que solicitas.

Actualmente disponible solo en Mac, Atlas promete una comodidad extraordinaria. Sin embargo, también introduce nuevos riesgos de privacidad y seguridad con consecuencias desconocidas. OpenAI aún no ha respondido a varias preguntas clave sobre cómo el producto protege los datos del usuario.

Sin embargo, ya sabemos lo suficiente como para examinar sus principales beneficios y los graves riesgos de privacidad que conllevan.

Cómo funciona ChatGPT Atlas

Atlas introduce dos sistemas centrales que cambian cómo funciona la navegación. El primero, los recuerdos del navegador, registra qué sitios visitas y cómo interactúas con ellos, con el objetivo de hacer que las respuestas de ChatGPT sean más personales. El segundo, el modo agente, permite a la IA abrir páginas, rellenar formularios o realizar tareas dentro de la ventana del navegador.

OpenAI dice que estas funciones son opcionales. Puedes desactivarlas, borrar sus datos o navegar de forma privada. La compañía también dice que tu contenido de navegación se excluye del entrenamiento del modelo a menos que optes por incluirlo.

Sin embargo, a pesar de todo lo que se habla de reinvención, ChatGPT Atlas todavía se ejecuta en Chromium(ventana nueva), el mismo motor de código abierto detrás de Chrome y Edge.

Ese marco se basa en los ajustes y hábitos del usuario. Amplias investigaciones muestran que la mayoría de las personas no cambian sus ajustes por defecto(ventana nueva). Y los navegadores de IA anteriores muestran lo frágiles que pueden ser tales controles en condiciones del mundo real.

Riesgos de seguridad de los navegadores de IA: Lo que los investigadores han descubierto hasta ahora

Uno de los primeros navegadores de IA fue Comet de Perplexity, lanzado en julio de 2025. Una vulnerabilidad en el sistema de IA del navegador, reportada por primera vez por Time(ventana nueva), reveló cómo la navegación por IA podría abrir nuevos vectores de ataque. Investigadores de LayerX descubrieron una vulnerabilidad llamada CometJacking(ventana nueva), que permitía que enlaces maliciosos ocultaran instrucciones dentro de las URL. Al hacer clic, la IA de Comet interpretaba esas indicaciones como comandos reales.

Las pruebas mostraron que el navegador podía extraer datos de Gmail y calendarios, descargar archivos maliciosos y, en algunos casos, incluso intentar compras en sitios web de estafa. iTnews detalló más tarde(ventana nueva) hallazgos similares de investigadores de Guardio, quienes describieron a Comet como un asistente demasiado entusiasta: rápido para actuar y lento para cuestionar instrucciones sospechosas. El análisis de Kaspersky(ventana nueva) fue más allá, advirtiendo que integrar la IA directamente en un navegador da al contenido web malicioso un canal directo para manipularlo.

Por qué Atlas es arriesgado por diseño

La búsqueda siempre ha sido vigilancia. La búsqueda con IA la convierte en vigilancia íntima. Atlas la convierte en vigilancia total.

Los motores tradicionales como Google capturan preguntas aisladas: un síntoma médico, una receta, una consulta legal. La IA conversacional convierte esos fragmentos en historias. Te pide aclaraciones, fomenta el seguimiento y registra el contexto. Con el tiempo, estos intercambios crean retratos detallados de tu vida privada, construyendo una narrativa sobre tu intención, vulnerabilidades y patrones de toma de decisiones.

Esto ya es arriesgado cuando se limita a las aplicaciones de ChatGPT. Con Atlas, ese mismo mecanismo vive dentro de tu navegador, ofreciendo a OpenAI una vigilancia total de cada interacción que tienes online.

La propia documentación de OpenAI(ventana nueva) confirma que Atlas puede ver las páginas que visitas, recordar su contenido a través de los recuerdos del navegador y actuar en tu nombre a través del modo agente. Cada capa aumenta la visibilidad. Atlas no solo registra tus consultas; observa lo que lees, cuánto tiempo te quedas y qué haces después.

El resultado es un registro único y exhaustivo de la intención y el comportamiento. Incluso cuando OpenAI dice que este contenido no se utiliza para el entrenamiento por defecto, todavía se procesa y analiza para la personalización. A través de la inferencia, Atlas puede conectar acciones ordinarias para construir narrativas reveladoras, como vincular búsquedas de síntomas de ansiedad con directorios de terapeutas e investigación de medicamentos para formar una imagen de la salud mental de una persona.

Los controles de privacidad existen pero exigen vigilancia constante. Los usuarios pueden alternar la visibilidad o eliminar recuerdos, pero la mayoría olvidará administrar esos ajustes. Puedes obtener tus datos o eliminarlos. Pero los modelos ya han sido entrenados con lo que hiciste.

Atlas extiende la vigilancia más allá de lo que Google logró al combinar datos de búsqueda y navegador. OpenAI ha fusionado la conversación de IA, las interacciones web (incluidas las que están fuera del motor de búsqueda) y la recolección de datos personales en una única interfaz que entiende el contexto y actúa en consecuencia.

Preocupaciones sobre privacidad y exposición de datos

TechCrunch informa(ventana nueva) que Atlas mantiene un registro de la actividad de navegación para personalizar las respuestas. Kaspersky advierte(ventana nueva) que una IA integrada a este nivel tiene visibilidad total del tráfico web y los archivos en el dispositivo. Esa visibilidad puede incluir material privado como suscripciones, documentos de trabajo o datos financieros.

Los navegadores de IA marcan un cambio de la recopilación pasiva de datos al mapeo conductual continuo. Cada página visitada, cada indicación escrita, cada tarea delegada se convierte en otra señal en un bucle de retroalimentación diseñado para predecir e influir en el comportamiento.

OpenAI señala los ajustes de usuario como salvaguardas: interruptores de privacidad, eliminación de datos y navegación de incógnito. Pero estos son controles superficiales. Una vez que una IA conecta los puntos, eliminar una pieza de datos no borra la historia que ya ha construido. Atlas puede olvidar entradas discretas; las inferencias, sin embargo, permanecen.

Este modelo une los dos motores de recopilación de datos más potentes de la web (el índice de búsqueda y el navegador) y los superpone con una IA capaz de razonar sobre lo que observa.

El gancho es que es útil. Una herramienta que organiza listas de la compra también mapea el comportamiento financiero. Una herramienta que te ayuda a investigar terapias también infiere tu estado emocional. Lo que aparece como personalización es extracción de datos con empatía como máscara.

El capitalismo de vigilancia anterior dependía de la apatía del usuario: la gente era demasiado perezosa para actualizar sus ajustes de privacidad. Atlas depende del compromiso: es tan inteligente y conveniente que no puedes evitar confiar en él.

Por qué Atlas no está listo para uso sensible

Atlas es un paso audaz hacia la navegación manos libres, pero no está construido para la confianza. Las mismas opciones de diseño que lo hacen poderoso también lo hacen inseguro. Los investigadores de seguridad y los probadores han llegado a una conclusión consistente sobre los navegadores de IA: son demostraciones notables, pero poco fiables para la vida diaria.

Si pruebas Atlas, trátalo como un entorno de prueba. Mantén las cuentas bancarias, de trabajo y personales en otro lugar. No asumas que sus salvaguardas resistirán las amenazas del mundo real.

OpenAI probablemente mejorará la seguridad de Atlas, pero hoy, usar un navegador de IA significa otorgar a la compañía visibilidad directa de tu comportamiento online y esperar que ese acceso permanezca protegido.

Esa preocupación no termina con OpenAI, ya que la compañía comparte tus datos con socios y proveedores de servicios de terceras partes, ampliando el círculo de acceso más allá de su control directo. Por ejemplo, una vulneración que involucró a un socio de OpenAI expuso datos de usuarios de la API, un recordatorio de que una vez que tu información ingresa al ecosistema de ChatGPT, cada parte adicional se convierte en un eslabón débil potencial.

Usa un asistente de IA privado que te mantenga seguro

Hay otro enfoque, y ya lo utilizan millones de personas.

Lumo, el asistente de IA(ventana nueva) privado de Proton, está construido para demostrar que la inteligencia y la privacidad pueden coexistir. Opera bajo una estricta política de cero registros. El historial de chat está protegido con cifrado de acceso cero, lo que significa que ni siquiera Proton puede leerlo. Las conversaciones nunca se utilizan para el entrenamiento. Tanto el código como los modelos son de código abierto, lo que permite a cualquiera verificar lo que sucede bajo el capó. Los usuarios son dueños de sus datos por completo. Y como Lumo está financiado por la comunidad, no por anunciantes, no hay incentivo comercial para explotar la información personal.

Esa es la diferencia entre la IA de vigilancia y la IA de privacidad. Una está construida para recopilar datos; la otra está construida para protegerlos.