OpenAI ha lanzado ChatGPT Atlas, un nuevo navegador que incorpora ChatGPT directamente en cada interacción que las personas tienen en la web. La compañía lo describe como un paso hacia un asistente digital que se mueve a través de sitios web con usted, interpreta lo que ve y completa las tareas que solicita.
Actualmente disponible solo en Mac, Atlas promete una comodidad extraordinaria. Sin embargo, también introduce nuevos riesgos de privacidad y seguridad con consecuencias desconocidas. OpenAI aún no ha respondido a varias preguntas clave sobre cómo el producto protege los datos del usuario.
Sin embargo, ya sabemos lo suficiente como para examinar sus principales beneficios y los graves riesgos de privacidad que conllevan.
Cómo funciona ChatGPT Atlas
Atlas introduce dos sistemas centrales que cambian cómo funciona la navegación. El primero, memorias del navegador, registra qué sitios visita y cómo interactúa con ellos, con el objetivo de hacer que las respuestas de ChatGPT sean más personales. El segundo, modo agente, permite a la IA abrir páginas, completar formularios o realizar tareas dentro de la ventana del navegador.
OpenAI dice que estas funciones son opcionales. Puede desactivarlas, eliminar sus datos o navegar de forma privada. La compañía también dice que su contenido de navegación está excluido del entrenamiento del modelo a menos que opte por participar.
Sin embargo, a pesar de todo su discurso sobre la reinvención, ChatGPT Atlas todavía se ejecuta en Chromium(nueva ventana), el mismo motor de código abierto detrás de Chrome y Edge.
Ese marco se basa en los ajustes y hábitos del usuario. Una amplia investigación muestra que la mayoría de las personas no cambian sus ajustes por defecto(nueva ventana). Y los navegadores de IA anteriores muestran cuán frágiles pueden ser tales controles en condiciones del mundo real.
Riesgos de seguridad de los navegadores de IA: Lo que los investigadores han descubierto hasta ahora
Uno de los primeros navegadores de IA fue Comet de Perplexity, lanzado en julio de 2025. Una vulnerabilidad en el sistema de IA del navegador, informada por primera vez por Time(nueva ventana), reveló cómo la navegación por IA podría abrir nuevos vectores de ataque. Los investigadores de LayerX descubrieron una vulnerabilidad llamada CometJacking(nueva ventana), que permitía que enlaces maliciosos ocultaran instrucciones dentro de las URL. Al hacer clic, la IA de Comet interpretaba esas indicaciones como comandos reales.
Las pruebas mostraron que el navegador podía extraer datos de Gmail y calendarios, descargar archivos maliciosos y, en algunos casos, incluso intentar compras en sitios web de estafas. iTnews detalló más tarde(nueva ventana) hallazgos similares de los investigadores de Guardio, quienes describieron a Comet como un asistente demasiado entusiasta: rápido para actuar y lento para cuestionar instrucciones sospechosas. El análisis de Kaspersky(nueva ventana) fue más allá, advirtiendo que integrar la IA directamente en un navegador le da al contenido web malicioso un canal directo para manipularlo.
¿Por qué Atlas es arriesgado por diseño?
La búsqueda siempre ha sido vigilancia. La búsqueda por IA la convierte en vigilancia íntima. Atlas la convierte en vigilancia total.
Los motores tradicionales como Google capturan preguntas aisladas: un síntoma médico, una receta, una consulta legal. La IA conversacional convierte esos fragmentos en historias. Le pide aclaraciones, fomenta el seguimiento y registra el contexto. Con el tiempo, estos intercambios crean retratos detallados de su vida privada, construyendo una narrativa sobre su intención, vulnerabilidades y patrones de toma de decisiones.
Esto ya es arriesgado cuando se limita a las aplicaciones de ChatGPT. Con Atlas, ese mismo mecanismo vive dentro de su navegador, ofreciendo a OpenAI vigilancia total de cada interacción que tiene en línea.
La propia documentación de OpenAI(nueva ventana) confirma que Atlas puede ver las páginas que visita, recordar su contenido a través de las memorias del navegador y actuar en su nombre a través del modo agente. Cada capa aumenta la visibilidad. Atlas no solo registra sus consultas; observa lo que lee, cuánto tiempo se queda y qué hace a continuación.
El resultado es un registro único y completo de intención y comportamiento. Incluso cuando OpenAI dice que este contenido no se utiliza para el entrenamiento por defecto, todavía se procesa y analiza para la personalización. A través de la inferencia, Atlas puede conectar acciones ordinarias para construir narrativas reveladoras, como vincular búsquedas de síntomas de ansiedad con directorios de terapeutas e investigación de medicamentos para formar una imagen de la salud mental de una persona.
Los controles de privacidad existen pero exigen vigilancia constante. Los usuarios pueden alternar la visibilidad o eliminar recuerdos, pero la mayoría olvidará gestionar esos ajustes. Puede obtener sus datos o eliminarlos. Pero los modelos ya han sido entrenados sobre lo que hizo.
Atlas extiende la vigilancia más allá de lo que Google logró combinando datos de búsqueda y navegador. OpenAI ha fusionado la conversación de IA, las interacciones web (incluidas aquellas fuera del motor de búsqueda) y la recolección de datos personales en una única interfaz que entiende el contexto y actúa en consecuencia.
Preocupaciones de privacidad y exposición de datos
TechCrunch informa(nueva ventana) que Atlas mantiene un registro de la actividad de navegación para personalizar las respuestas. Kaspersky advierte(nueva ventana) que una IA integrada en este nivel tiene visibilidad completa del tráfico web y los archivos en el dispositivo. Esa visibilidad puede incluir material privado como suscripciones, documentos de trabajo o datos financieros.
Los navegadores de IA marcan un cambio de la recopilación de datos pasiva al mapeo de comportamiento continuo. Cada página visitada, cada indicación escrita, cada tarea delegada se convierte en otra señal en un ciclo de retroalimentación diseñado para predecir e influir en el comportamiento.
OpenAI señala los ajustes de usuario como salvaguardas: interruptores de privacidad, eliminación de datos y navegación de incógnito. Pero estos son controles superficiales. Una vez que una IA conecta los puntos, eliminar una pieza de datos no borra la historia que ya ha construido. Atlas puede olvidar entradas discretas; las inferencias, sin embargo, permanecen.
Este modelo une los dos motores de recopilación de datos más potentes de la web —el índice de búsqueda y el navegador— y los superpone con IA capaz de razonar sobre lo que observa.
El gancho es que es útil. Una herramienta que organiza listas de compras también mapea el comportamiento financiero. Una herramienta que le ayuda a investigar terapia también infiere su estado emocional. Lo que parece personalización es extracción de datos con empatía como su máscara.
El capitalismo de vigilancia anterior se basaba en la apatía del usuario: personas demasiado perezosas para actualizar sus ajustes de privacidad. Atlas depende del compromiso: es tan inteligente y conveniente que no puede evitar confiar en él.
¿Por qué Atlas no está listo para un uso sensible?
Atlas es un paso audaz hacia la navegación manos libres, pero no está diseñado para la confianza. Las mismas opciones de diseño que lo hacen poderoso también lo hacen inseguro. Los investigadores y probadores de seguridad han llegado a una conclusión consistente sobre los navegadores de IA: son demostraciones notables, pero poco confiables para la vida diaria.
Si prueba Atlas, trátelo como un entorno de prueba. Mantenga la banca, el trabajo y las cuentas personales en otro lugar. No asuma que sus salvaguardas resistirán amenazas del mundo real.
OpenAI probablemente mejorará la seguridad de Atlas, pero hoy, usar un navegador de IA significa otorgar a la compañía visibilidad directa de su comportamiento en línea y esperar que ese acceso permanezca protegido.
Esa preocupación no termina con la propia OpenAI, ya que la compañía comparte sus datos con socios y proveedores de servicios externos, expandiendo el círculo de acceso más allá de su control directo. Por ejemplo, una vulneración que involucró a un socio de OpenAI expuso datos de usuarios de API, un recordatorio de que una vez que su información ingresa al ecosistema de ChatGPT, cada parte adicional se convierte en un eslabón débil potencial.
Use un asistente de IA privado que lo mantenga a salvo
Hay otro enfoque, y ya está siendo utilizado por millones de personas.
Lumo, el asistente de IA(nueva ventana) privado de Proton, está diseñado para demostrar que la inteligencia y la privacidad pueden coexistir. Opera bajo una estricta política de cero registros. El historial de chat está protegido con cifrado de cero acceso, lo que significa que ni siquiera Proton puede leerlo. Las conversaciones nunca se utilizan para el entrenamiento. Tanto el código como los modelos son de código abierto, lo que permite a cualquiera verificar lo que sucede bajo el capó. Los usuarios son dueños de sus datos por completo. Y debido a que Lumo es financiado por la comunidad, no por anunciantes, no hay incentivos comerciales para explotar la información personal.
Esa es la diferencia entre la IA de vigilancia y la IA de privacidad. Una está diseñada para recopilar datos; la otra está diseñada para protegerlos.




