OpenAI har udgivet ChatGPT Atlas, en ny browser der bygger ChatGPT direkte ind i enhver interaktion, folk har på nettet. Virksomheden beskriver det som et skridt mod en digital assistent, der bevæger sig gennem websteder med Dem, fortolker hvad De ser, og udfører opgaver, De anmoder om.

I øjeblikket kun tilgængelig på Mac, lover Atlas ekstraordinær bekvemmelighed. Men den introducerer også nye risici for privatliv og sikkerhed med ukendte konsekvenser. OpenAI har endnu ikke besvaret flere nøglespørgsmål om, hvordan produktet beskytter brugerdata.

Vi ved dog allerede nok til at undersøge dets vigtigste fordele og de alvorlige risici for privatlivet, der følger med dem.

Hvordan ChatGPT Atlas fungerer

Atlas introducerer to kernesystemer, der ændrer, hvordan browsing fungerer. Det første, browserhukommelser, registrerer hvilke steder De besøger, og hvordan De interagerer med dem, med det formål at gøre ChatGPT’s svar mere personlige. Den anden, agenttilstand, tillader AI’en at åbne sider, udfylde formularer eller udføre opgaver inde i browservinduet.

OpenAI siger, at disse funktioner er valgfrie. De kan deaktivere dem, slette deres data eller browse privat. Virksomheden siger også, at Deres browsingindhold er udelukket fra modeltræning, medmindre De tilmelder Dem.

På trods af al sin snak om genopfindelse, kører ChatGPT Atlas stadig på Chromium(nyt vindue) — den samme open source-motor bag Chrome og Edge.

Den ramme afhænger af brugerindstillinger og vaner. Rigelig forskning viser, at de fleste mennesker ikke ændrer deres standardindstillinger(nyt vindue). Og tidligere AI-browsere viser, hvor skrøbelige sådanne kontroller kan være under virkelige forhold.

AI-browseres sikkerhedsrisici: Hvad forskere har afsløret indtil videre

En af de første AI-browsere var Perplexitys Comet, udgivet i juli 2025. En sårbarhed i browserens AI-system, først rapporteret af Time(nyt vindue), afslørede, hvordan AI-browsing kunne åbne nye angrebsvektorer. Forskere hos LayerX opdagede en sårbarhed kaldet CometJacking(nyt vindue), som tillod ondsindede links at skjule instruktioner inde i URL’er. Når der blev klikket på dem, fortolkede Comets AI disse prompter som virkelige kommandoer.

Test viste, at browseren kunne trække data fra Gmail og kalendere, downloade ondsindede filer, og i nogle tilfælde endda forsøge køb på fup-websteder. iTnews detaljerede senere(nyt vindue) lignende fund fra Guardio-forskere, der beskrev Comet som en overivrig assistent — hurtig til at handle og langsom til at stille spørgsmålstegn ved mistænkelige instruktioner. Kasperskys analyse(nyt vindue) gik videre og advarede om, at integration af AI direkte i en browser giver ondsindet webindhold en direkte kanal til at manipulere den.

Hvorfor Atlas er risikabelt via design

Søgning har altid været overvågning. AI-søgning gør det til intim overvågning. Atlas gør det til total overvågning.

Traditionelle motorer som Google fanger isolerede spørgsmål — et medicinsk symptom, en opskrift, en juridisk forespørgsel. Samtale-AI omdanner disse fragmenter til historier. Den beder Dem om afklaring, opmuntrer til opfølgninger og registrerer kontekst. Over tid skaber disse udvekslinger detaljerede portrætter af Deres privatliv og opbygger en fortælling om Deres hensigt, sårbarheder og beslutningsmønstre.

Dette er allerede risikabelt, når det er begrænset til ChatGPT-apps. Med Atlas lever den samme mekanisme inde i Deres browser og tilbyder OpenAI total overvågning af enhver interaktion, De har online.

OpenAI’s egen dokumentation(nyt vindue) bekræfter, at Atlas kan se de sider, De besøger, huske deres indhold gennem browserhukommelser og handle på Deres vegne gennem agenttilstand. Hvert lag øger synligheden. Atlas registrerer ikke bare Deres forespørgsler; den observerer, hvad De læser, hvor længe De bliver, og hvad De gør bagefter.

Resultatet er en enkelt, omfattende optegnelse af hensigt og adfærd. Selv når OpenAI siger, at dette indhold ikke bruges til træning som standard, bliver det stadig behandlet og analyseret til personalisering. Gennem inferens kan Atlas forbinde almindelige handlinger for at opbygge afslørende fortællinger — som at linke søgninger efter angstsymptomer med terapeutkataloger og medicinresearch for at danne et billede af en persons mentale helbred.

Privatlivskontroller eksisterer, men kræver konstant årvågenhed. Brugere kan skifte synlighed eller slette hukommelser, men de fleste vil glemme at administrere disse indstillinger. De kan få Deres data eller slette dem. Men modellerne er allerede blevet trænet på det, De gjorde.

Atlas udvider overvågning ud over, hvad Google opnåede ved at kombinere søge- og browserdata. OpenAI har slået AI-samtale, webinteraktioner (herunder dem uden for søgemaskinen) og indsamling af personlige data sammen i en enkelt grænseflade, der forstår kontekst og handler på den.

Bekymringer om privatliv og dataeksponering

TechCrunch rapporterer(nyt vindue), at Atlas fører en log over browsingaktivitet for at personalisere svar. Kaspersky advarer(nyt vindue) om, at en AI integreret på dette niveau har fuld synlighed i webtrafik og filer på enheden. Denne synlighed kan omfatte privat materiale såsom abonnementer, arbejdsdokumenter eller finansielle data.

AI-browsere markerer et skift fra passiv dataindsamling til kontinuerlig adfærdskortlægning. Hver besøgt side, hver skrevet prompt, hver delegeret opgave bliver endnu et signal i et feedback-loop designet til at forudsige og påvirke adfærd.

OpenAI peger på brugerindstillinger som sikkerhedsforanstaltninger: privatlivsknapper, sletning af data og inkognito-browsing. Men disse er overfladekontroller. Når en AI først forbinder prikkerne, sletter fjernelse af ét stykke data ikke den historie, den allerede har bygget. Atlas glemmer måske diskrete poster; slutningerne forbliver dog.

Denne model forener nettets to mest kraftfulde dataindsamlingsmotorer — søgeindekset og browseren — og overlægger dem med AI, der er i stand til at ræsonnere om det, den observerer.

Krogen er, at det er nyttigt. Et værktøj, der organiserer indkøbslister, kortlægger også finansiel adfærd. Et værktøj, der hjælper Dem med at researche terapi, udleder også Deres følelsesmæssige tilstand. Hvad der fremstår som personalisering, er dataudtræk med empati som sin maske.

Tidligere overvågningskapitalisme afhang af brugerapati: folk der var for dovne til at opdatere deres privatlivsindstillinger. Atlas afhænger af engagement: Det er så smart og bekvemt, at De ikke kan lade være med at stole på det.

Hvorfor Atlas ikke er klar til følsom brug

Atlas er et dristigt skridt mod håndfri browsing, men det er ikke bygget til tillid. De samme designvalg, der gør det kraftfuldt, gør det også usikkert. Sikkerhedsforskere og testere er nået frem til en konsekvent konklusion om AI-browsere: de er bemærkelsesværdige demonstrationer, men upålidelige til dagligdagen.

Hvis De prøver Atlas, så behandl det som et testmiljø. Hold bank-, arbejds- og personlige konti andetsteds. Antag ikke, at dets sikkerhedsforanstaltninger vil modstå virkelige trusler.

OpenAI vil sandsynligvis forbedre Atlas’ sikkerhed, men i dag betyder brug af en AI-browser, at man giver virksomheden direkte synlighed i Deres online adfærd og håber, at adgangen forbliver beskyttet.

Den bekymring ender ikke med OpenAI selv, da virksomheden deler Deres data med partnere og tredjeparts-tjenesteudbydere, hvilket udvider adgangscirklen ud over dens direkte kontrol. For eksempel eksponerede et brud, der involverede en OpenAI-partner, API-brugerdata — en påmindelse om, at når Deres information først indtaster ChatGPT-økosystemet, bliver hver yderligere part et potentielt svagt led.

Brug en privat AI-assistent, der holder Dem sikker

Der er en anden tilgang, og den bruges allerede af millioner af mennesker.

Lumo, Protons private AI-assistent(nyt vindue), er bygget til at bevise, at intelligens og privatliv kan sameksistere. Den opererer under en streng ingen logfiler-politik. Chathistorik er beskyttet med zero-access kryptering, hvilket betyder, at ikke engang Proton kan læse den. Samtaler bruges aldrig til træning. Både koden og modellerne er open source, hvilket tillader alle at bekræfte, hvad der sker under kølerhjelmen. Brugere ejer deres data fuldt ud. Og fordi Lumo er finansieret af fællesskabet, ikke annoncører, er der intet kommercielt incitament til at udnytte personlig information.

Det er forskellen på overvågnings-AI og privatlivs-AI. Den ene er bygget til at indsamle data; den anden er bygget til at beskytte dem.