OpenAI heeft ChatGPT Atlas uitgebracht, een nieuwe **browser** die ChatGPT direct inbouwt in elke interactie die mensen op het **web** hebben. Het bedrijf omschrijft het als een stap richting een digitale assistent die met u meegaat door **websites**, interpreteert wat u ziet en taken voltooit die u aanvraagt.
Momenteel alleen beschikbaar op **Mac**, belooft Atlas buitengewoon gemak. Toch introduceert het ook nieuwe **privacy**- en beveiligingsrisico’s met onbekende gevolgen. OpenAI heeft verschillende belangrijke vragen over hoe het product **gebruikers**gegevens beschermt nog niet beantwoord.
We weten echter al genoeg om de belangrijkste voordelen en de ernstige **privacy**risico’s die daarmee gepaard gaan te onderzoeken.
Hoe ChatGPT Atlas werkt
Atlas introduceert twee kernsystemen die de werking van browsen veranderen. De eerste, browsergeheugens, registreert welke sites u bezoekt en hoe u ermee omgaat, met als doel de antwoorden van ChatGPT persoonlijker te maken. De tweede, agent-**modus**, stelt de AI in staat om pagina’s te openen, formulieren in te vullen of taken uit te voeren binnen het **browser**venster.
OpenAI zegt dat deze **functies** optioneel zijn. U kunt ze **uitschakelen**, hun gegevens **wissen** of privé browsen. Het bedrijf zegt ook dat uw browse-inhoud wordt uitgesloten van modeltraining, tenzij u zich aanmeldt.
Ondanks al het gepraat over heruitvinding, draait ChatGPT Atlas nog steeds op Chromium(nieuw venster) — dezelfde **open source** engine achter Chrome en **Edge**.
Dat framework vertrouwt op **gebruikers**instellingen (**instellingen**) en gewoonten. Uitgebreid onderzoek **toont** aan dat de meeste mensen hun **standaard**instellingen niet wijzigen(nieuw venster). En eerdere AI-**browsers** **tonen** hoe kwetsbaar dergelijke controles kunnen zijn onder echte omstandigheden.
Beveiligingsrisico’s van AI-**browsers**: Wat onderzoekers tot nu toe hebben ontdekt
Een van de eerste AI-**browsers** was Perplexity’s Comet, uitgebracht in juli 2025. Een kwetsbaarheid in het AI-systeem van de **browser**, voor het eerst gemeld door Time(nieuw venster), onthulde hoe AI-browsen nieuwe aanvalsvectoren kon openen. Onderzoekers van LayerX ontdekten een kwetsbaarheid genaamd CometJacking(nieuw venster), waardoor kwaadaardige **koppelingen** instructies konden **verbergen** in **URL’s**. Wanneer erop werd geklikt, interpreteerde de AI van Comet die prompts als echte commando’s.
Tests **toonden** aan dat de **browser** gegevens uit Gmail en **agenda’s** kon halen, kwaadaardige **bestanden** kon **downloaden** en in sommige gevallen zelfs aankopen kon proberen te doen op scam-**websites**. iTnews detailleerde later(nieuw venster) soortgelijke bevindingen van Guardio-onderzoekers, die Comet beschreven als een overijverige assistent — snel om te handelen en traag om verdachte instructies in twijfel te trekken. Kaspersky‘s analyse(nieuw venster) ging verder en **waarschuwde** dat het direct integreren van AI in een **browser** kwaadaardige **web**inhoud een direct **kanaal** geeft om deze te manipuleren.
Waarom Atlas riskant is by design
Zoeken is altijd surveillance geweest. AI-zoeken maakt het intieme surveillance. Atlas maakt het totale surveillance.
Traditionele zoekmachines zoals Google leggen geïsoleerde vragen vast — een medisch symptoom, een recept, een juridische vraag. Conversational AI verandert die fragmenten in verhalen. Het vraagt u om verduidelijking, moedigt vervolgvragen aan en registreert context. In de loop van de tijd creëren deze uitwisselingen gedetailleerde portretten van uw **privé**leven, en bouwen ze een verhaal op over uw intentie, kwetsbaarheden en besluitvormingspatronen.
Dit is al riskant wanneer het beperkt blijft tot de ChatGPT-**apps**. Met Atlas leeft datzelfde mechanisme in uw **browser**, en biedt OpenAI totale surveillance van elke interactie die u **online** hebt.
OpenAI’s eigen documentatie(nieuw venster) **bevestigt** dat Atlas de pagina’s kan bekijken die u bezoekt, hun inhoud kan onthouden via browsergeheugens en namens u kan handelen via de agent-**modus**. Elke laag verhoogt de zichtbaarheid. Atlas registreert niet alleen uw zoekopdrachten; het observeert wat u **leest**, hoe lang u blijft en wat u vervolgens doet.
Het resultaat is een enkel, uitgebreid overzicht van intentie en gedrag. Zelfs als OpenAI zegt dat deze inhoud **standaard** niet wordt gebruikt voor training, wordt deze nog steeds verwerkt en geanalyseerd voor personalisatie. Door middel van inferentie kan Atlas gewone acties **verbinden** om onthullende verhalen op te bouwen — zoals het koppelen van **zoekopdrachten** naar angstsymptomen aan therapeutenlijsten en medicatieonderzoek om een beeld te vormen van iemands geestelijke gezondheid.
**Privacy**controles bestaan, maar vereisen constante waakzaamheid. **Gebruikers** kunnen de zichtbaarheid in- of uitschakelen of herinneringen **verwijderen**, maar de meesten zullen vergeten die **instellingen** te **beheren**. U kunt uw gegevens ophalen of **verwijderen**. Maar de modellen zijn al getraind op wat u deed.
Atlas breidt surveillance uit tot voorbij wat Google bereikte door zoek- en **browser**gegevens te combineren. OpenAI heeft AI-**gesprekken**, **web**interacties (inclusief die buiten de zoekmachine) en het oogsten van persoonlijke gegevens samengevoegd in één interface die context begrijpt en ernaar handelt.
**Privacy**- en gegevensblootstellingszorgen
TechCrunch meldt(nieuw venster) dat Atlas een overzicht van browse-activiteit bijhoudt om antwoorden te personaliseren. Kaspersky waarschuwt(nieuw venster) dat een AI die op dit niveau is geïntegreerd, volledig zicht heeft op **web**verkeer en **bestanden** op het **apparaat**. Die zichtbaarheid kan **privé**materiaal omvatten zoals **abonnementen**, werkdocumenten of financiële gegevens.
AI-**browsers** **markeren** een verschuiving van passieve gegevensverzameling naar continue gedragskartering. Elke bezochte pagina, elke geschreven prompt, elke gedelegeerde taak wordt een ander signaal in een **feedback**lus die is ontworpen om gedrag te voorspellen en te beïnvloeden.
OpenAI wijst naar **gebruikers**instellingen (**instellingen**) als waarborgen: **privacy**schakelaars, gegevens**verwijdering** en incognito browsen. Maar dit zijn oppervlakkige controles. Zodra een AI de punten **verbindt**, **wist** het **verwijderen** van één stukje gegevens niet het verhaal dat het al heeft opgebouwd. Atlas kan discrete items vergeten; de gevolgtrekkingen blijven echter bestaan.
Dit model verenigt de twee krachtigste motoren voor gegevensverzameling van het **web** — de zoekindex en de **browser** — en bedekt ze met AI die in staat is te redeneren over wat het observeert.
Het aantrekkelijke is dat het nuttig is. Een tool die boodschappenlijstjes organiseert, brengt ook financieel gedrag in kaart. Een tool die u helpt bij het onderzoeken van therapie, leidt ook uw emotionele toestand af. Wat verschijnt als personalisatie is data-extractie met empathie als **masker**.
Eerder surveillancekapitalisme vertrouwde op apathie van de gebruiker: mensen die te lui waren om hun **privacyinstellingen** (**instellingen**) te **updaten**. Atlas is afhankelijk van betrokkenheid: Het is zo slim en handig dat u niet anders kunt dan het **vertrouwen**.
Waarom Atlas niet klaar is voor gevoelig gebruik
Atlas is een gedurfde stap richting handsfree browsen, maar het is niet gebouwd voor vertrouwen. Dezelfde ontwerpkeuzes die het krachtig maken, maken het ook onveilig. Beveiligingsonderzoekers en testers hebben een consistente conclusie getrokken over AI-**browsers**: het zijn opmerkelijke demonstraties, maar onbetrouwbaar voor het dagelijks leven.
Als u Atlas probeert, behandel het dan als een testomgeving. Houd bankzaken, werk en persoonlijke **accounts** elders. Ga er niet vanuit dat de waarborgen bestand zijn tegen echte bedreigingen.
OpenAI zal waarschijnlijk de beveiliging van Atlas verbeteren, maar vandaag de dag betekent het gebruik van een AI-**browser** dat u het bedrijf direct zicht geeft op uw **online** gedrag en hoopt dat die **toegang** beschermd blijft.
Die zorg eindigt niet bij OpenAI zelf, aangezien het bedrijf uw gegevens **deelt** met partners en dienstverleners van **derden**, waardoor de kring van **toegang** buiten zijn directe controle wordt uitgebreid. Bijvoorbeeld, een **schending** waarbij een OpenAI-partner betrokken was, stelde **API**-**gebruikers**gegevens bloot — een herinnering dat zodra uw informatie het ChatGPT-ecosysteem **binnenkomt**, elke extra partij een potentiële zwakke **schakel** wordt.
Gebruik een **privé** AI-assistent die u veilig houdt
Er is een andere aanpak, en die wordt al door miljoenen mensen gebruikt.
Lumo, Proton’s **privé** AI-assistent(nieuw venster), is gebouwd om te bewijzen dat intelligentie en **privacy** naast elkaar kunnen bestaan. Het werkt volgens een strikt **beleid zonder logboeken**. Chatgeschiedenis wordt beschermd met zero-access **versleuteling**, wat betekent dat zelfs Proton het niet kan **lezen**. **Gesprekken** worden nooit gebruikt voor training. Zowel de **code** als de modellen zijn **open source**, zodat iedereen kan verifiëren wat er onder de motorkap gebeurt. **Gebruikers** bezitten hun gegevens volledig. En omdat Lumo wordt gefinancierd door de gemeenschap, niet door adverteerders, is er geen commerciële stimulans om persoonlijke informatie te exploiteren.
Dat is het verschil tussen surveillance AI en **privacy** AI. De ene is gebouwd om gegevens te verzamelen; de andere is gebouwd om ze te beschermen.




