I takt med at brugen af kunstig intelligens stiger, bliver AI-assistenter(nyt vindue) betroede ledsagere. Millioner af mennesker henvender sig til chatbots som ChatGPT, Claude, Gemini, DeepSeek og andre for at stille spørgsmål og løse problemer. Deres forespørgsler kan være dybt følsomme, spørge om sundhedsproblemer, dele klientdata eller søge følelsesmæssig support og kreativ inspiration.

For mange føles disse chatbots menneskelige, lydhøre og fortrolige. Men den seneste udvikling (en retskendelse har tvunget OpenAI til at bevare ChatGPT-outputdata(nyt vindue) på ubestemt tid, og Sam Altman, grundlæggeren af OpenAI, siger, at ChatGPT ikke tilbyder “juridisk fortrolighed(nyt vindue)“) kaster lys over risikoen for, at hvert ord, du skriver, kan blive logget, lagret, analyseret og muligvis misbrugt eller lækket til tredjeparter.

Her er, hvad det kunne betyde, og hvorfor det bør bekymre os alle.

Indsatsen er højere med AI

Fremkomsten af AI-assistenter føles som en ny grænse, men på mange måder har vi været her før. Bekymringerne omkring AI-chatlogs giver genlyd af dem, der dukkede op i de tidlige dage af søgemaskiner, hvoraf mange viste sig at være velbegrundede. Søgelogs er blevet brugt til at opbygge lukrative annoncemålretningsprofiler, er blevet afsløret i databrud og er blevet stævnet i retten.

Med AI er indsatsen højere, fordi dataene er mere personlige og detaljerede. Et stigende antal mennesker vender sig fra søgemaskiner til AI-chatbots for at få svar, med forudsigelser om, at brugen af søgemaskiner vil falde med 25 % inden 2026(nyt vindue). I modsætning til et søgefelt, som typisk fanger korte, fragmenterede forespørgsler, er spørgsmål til chatbots formuleret, som om spørgerne taler med en anden person, hvilket afslører meget mere om dem selv i processen. En enkelt samtale kan indeholde personlige tanker(nyt vindue), følelsesmæssige kampe, sundhedsproblemer(nyt vindue), økonomisk frygt eller endda fulde navne og adresser.

Kort sagt tilbyder chatlogs et utroligt rigt og intimt kort over din identitet, mere end søgemaskinelogs – og med langt større konsekvenser for dit privatliv. Big Tech kunne få adgang til dine chatlogs og bruge dem til at opbygge en psykologisk profil på dig, der kan videregives til regeringen eller bruges til målrettet annoncering. For eksempel bruger Meta AI-chatdata til at oprette personlige annoncer.

Dine ’anonyme’ chats vil ikke altid forblive sådan

Et almindeligt argument imod at bekymre sig om privatlivets fred for chatlogs er, at den enorme mængde data gør individuel udnyttelse usandsynlig, især når brugere ikke er logget ind. Men den nyere historie fortæller en anden historie.

I juli fandt journalister ud af, at mere end 100.000 samtaler i ChatGPT(nyt vindue) blev indekseret af Google og gjort søgbare. Brugere, der klikkede på ”del”-knappen for at sende en samtale til venner eller kolleger, var næsten helt sikkert ikke klar over, at deres private samtaler ville være synlige for alle på internettet.

Dette eksempel er en advarsel: Såkaldt ”anonyme” data er sjældent anonyme. Parret med IP-adresser, tidsstempler, enhedsfingeraftryk samt session- og cookie-ID’er bliver disse logs langt mere identificerbare.

Hvordan chats kan afsløre vores indre liv

De populære AI-platforme ChatGPT(nyt vindue), Gemini(nyt vindue) og DeepSeek(nyt vindue) angiver alle, at brugerchatlogs bruges til at hjælpe med at forbedre modellens ydeevne og ikke bruges til at “sælge” dine data til annoncering eller brugerprofilering. Men politikker kan ændre sig fra den ene dag til den anden, som OpenAIs juridiske kamp viser.

For eksempel opdaterede Anthropic sin privatlivspolitik(nyt vindue) uden advarsel i august 2025 for at forlænge opbevaringsperioden. Med logs lagret på ubestemt tid kan de personlige data, der engang virkede utilgængelige, pludselig blive en lukrativ kilde til profit.

Det ville ikke være første gang, det skete. Da Google lancerede i 1998, advarede medstifterne Sergey Brin og Larry Page om(nyt vindue), at reklamebaserede søgemaskiner uundgåeligt ville være “iboende forudindtagede over for annoncørerne og væk fra forbrugernes behov”. Et årti senere begyndte Google at bruge søgehistorik til at målrette annoncer(nyt vindue).

Med direkte adgang til folks indre liv kan AI-logs presse annoncemålretning til dens grænser. Med et stigende antal brugere, der vender sig til chatbots for følelsesmæssig support(nyt vindue), kan nogen betro sig:

  • “Jeg føler mig overvældet og alene på det seneste.”
  • “Tror du, jeg har en depression?”
  • “Hvad kan jeg gøre, hvis jeg ikke kan betale husleje i næste måned?”

Disse udsagn er ikke bare søgeord eller en samling af interaktioner, de er klare følelsesmæssige og situationelle indikatorer. Hvis de bliver lagret og analyseret, kan de bruges til at opbygge psykologiske profiler og manipulere brugerbeslutninger.

Det er ikke alarmistisk at foreslå, at sådanne intime, følsomme oplysninger kunne bruges til udnyttende formål — for Big Tech-virksomhederne har gjort præcis det. I 2017 demonstrerede Facebook, at ingen interaktion er forbudt område ved at udforske måder at målrette annoncer mod følelsesmæssigt sårbare teenagere(nyt vindue) i øjeblikke af usikkerhed.

Chatbot-logs er et vindue ind til din psyke. Og det niveau af adgang rejser betydelige bekymringer om privatliv og etik i en sektor, der endnu ikke har klare retningslinjer og regulativer for dataanvendelse og applikation.

De juridiske risici for brugere

Søgehistorik har længe spillet en rolle i kriminalefterforskninger og retssager. Der er flere tilfælde, hvor online-forespørgsler bidrog til skyldkendelser, især Moira Akers vs State i USA.

Efter at have oplevet en dødfødsel i 2018 blev Akers anklaget for mord og blev i 2022 idømt 30 års fængsel. En vigtig del af anklagerens sag var Akers’ internetsøgninger om abort, foretaget under de tidlige stadier af hendes graviditet. Ifølge anklagemyndigheden tjente disse søgninger som bevis for Akers’ hensigt — på trods af at hun fuldførte graviditeten. Højesteret i Maryland omstødte hendes dom i 2025 og kendte beviserne fra søgeforespørgslen uantagelige(nyt vindue). Men Akers havde allerede tilbragt næsten tre år i fængsel. Sagen fremhæver, hvordan lagrede logs kan bruges til at fortælle en historie, der passer til et ugunstigt narrativ, selvom der er beviser, der modsiger det.

Indsatsen kunne være endnu højere med AI-lagrede chats, der kan være genstand for juridisk bevisførelse. I modsætning til søgeforespørgsler er disse interaktioner mere konverserende og endda spekulative, nogle gange som en måde at fremprovokere en bestemt type respons fra LLM’en, eller den store sprogmodel. En privat, uskyldig udveksling med en AI kunne senere blive fortolket som inkriminerende i en juridisk sammenhæng, uanset hensigten på det tidspunkt.

Et stærkt værktøj til manipulation

De, der kan se chatbot-logs, kan få adgang til detaljerede adfærdsmæssige tegninger: personlige vaner, følelsesmæssige udløsere, forholds-dynamikker og endda professionelle sårbarheder. I de forkerte hænder er disse data et stærkt værktøj til social engineering, som er en almindelig hacking-taktik, der involverer psykologisk manipulation.

Denne risiko er langt fra hypotetisk. I januar 2025 efterlod AI-platformen DeepSeek en massiv database eksponeret online(nyt vindue). Databruddet inkluderede over en million AI-chatlogs og API-nøgler, alle offentligt tilgængelige for enhver, der vidste, hvor de skulle lede. Blandt de eksponerede data var samtaler i klartekst, der kan have indeholdt diskussioner om familie, økonomi og fortrolige projekter — oplysninger, der let kunne udnyttes til bedrageri, afpresning eller identitetstyveri.

Når de først er lækket, kan disse data våbengøres til at udgive sig for at være dig eller manipulere dig. Ved at henvise til personlige detaljer trukket fra tidligere samtaler kan angribere vinde din tillid og udnytte den til at skabe alvorlige økonomiske eller sikkerhedsmæssige sårbarheder.

Spøgelset af politisk overvågning

I autoritære regimer kan konsekvenserne af lagrede digitale interaktioner være langt mere alvorlige. For eksempel har flere lande forbudt den Kina-baserede AI-platform DeepSeek fra brug på regeringsenheder(nyt vindue) på grund af sikkerhedsbekymringer om, hvordan brugernes personlige oplysninger håndteres af operatøren. Sydkorea, Australien og Taiwan rejste bekymringer om, at disse data kunne tilgås af kinesiske myndigheder og potentielt bruges til overvågning.

For dissidenter, aktivister eller journalister er dette ikke bare et problem om privatliv, det er et spørgsmål om sikkerhed. En tilsyneladende afslappet chat om protestrettigheder, medielove eller asylruter kunne tolkes som inkriminerende beviser i jurisdiktioner med begrænset beskyttelse af ytringsfrihed og borgerrettigheder.

En trussel mod intellektuel ejendom

I 2023 uploadede Samsung-ingeniører utilsigtet proprietær kildekode(nyt vindue) til ChatGPT, mens de forsøgte at fejlfinde et problem, under den fejlagtige tro, at deres forespørgsler var private. Da de var indsendt, blev disse data en del af OpenAIs træningssystem, hvilket udløste bekymringer om sikkerheden og ejerskabet af intellektuel ejendom delt med AI-værktøjer.

En beslægtet bekymring opstod i den profilerede ophavsretssag anlagt af The New York Times mod OpenAI(nyt vindue) nævnt i begyndelsen af denne artikel. Sagen førte til en retskendelse, der krævede, at OpenAI skulle bevare alle ChatGPT-outputdata på ubestemt tid efter anklager om, at virksomheden brugte millioner af avisens artikler til at træne sine modeller uden tilladelse. Selvom sagen centrerer sig om OpenAIs web-crawlere, der scraper nyhedsindhold, rejser den bredere spørgsmål for kreative — forfattere, designere, musikere og andre — der bidrager med originalt arbejde til AI-platforme.

Hvis brugerindsendt indhold opbevares og genbruges af modellen, er der en reel risiko for, at proprietært eller kreativt materiale kan blive videredistribueret til andre brugere uden kreditering eller samtykke. Dette udvisker linjen mellem brugerbidrag og AI-træningsdata, og det rejser presserende spørgsmål om forfatterskab og ejerskab i den generative AI’s tidsalder.

Hvad der skal ændres, og hvordan du beskytter dig selv

De fleste mennesker ønsker og forventer privatliv i deres virkelige liv. Vi mener, at de samme forventninger bør gælde for folks digitale liv. Vi har bygget en pakke af krypterede tjenester, der gør online-privatliv tilgængeligt for alle, uanset om du sender e-mails til dine venner, streamer dine yndlingsshows(nyt vindue) eller sikkerhedskopierer fotos. Det er ikke for sent at rette op på internettets tidlige fejl, og med AI i sin spæde start er der stadig tid til at udstikke en ny kurs for denne teknologi, der respekterer dit privatliv.

Vi byggede vores AI-assistent(nyt vindue) Lumo på en måde, der opretholder nøglebeskyttelser gennem design:

  • Ingen datalogning: Brugere bør kunne engagere sig med chatbots uden bekymring for, at deres indsendelser vil blive lagret, brugt til profit eller brugt imod dem. 
  • Ingen modeltræning: Private chats bør aldrig udnyttes som træningsdata, fordi det indebærer risikoen for at dukke op igen i modellens output senere.
  • Gennemsigtighed i datahåndtering: Det bør være klart, hvordan lagrede brugerdata bruges, hvem der kan få adgang til dem, hvor de er lagret, hvor længe de opbevares, og hvordan de kan slettes.
  • Zero-access kryptering som standard: Samtaler bør sikres ved brug af brugerens krypteringsnøgler, så selv ikke AI-udbyderen kan få adgang.

Selvom farerne ved chatbots, der i stilhed logger vores data, er reelle og presserende, er vi ikke magtesløse. Ved at vælge privatlivsførst AI-værktøjer og kræve gennemsigtighed og ansvarlighed fra deres skabere, kan vi flytte magtbalancen tilbage til brugerne og bekræfte troen på, at privatliv er en ret, ikke et privilegium.