En udbredt misforståelse er, at hvis du ikke bruger store sprogmodeller (LLM’er) som ChatGPT til chats, Midjourney til generering af billeder eller Sora til generering af videoer, er du sikker mod kunstig intelligens (AI). Uanset om du bruger det eller ej, berører AI allerede dit liv.

For eksempel, når du tager billeder på Android, scanner og markerer Google Fotos automatisk hver person i dit fotobibliotek ved hjælp af ansigtsgenkendelse. At poste på sociale medier uden at ændre dine standardindstillinger skaber offentlige opslag, der kan skrabes ind i de massive datasæt, der bruges til at træne LLM’er. Selv personlige annoncer på websteder eller i apps er drevet af AI trænet på dine browsing- og shoppingpræferencer.

Den bekvemmelighed koster dit privatliv og kan have en dyb indvirkning på dit liv. Tyve billeder taget fra dit barns sociale feed er nok til at opbygge en 30-sekunders deepfake-video, der kan bruges til afpresning, mobning eller identitetstyveri.

Her er, hvad der er på spil, når AI har adgang til dine personlige data, og hvad du kan gøre for at beskytte dit privatliv online.

Hvordan risikerer AI dit privatliv?

AI kan udhule privatliv ved at indsamle for meget, udlede for meget, dele for meget.

Dine personlige data kan blive indsamlet

AI-systemer bliver mere nøjagtige ved at træne på massive mængder data, ofte skrabet fra offentligt tilgængelige kilder, såsom dine Facebook-opslag(nyt vindue), Flickr-billeder(nyt vindue) eller Reddit-tråde(nyt vindue). Afslappede opslag på sociale medier, familiebilleder og profildetaljer — der ofte indeholder følsomme oplysninger og oprindeligt blev delt af personlige eller sociale årsager — er blevet inkluderet i datasæt brugt til at træne milliard-dollar LLM’er og ansigtsgenkendelsessystemer. Dette sker, fordi Big Tech behandler onlineindhold som frit tilgængeligt til AI-brug, uden eksplicit samtykke eller hensyn til intellektuel ejendomsret.

Du kan blive genidentificeret

Teknologivirksomheder hævder, at dine personlige data ikke kan spores tilbage til dig, når de er blevet afidentificeret eller pseudo-anonymiseret, hvilket betyder, at tydelige identifikatorer som navne eller telefonnumre fjernes. Men denne beskyttelse er skrøbelig, da anonymiserede datasæt kan genidentificeres ved at krydsreferere dem med andre datakilder, såsom profiler på sociale medier eller geolokationsspor.

For eksempel er Netflix-brugere blevet genidentificeret(nyt vindue) ved at sammenligne deres anonyme filmvurderinger med IMDb-oplysninger. Et studie(nyt vindue) viser, at næsten hver amerikaner kan udpeges i ethvert datasæt med kun 15 demografiske markører. Med tilføjelsen af AI’s mønstergenkendelseskraft er genidentifikation blevet hurtigere, nemmere og tilgængelig for enhver.

Dine data kan blive delt med tredjeparter

Når du bruger AI-systemer, bliver dine data ikke altid hos den virksomhed, du tilmeldte dig. De kan blive delt med partnere eller tredjepartsbehandlere — nogle du sandsynligvis aldrig har hørt om — der kan håndtere dine data under deres egne vilkår og sikkerhedsstandarder.

På det tidspunkt bliver privatliv en øvelse i tillid. Du stoler ikke længere kun på den virksomhed, du kender, til at beskytte dine oplysninger, men på en hel kæde af ukendte eksterne aktører, hver med deres egen infrastruktur, politikker og sårbarheder. Hver hånd, der rører dine data, udvider angrebsfladen, og ansvarlighed bliver sløret.

For eksempel førte et databrud, der involverede en OpenAI-partner, til eksponering af API-brugerdata, hvilket viser, hvordan tredjepartsadgang kan blive det svageste led i systemet.

Anmodninger om sletning af data fungerer muligvis ikke

Når dine data først træner en AI-model, er det næsten umuligt at tage dem tilbage, fordi de former modellens overordnede adfærd. Maskinaflæring — teknikker til at få en model til at glemme — er stadig i sine tidlige stadier, så den eneste mulighed i dag ville være at genoptræne modellen. Og selvom en virksomhed hævder at have efterkommet din anmodning om sletning af data, er der praktisk talt ingen måde at bekræfte det på(nyt vindue).

Andre mennesker kan se dine private chats

LLM’er såsom ChatGPT(nyt vindue), Meta AI(nyt vindue) og Grok(nyt vindue) har eksponeret private samtaler gennem deres delefunktioner, hvor chats indekseres af søgemaskiner og gøres offentligt tilgængelige. Platformene var ikke gennemsigtige nok omkring denne risiko, hvilket efterlod brugerne uvidende om, at hvad der føltes som en privat udveksling, kunne ende med at være synligt for enhver på internettet.

Du kan blive behandlet uretfærdigt

Hvis dataene, som AI-systemer bruger til at lære mønstre, indeholder skjulte forudindtagetheder — såsom fra historiske uligheder eller ufuldstændige datasæt — kan AI’en forstærke eller forstørre disse mønstre. Indsatsen er højere med Big Techs ikke-private AI-systemer, som er closed-source og fungerer som sorte bokse, der ikke kan gennemgås uafhængigt. Disse systemer kan bruge følsomme attributter som race, køn eller postnummer til at træffe automatiserede beslutninger inden for forudsigende politiarbejde(nyt vindue), ansættelse(nyt vindue), sundhedspleje(nyt vindue) eller kreditvurdering(nyt vindue).

Annoncemålretning bliver skarpere

Mens ikke-privat AI gør annoncer smartere ved at muliggøre hypermålretning, invaderer det ofte hele din families privatliv. For eksempel hævder Publicis, en databroker og verdens største reklamebureau, at de profilerer 2,3 milliarder mennesker og sporer detaljer som familiepræferencer og indkomst(nyt vindue) for at beslutte, om de skal målrette dem med budget- eller premiumprodukter.

Med AI-chatbots, der erstatter traditionel søgning, følger annoncer med os ind i dette nye rum. For eksempel integrerer Perplexity annoncer i AI-genererede svar(nyt vindue) og har lagt et bud på 34,5 milliarder dollars på at købe Google Chrome — et træk rettet mod at få adgang til browserens 3+ milliarder brugere og de intime adfærdsdata, der følger med.

Skylager kan eksponere dine data

Skylagerudbydere uden end-to-end kryptering (E2EE) kan få adgang til de billeder, dokumenter og følsomme filer, du uploader. De kan også bruge disse data til at drive AI-værktøjer, generere indsigt om dig eller vise personlige annoncer.

Google Drive, for eksempel, beholder adgang til dine data og bruger dem til AI-funktioner som stavekontrol og autofuldførelse i Google Docs. Hvis Gemini, Googles AI-assistent, forbliver tæt integreret med Google Workspace, kan forespørgsler, du laver om dine Drive-filer, også føde ind i AI-træning.

Tilsvarende har Microsoft annonceret, at Word, Excel og PowerPoint snart vil gemme automatisk til OneDrive som standard, en anden ikke-E2EE tjeneste, hvor den fremtidige brug af dine data til annoncering eller AI-træning forbliver usikker.

AI kan begå fejl

Automatiserede systemer kunne scanne dine private kommunikationer og markere dem som mistænkelige. EU’s foreslåede Chat Control-lov ville kræve, at beskedtjenester som WhatsApp og Signal bruger AI til at scanne hver privat besked og billede for at opdage materiale om seksuelt misbrug af børn (CSAM).

Men dette betyder overvågning af alles samtaler, ikke kun dem fra mistænkte kriminelle. Og historien viser, hvor let AI kan begå fejl. En fars Google-konto blev for eksempel lukket(nyt vindue) og anmeldt til myndighederne efter at have sendt et billede af sit barn til en læge. Hvad der burde blive mellem dig og din læge, eller dig og din familie, kunne pludselig blive eksponeret for teknologivirksomheder og retshåndhævelse.

Enhver kan lave deepfakes

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Ondsindede aktører udnytter deepfakes til identitetstyveri, svindel, afpresning eller skade på omdømme — og risiciene strækker sig til børn. I 2019 brugte kriminelle deepfake-lyd til at efterligne en CEO’s stemme(nyt vindue) og narrede en medarbejder til at overføre 220.000 €. Risiciene strækker sig også til børn. I et tilfælde skabte en krænker et deepfake-billede af en 14-årig(nyt vindue) for at afpresse penge ved at true med at dele det.

Sådan holder du dine data private fra AI-systemer

Der er mange privatlivsbekymringer med AI-systemer, især de ikke-private, closed-source modeller drevet af Big Tech. Og mens du ikke helt kan forhindre disse systemer i at skrabe eller misbruge dine data, når de først er derude, kan du reducere dit fodaftryk, kræve ansvarlighed og vælge privatlivsførst AI, der ikke udnytter dine data. Her er, hvad du kan gøre:

  • På sociale medier, gør dine profiler og opslag private, slet gamle uploads, fjern EXIF-data fra billeder før deling, og undgå at dele identificerbare detaljer — som adresser, børns fulde navne eller skolerne, de går på. Find ud af mere om, hvordan du administrerer internettet for din familie.
  • Tjek privatlivsindstillingerne for dine apps. For eksempel kunne Meta AI scanne dine billeder i kamerarullen og videoer på Facebook-appen til Android og iOS.
  • Beskyt mod deepfakes ved at sløre eller redigere din families ansigter, før du poster billeder online.
  • Maskér dit digitale fodaftryk ved at bruge et virtuelt privat netværk (VPN)(nyt vindue) til at skjule din IP-adresse, og brug aliasser til at beskytte din e-mailadresse, når du poster følsomme oplysninger, du ikke ønsker sporet tilbage til dig.
  • Brug privatlivsførst-tjenester, der ikke tjener penge på dine data, såsom Signal til sikker beskedudveksling og Brave eller DuckDuckGo til privat browsing.
  • Til sikker lagring af dine mest følsomme filer, herunder private billeder og fortrolige dokumenter, brug Proton Drive til end-to-end krypteret skylager. I modsætning til platforme, der kan eksponere angiveligt privat indhold, scanner, indekserer eller bruger Drive ikke dine data til AI-træning — og de kan ikke ses af nogen andre, selv når du vælger at dele dem. At holde dine billeder virkelig private betyder også, at de ikke ender online, hvor de kan misbruges til at skabe deepfakes.
  • Vælg AI-træning fra, når det er muligt, såsom på Gemini, ChatGPT(nyt vindue), Claude(nyt vindue) eller Meta AI. Politikker kan ændres over natten med ringe advarsel, så hvis du vil have fordelene ved både AI og privatliv, så skift til Lumo — vores privatlivsførst AI-assistent(nyt vindue), der ikke gemmer logs eller træner på dine data.

Stærkere regulativer om AI-privatliv, såsom EU’s AI Act(nyt vindue), vil være afgørende for at flytte magten tilbage til internetbrugere. Indtil da er det bedste forsvar at være opmærksom på, hvad du deler online, kræve ansvarlighed fra virksomhederne, der bygger disse systemer, og vælge gennemsigtige AI-værktøjer(nyt vindue), der respekterer privatliv fra bunden.