En vanlig misoppfatning er at hvis du ikke bruker store språkmodeller (LLM-er) som ChatGPT for chatter, Midjourney for å generere bilder, eller Sora for å generere videoer, er du trygg mot kunstig intelligens (KI). Uansett om du bruker det eller ikke, berører KI allerede livet ditt.

For eksempel, når du tar bilder på Android, vil Google Photos automatisk skann og sette etikett på hver person i ditt bildebibliotek ved hjelp av ansiktsgjenkjenning. Å publisere en artikkel på sosiale medier uten å endre dine standard innstillinger oppretter offentlige artikler som kan skrapes inn i de massive datasettene som brukes til å trene LLM-er. Selv personlig tilpassede annonser på et nettsted eller i apper drives av KI som er trent på dine nettleser- og shoppingpreferanser.

Den bekvemmeligheten koster ditt personvern og kan ha en dyp innvirkning på livet ditt. Tjue bilder hentet fra barnets sosiale feed er nok til å bygge en 30-sekunders deepfake-video som kan brukes til utpressing, mobbing eller tyveri av identitet.

Her er hva som står på spill når KI har tilgang til de personlige dataene dine, og hva du kan gjøre for å beskytte ditt personvern når du er pålogget.

Hvordan risikerer KI ditt personvern?

KI kan svekke personvern ved å samle inn for mye, trekke for mange slutninger og dele for mye.

Dine personlige data kan bli samlet inn

KI-systemer blir mer nøyaktige ved å trene på massive mengder data, ofte skrapet fra offentlig tilgjengelige kilder, slik som dine Facebook-artikler(nytt vindu), Flickr-bilder(nytt vindu), eller Reddit-tråder(nytt vindu). Uformelle sosiale medie-artikler, familiebilder, og profildetaljer — som ofte inneholder sensitiv informasjon og opprinnelig ble forsøkt å dele av personlige eller sosiale årsaker — har blitt inkludert i datasett brukt til å trene milliard-dollar LLM-er og systemer for ansiktsgjenkjenning. Dette skjer fordi Big Tech behandler pålogget innhold som fritt tilgjengelig for bruk av KI, uten eksplisitt samtykke eller hensyn til åndsverk.

Du kan bli re-identifisert

Teknologiselskaper hevder at de personlige dataene dine ikke kan spores tilbake til deg når de er de-identifisert eller pseudo-anonymisert, noe som betyr at åpenbare identifikatorer som navn eller telefonnumre fjernes. Men denne beskyttelsen er skjør, siden anonymiserte datasett kan re-identifiseres ved å kryssreferere dem med andre datakilder, for eksempel sosiale medie-profiler eller geolokasjonsspor.

For eksempel, har Netflix-brukere blitt re-identifisert(nytt vindu) ved å sammenligne deres anonyme filmvurderinger med IMDb-informasjon. En studie(nytt vindu) viser at nesten enhver amerikaner kan pekes ut i hvilket som helst datasett med bare 15 demografiske markører. Ved å legge til KI sin mønstergjenkjenningskraft, har re-identifisering blitt raskere, enklere og tilgjengelig for alle.

Dine data kan bli delt med tredjeparter

Når du bruker KI-systemer, forblir dataene dine ikke alltid hos selskapet du registrer deg for. De kan dele med partnere eller tredjepart-behandlere — noen du sannsynligvis aldri har hørt om — som kan behandle dataene dine under sine egne vilkår og sikkerhetsstandarder.

På det tidspunktet blir personvern en øvelse i tillit. Du stoler ikke lenger bare på selskapet du kjenner for å beskytte informasjonen din, men på en hel kjede av ukjente eksterne aktører, hver med sin egen infrastruktur, retningslinje og sårbarheter. Hver hånd som berører dataene dine utvider angrepsflaten, og ansvarligheten blir uklar.

For eksempel førte et brudd som involverte en OpenAI-partner til eksponering av data fra en API-bruker, noe som viser hvordan tilgang fra en tredjepart kan bli den svakeste lenke i systemet.

Forespørsler om sletting av data fungerer kanskje ikke

Når dataene dine har trent en KI-modell, er det nesten umulig å ta dem tilbake fordi de former modellens generelle atferd. Maskinell avlæring — teknikker for å få en modell til å glemme — er fortsatt i de tidlige stadiene, så det eneste alternativet i dag ville være å trene modellen på nytt. Og selv om et selskap hevder å ha innfridd forespørselen din om sletting av data, er det praktisk talt ingen måte å bekreft det på(nytt vindu).

Andre kan se dine privat chatter

LLM-er som ChatGPT(nytt vindu), Meta AI(nytt vindu) og Grok(nytt vindu) har eksponert privat samtaler gjennom sine dele-funksjoner, hvor chatter har blitt indeksert av søkemotorer og gjort offentlig oppdagbare. Plattformer var ikke åpne nok om denne risikoen, noe som gjorde brukere uvitende om at det som føltes som en privat utveksling kunne ende opp synlig for alle på internett.

Du kan bli behandlet urettferdig

Hvis dataene som brukes av KI-systemer til å lære mønstre inneholder skjulte skjevheter — for eksempel fra historiske ulikheter eller ufullstendige datasett — kan KI-en forsterke disse mønstrene. Innsatsen er høyere med Big Techs ikke-private KI-systemer, som er lukket kildekode og fungerer som svarte bokser som ikke kan vurderes uavhengig. Disse systemene kan bruke sensitive attributter som rase, kjønn eller postkode for å ta automatiserte beslutninger innen prediktivt politiarbeid(nytt vindu), ansettelser(nytt vindu), helsevesen(nytt vindu), eller kredittvurdering(nytt vindu).

Målretting av annonser blir skarpere

Selv om ikke-privat KI gjør annonser smartere ved å aktiver hyper-målretting, invaderer den ofte familiens personvern. For eksempel, Publicis, en datamegler og verdens største reklameselskap, hevder å profilere 2,3 milliarder mennesker og spore detaljer som familiens preferanser og inntekt(nytt vindu) for å avgjøre om de skal målrette dem med budsjett- eller premium-produkter.

Med KI-chatbots som erstatter tradisjonelle søk, følger annonser etter oss inn i dette nye rommet. For eksempel fell inn Perplexity annonser i KI-genererte svar(nytt vindu) og har lagt inn et bud på 34,5 milliarder dollar for å kjøpe Google Chrome — et trekk med sikte på å få tilgang til nettleserens over 3 milliarder brukere og de intime atferdsdataene som følger med.

Sky lagring kan eksponere dataene dine

Skylagringsleverandører uten ende-til-ende-kryptering (E2EE) kan få tilgang til bildene, dokumentene og de sensitive filene du laster opp. De kan også bruke disse dataene til å drive KI-verktøy, generere innsikt om deg eller vise personlig tilpassede annonser.

Google Drive beholder for eksempel tilgang til dataene dine og bruker dem til KI-funksjoner som stavekontroll og autofullføring i Google Docs. Hvis Gemini, Googles KI-assistent, forblir tett integrert med Google Workspace, kan spørringer du gjør om Drive-filene dine også mate inn i KI-trening.

Tilsvarende har Microsoft kunngjort at Word, Excel og PowerPoint snart vil lagres automatisk på OneDrive som standard, en annen ikke-E2EE-tjeneste der fremtidig bruk av dataene dine til annonsering eller KI-trening forblir usikker.

KI kan gjøre feil

Automatiserte systemer kan skanne den private kommunikasjonen din og flagge den som mistenkelig. EUs foreslåtte Chat Control-lov vil kreve at meldingstjenester som WhatsApp og Signal bruker KI til å skanne hver eneste private melding og bilde for å oppdage materiale med seksuelle overgrep mot barn (CSAM).

Men dette betyr overvåking av alles samtaler, ikke bare de til mistenkte kriminelle. Og historien viser hvor lett KI kan gjøre feil. En fars Google-konto ble for eksempel avsluttet(nytt vindu) og rapportert til myndighetene etter å ha sendt et bilde av barnet sitt til en lege. Det som burde forbli mellom deg og legen din, eller deg og familien din, kan plutselig bli eksponert for teknologiselskaper og politi.

Hvem som helst kan lage deepfakes

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Ondsinnede aktører utnytter deepfakes til identitetstyveri, svindel, utpressing eller omdømmeskade – og risikoen gjelder også for barn. I 2019 brukte kriminelle deepfake-lyd for å etterligne stemmen til en administrerende direktør(nytt vindu) og lurte en ansatt til å overføre 220 000 euro. Risikoen gjelder også for barn. I en hendelse opprettet et rovdyr et deepfake-bilde av en 14-åring(nytt vindu) for å presse ut penger ved å true med å dele det.

Hvordan holde dataene dine private fra KI-systemer

Det er mange personvernbekymringer med KI-systemer, spesielt de ikke-private modellene med lukket kildekode drevet av Big Tech. Og selv om du ikke helt kan forhindre disse systemene i å skrape eller misbruke dataene dine når de først er der ute, kan du redusere fotavtrykket ditt, kreve ansvarlighet og velge en KI som setter personvern først og som ikke utnytter dataene dine. Her er hva du kan gjøre:

  • På sosiale medier bør du gjøre profilene og innleggene dine private, slette gamle opplastinger, fjerne EXIF-data fra bilder før deling og unngå å dele identifiserbare detaljer – som adresser, barns fulle navn eller skolene de går på. Finn ut mer om hvordan du administrerer internett for familien din.
  • Sjekk personverninnstillingene til appene dine. For eksempel kan Meta AI skanne bildene i kamerarullen din og videoene i Facebook-appen for Android og iOS.
  • Beskytt mot deepfakes ved å sladde eller fjerne familiens ansikter før du legger ut bilder på nettet.
  • Masker ditt digitale fotavtrykk ved å bruke et virtuelt privat nettverk (VPN)(nytt vindu) for å skjule IP-adressen din, og bruk aliaser for å beskytte e-postadressen din når du legger ut sensitiv informasjon du ikke vil skal spores tilbake til deg.
  • Bruk tjenester som setter personvern først og som ikke tjener penger på dataene dine, som Signal for sikker meldingstjeneste og Brave eller DuckDuckGo for privat surfing.
  • For sikker lagring av dine mest sensitive filer, inkludert private bilder og konfidensielle dokumenter, bruk Proton Drive for ende-til-ende-kryptert skylagring. I motsetning til plattformer som kan eksponere angivelig privat innhold, skanner, indekserer eller bruker ikke Drive dataene dine til KI-trening – og de kan ikke ses av noen andre, selv ikke når du velger å dele dem. Å holde bildene dine virkelig private betyr også at de ikke havner på nettet der de kan misbrukes til å lage deepfakes.
  • Velg bort KI-trening når det er mulig, for eksempel på Gemini, ChatGPT(nytt vindu), Claude(nytt vindu) eller Meta AI. Retningslinjer kan endres over natten med liten advarsel, så hvis du vil ha fordelene med både KI og personvern, bytt til Lumo — vår KI-assistent med personvern i fokus(nytt vindu) som ikke beholder logger eller trener på dataene dine.

Sterkere forskrifter om KI-personvern, for eksempel EUs KI-forordning(nytt vindu), vil være kritisk for å flytte makten tilbake til internettbrukere. Inntil da er det beste forsvaret å være oppmerksom på hva du deler på nettet, kreve ansvarlighet fra selskapene som bygger disse systemene, og velge gjennomsiktige KI-verktøy(nytt vindu) som respekterer personvernet fra grunnen av.