En vanlig missuppfattning är att om du inte använder stora språkmodeller (LLM) som ChatGPT för chattar, Midjourney för att generera bilder eller Sora för att generera videor, så är du säker från artificiell intelligens (AI). Oavsett om du använder det eller inte, berör AI redan ditt liv.

Till exempel, när du tar foton på Android, skannar och taggar Google Photos automatiskt varje person i ditt bildbibliotek med hjälp av ansiktsigenkänning. Att göra inlägg på sociala medier utan att ändra dina standardinställningar skapar offentliga inlägg som kan skrapas till de enorma dataset som används för att träna LLM:er. Även personliga annonser på webbplatser eller i appar drivs av AI som tränats på dina surf- och shoppingpreferenser.

Den bekvämligheten kostar dig din integritet och kan ha en djup inverkan på ditt liv. Tjugo foton tagna från ditt barns sociala flöde räcker för att bygga en 30-sekunders deepfake-video som kan användas för utpressning, mobbning eller identitetsstöld.

Här är vad som står på spel när AI har tillgång till dina personuppgifter och vad du kan göra för att skydda din integritet online.

Hur riskerar AI din integritet?

AI kan urholka integriteten genom att samla in för mycket, dra för många slutsatser och dela för mycket.

Dina personuppgifter kan samlas in

AI-system blir mer exakta genom att träna på enorma mängder data, ofta skrapade från offentligt tillgängliga källor, såsom dina Facebook-inlägg(nytt fönster), Flickr-foton(nytt fönster) eller Reddit-trådar(nytt fönster). Vardagliga inlägg på sociala medier, familjefoton och profildetaljer – som ofta innehåller känslig information och ursprungligen delades av personliga eller sociala skäl – har inkluderats i dataset som används för att träna miljarddollars LLM:er och system för ansiktsigenkänning. Detta sker eftersom Big Tech behandlar onlineinnehåll som fritt tillgängligt för AI-användning, utan uttryckligt samtycke eller hänsyn till immateriella rättigheter.

Du kan bli återidentifierad

Teknikföretag hävdar att dina personuppgifter inte kan spåras tillbaka till dig när de väl har avidentifierats eller pseudoanonymiserats, vilket innebär att uppenbara identifierare som namn eller telefonnummer tas bort. Men detta skydd är bräckligt, eftersom anonymiserade dataset kan återidentifieras genom att korsreferera dem med andra datakällor, såsom profiler på sociala medier eller geolokaliseringsspår.

Till exempel har Netflix-användare återidentifierats(nytt fönster) genom att jämföra deras anonyma filmbetyg med IMDb-information. En studie(nytt fönster) visar att nästan varje amerikan kan pekas ut i vilket dataset som helst med bara 15 demografiska markörer. Med AI:s mönstermatchningskraft har återidentifiering blivit snabbare, enklare och tillgänglig för vem som helst.

Dina data kan delas med tredje part

När du använder AI-system stannar dina data inte alltid hos det företag du registrerade dig hos. De kan delas med partners eller tredjepartsbehandlare – vissa som du förmodligen aldrig har hört talas om – som kan hantera dina data under sina egna villkor och säkerhetsstandarder.

Vid den tidpunkten blir integritet en förtroendeövning. Du förlitar dig inte längre bara på det företag du känner för att skydda din information, utan på en hel kedja av okända externa aktörer, var och en med sin egen infrastruktur, policyer och sårbarheter. Varje hand som rör dina data vidgar attackytan, och ansvarsutkrävandet blir otydligt.

Till exempel ledde ett intrång som involverade en OpenAI-partner till exponering av API-användardata, vilket visar hur åtkomst från tredje part kan bli den svagaste länken i systemet.

Begäran om dataradering kanske inte fungerar

När dina data väl tränar en AI-modell är det nästan omöjligt att ta tillbaka dem eftersom de formar modellens övergripande beteende. Maskinavläring (machine unlearning) – tekniker för att få en modell att glömma – är fortfarande i ett tidigt skede, så det enda alternativet idag skulle vara att träna om modellen. Och även om ett företag hävdar att de har tillgodosett din begäran om dataradering, finns det praktiskt taget inget sätt att bekräfta det(nytt fönster).

Andra människor kan se dina privata chattar

LLM:er som ChatGPT(nytt fönster), Meta AI(nytt fönster) och Grok(nytt fönster) har exponerat privata konversationer genom sina delningsfunktioner, där chattar indexerats av sökmotorer och gjorts offentligt sökbara. Plattformarna var inte tillräckligt transparenta om denna risk, vilket lämnade användare ovetande om att vad som kändes som ett privat utbyte kunde bli synligt för vem som helst på internet.

Du kan behandlas orättvist

Om de data som används av AI-system för att lära sig mönster innehåller dolda fördomar – till exempel från historisk ojämlikhet eller ofullständiga dataset – kan AI förstärka eller amplifiera dessa mönster. Insatserna är högre med Big Techs icke-privata AI-system, som är slutna (closed-source) och fungerar som svarta lådor som inte kan granskas oberoende. Dessa system kan använda känsliga attribut som ras, kön eller postnummer för att fatta automatiserade beslut inom förutsägande polisarbete(nytt fönster), anställning(nytt fönster), sjukvård(nytt fönster) eller kreditvärdighet(nytt fönster).

Annonsriktningen blir skarpare

Medan icke-privat AI gör annonser smartare genom att möjliggöra hyper-targeting, inkräktar det ofta på hela din familjs integritet. Till exempel hävdar Publicis, en datamäklare och världens största reklamföretag, att de profilerar 2,3 miljarder människor och spårar detaljer som familjepreferenser och inkomst(nytt fönster) för att avgöra om de ska rikta sig till dem med budget- eller premiumprodukter.

När AI-chattbotar ersätter traditionellt sök, följer annonser efter oss in i detta nya utrymme. Till exempel bäddar Perplexity in annonser i AI-genererade svar(nytt fönster) och har lagt ett bud på 34,5 miljarder dollar för att köpa Google Chrome – ett drag som syftar till att få tillgång till webbläsarens över 3 miljarder användare och de intima beteendedata som följer med den.

Molnlagring kan exponera dina data

Leverantörer av molnlagring utan end-to-end-kryptering (E2EE) kan få åtkomst till de foton, dokument och känsliga filer du laddar upp. De kan också använda dessa data för att driva AI-verktyg, generera insikter om dig eller visa personliga annonser.

Google Drive, till exempel, behåller åtkomsten till dina data och använder dem för AI-funktioner som stavningskontroll och autoslutförande i Google Docs. Om Gemini, Googles AI-assistent, förblir tätt integrerad med Google Workspace, kan sökningar du gör om dina Drive-filer också matas in i AI-träning.

På samma sätt har Microsoft meddelat att Word, Excel och PowerPoint snart kommer att autospara till OneDrive som standard, ytterligare en icke-E2EE-tjänst där den framtida användningen av dina data för annonsering eller AI-träning förblir osäker.

AI kan göra misstag

Automatiserade system skulle kunna skanna din privata kommunikation och flagga den som misstänkt. EU:s föreslagna lag Chat Control skulle kräva att meddelandetjänster som WhatsApp och Signal använder AI för att skanna varje privat meddelande och foto för att upptäcka material med sexuella övergrepp mot barn (CSAM).

Men detta innebär övervakning av allas konversationer, inte bara de som tillhör misstänkta brottslingar. Och historien visar hur lätt AI kan göra misstag. En pappas Google-konto stängdes till exempel av(nytt fönster) och anmäldes till myndigheter efter att han skickat ett foto av sitt barn till en läkare. Vad som borde stanna mellan dig och din läkare, eller dig och din familj, kan plötsligt exponeras för teknikföretag och brottsbekämpande myndigheter.

Vem som helst kan skapa deepfakes

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Illasinnade aktörer utnyttjar deepfakes för identitetsstöld, bedrägeri, utpressning eller ryktesspridning – och riskerna sträcker sig även till barn. År 2019 använde brottslingar deepfake-ljud för att härma en VD:s röst(nytt fönster) och lurade en anställd att överföra 220 000 euro. Riskerna gäller även barn. I ett fall skapade en förövare en deepfake-bild av en 14-åring(nytt fönster) för att pressa denne på pengar genom att hota att dela den.

Hur du håller dina data privata från AI-system

Det finns många integritetsproblem med AI-system, särskilt de icke-privata, slutna modellerna som drivs av Big Tech. Och även om du inte helt kan förhindra dessa system från att skrapa eller missbruka dina data när de väl är ute, kan du minska ditt fotavtryck, kräva ansvar och välja integritetsfrämjande AI som inte utnyttjar dina data. Här är vad du kan göra:

  • På sociala medier, gör dina profiler och inlägg privata, ta bort gamla uppladdningar, rensa EXIF-data från foton innan du delar dem och undvik att dela identifierbara detaljer – som adresser, barns fullständiga namn eller skolorna de går i. Ta reda på mer om hur du hanterar internet för din familj.
  • Kontrollera integritetsinställningarna för dina appar. Till exempel kan Meta AI skanna foton i ditt bildbibliotek och videor i Facebook-appen för Android och iOS.
  • Skydda dig mot deepfakes genom att göra din familjs ansikten suddiga eller maskera dem innan du gör inlägg med foton online.
  • Maskera ditt digitala fotavtryck genom att använda ett virtuellt privat nätverk (VPN)(nytt fönster) för att dölja din IP-adress, och använd alias för att skydda din e-postadress när du gör inlägg med känslig information som du inte vill ska spåras tillbaka till dig.
  • Använd integritetsfrämjande tjänster som inte tjänar pengar på dina data, som Signal för säker meddelandehantering och Brave eller DuckDuckGo för privat surfning.
  • För säker lagring av dina mest känsliga filer, inklusive privata foton och konfidentiella dokument, använd Proton Drive för end-to-end-krypterad molnlagring. Till skillnad från plattformar som kan exponera förment privat innehåll, skannar, indexerar eller använder inte Drive dina data för AI-träning – och de kan inte ses av någon annan, även när du väljer att dela dem. Att hålla dina foton verkligt privata innebär också att de inte hamnar online där de kan missbrukas för att skapa deepfakes.
  • Välj bort AI-träning när det är möjligt, till exempel på Gemini, ChatGPT(nytt fönster), Claude(nytt fönster) eller Meta AI. Policyer kan ändras över en natt med liten förvarning, så om du vill ha fördelarna med både AI och integritet, byt till Lumo – vår integritetsfrämjande AI-assistent(nytt fönster) som inte sparar loggar eller tränar på dina data.

Starkare föreskrifter om AI-integritet, såsom EU:s AI-förordning(nytt fönster), kommer att vara avgörande för att skifta makten tillbaka till internetanvändare. Tills dess är det bästa försvaret att vara medveten om vad du delar online, kräva ansvar från de företag som bygger dessa system och välja transparenta AI-verktyg(nytt fönster) som respekterar integritet från grunden.