En frustrerande verklighet för kreatörer idag är att deras arbete exponeras för AI-träning. Teknikföretag som utvecklar generativ AI såsom ChatGPT, Gemini, DeepSeek, Stable Diffusion och Midjourney behöver enorma dataset för att träna sina modeller, och de har skrapat det offentliga internet för att göra det.

Detta har väckt viktiga frågor om samtycke, erkännande och kontroll över kreativt arbete när det väl har delats online.

Om du letar efter sätt att bättre skydda din kreativa data beskriver denna guide praktiska steg du kan ta för att minska hur ditt arbete används i AI-träning, samtidigt som du engagerar dig på internet på dina egna villkor.

Hur AI-träning på offentligt innehåll kan utsätta kreativt arbete för risk

Generativa AI-verktyg kräver en stor mängd data för att fungera, och mycket av den datan hämtas från internet. OpenAI har offentligt uttalat(nytt fönster) att det skulle vara ”omöjligt” att träna AI som ChatGPT utan att få åtkomst till upphovsrättsskyddat material som finns online.

Kreativa verk från online-portföljer, sociala medieplattformar och bloggar används för att träna dessa modeller utan samtycke eller erkännande. Till exempel har Meta erkänt(nytt fönster) att de skrapat offentligt delade Facebook- och Instagram-inlägg, foton och kommentarer som går tillbaka till 2007 för att träna sina generativa AI-modeller. Det innebär att allt kreativt arbete du någonsin delat offentligt på dessa plattformar – som bröllopsfoton, portföljbilder eller illustrationer – kan användas för AI-träning om du inte har ställt in synligheten till privat.

AI-företag har i pågående rättstvister(nytt fönster) hävdat att träning på skrapad internetdata faller under ”fair use” (skäligt bruk). Samtidigt behandlar de resultaten av modellerna och dataseten som proprietära tillgångar. OpenAI:s användarvillkor förbjuder ”användning av Output för att utveckla modeller som konkurrerar med OpenAI”, och företaget har anklagat DeepSeek för att ”olämpligt” kopiera(nytt fönster) deras modeller – samma modeller som tränats på offentligt tillgänglig internetdata.

Denna uppenbara dubbelmoral hjälper till att förklara varför många kreatörer känner att deras arbete är sårbart för AI-träning utan deras samtycke, kredit eller kompensation. Det väcker också bredare frågor om hur ”offentligt tillgängligt” innehåll tolkas, särskilt när kreativt arbete delas på plattformar vars licenser uttryckligen begränsar obehörig återanvändning eller kommersiell exploatering. Som ett resultat trycker många konstnärer, författare och fotografer alltmer tillbaka mot AI-dataskrapning.

Hur du hindrar AI från att använda din konst

Med domstolar som fortfarande utfärdar beslut från fall till fall och ingen tydlig juridisk standard på plats, kan kreatörer inte förlita sig på enbart rättssystemet för att skydda sitt arbete. Under tiden finns det praktiska steg du kan ta just nu för att minska hur ditt arbete används i AI-träning.

Ingen av dessa strategier är dock helt säkra; skyddsverktyg och AI-företag försöker alltid överlista varandra. För tillfället, tänk på dem som enskilda delar av din rustning som fungerar bättre tillsammans. Dessa är de bästa sätten att ge dig själv mer kontroll över din kreativa data:

Dölj din konststil

Maskeringsverktyg som Glaze(nytt fönster) gör det svårare för AI-modeller att träna på ditt arbete genom att göra små ändringar i pixlar som förvirrar AI-modeller. Bilden ser ut som avsett för människor, men för en AI-skrapa registreras den som en annorlunda eller förvrängd stil.

”Förgifta” ditt konstverk

Med verktyg som Nightshade(nytt fönster) kan du göra dina konstverk giftiga för AI-skrapor. En ”förgiftad” bild innehåller subtila, osynliga förändringar som stör AI-träning, vilket får systemet att misstolka vad det ser, såsom bilar istället för katter, eller moln istället för flygplan. Över tid, om tillräckligt många förgiftade bilder används för träning, kan dessa felaktiga associationer visa sig i framtida versioner av modellen.

Men tekniska skydd som Glaze och Nightshade är inte helt säkra, och forskning(nytt fönster) visar att de kan försvagas när AI-system utvecklas.

Välj bort AI-träning

Om ditt arbete finns online är chansen stor att det har skrapats till en AI-modell. Genom att använda webbplatser som Have I Been Trained(nytt fönster) och The Atlantics AI Watchdog(nytt fönster) kan du kontrollera om dina bilder, texter eller annat kreativt arbete förekommer i kända dataset som används för att träna AI-modeller. Det första gör att du kan skicka in ditt arbete till ett ”Träna inte”-register, där deltagande företag kan identifiera och utesluta dessa bilder från framtida träningskörningar. Dessa åtgärder är dock frivilliga, beror på enskilda företags vilja att respektera dem och påverkar inte modeller som redan har tränats med ditt arbete.

Om du bor i EU kan du använda dataskyddslagar som GDPR(nytt fönster) till din fördel genom att begära att företag utesluter ditt innehåll från AI-träning. Vissa företag har processer för att välja bort (opt-out) begravda i inställningarna för sina appar; här är till exempel hur du väljer bort dataanvändning för Meta AI på Facebook, Instagram och WhatsApp.

Lås dina integritetsinställningar

Minska vad du publicerar offentligt på sociala medier och se till att din profil är inställd på privat. Ju mindre innehåll som är öppet tillgängligt, desto svårare är det att skrapas av externa AI-system. Men detta kanske inte räcker för att skydda dig från själva plattformen, eftersom många företag i allt högre grad integrerar AI-funktioner – såsom Meta som använder alla interaktioner med Meta AI för träning och annonser – vilket väcker frågor om hur både offentligt och privat innehåll kan användas över tid. Det är bäst att undvika att använda sociala medier som ditt primära arkiv eller portfölj.

Var avsiktlig med offentlig delning

När du publicerar offentligt för att nå din publik, dela mindre, lågupplösta eller vattenstämplade versioner av ditt arbete. Håll filer med full kvalitet lagrade i offline-säkerhetskopior eller molntjänster som tydligt inte använder privat innehåll för AI-träning.

Lagra och dela filer säkert

I takt med att AI-verktyg blir djupare integrerade över stora plattformar – såsom att Google lägger till Gemini överallt inklusive Google Drive och Gmail – blir människor alltmer försiktiga med hur de ska lagra och dela sitt arbete.

Proton Drive erbjuder end-to-end-krypterat lagringsutrymme och delning för dina foton, videor, album, dokument, kalkylblad och andra filer. Vi samlar aldrig in, bearbetar, delar din data med tredje part eller använder den för AI-träning. Till skillnad från Big Tech stöds Proton helt av vår community av betalande prenumeranter snarare än reklam eller dataanvändning.

Du kan dela lösenordsskyddade länkar, ställa in utgångsdatum, bevilja åtkomst till specifika personer endast via e-post och återkalla åtkomst när som helst. Du kan också samla in filer säkert från personer utan ett Proton-konto.

Använd privat AI utan att ge upp kontrollen

Om du vill ha fördelarna med AI utan att ge upp kontrollen över ditt arbete, och utan att oroa dig för att en framtida policyändring plötsligt kan förvandla dina filer till träningsdata, använd vår privata AI-assistent(nytt fönster). Lumo tränar aldrig på dina filer eller konversationer, och den är baserad på kod med öppen källkod, vilket innebär att vem som helst kan verifiera våra påståenden.

Lumo integreras med Proton Drive, vilket låter dig arbeta säkert med dina filer och generera bilder, utan att bidra till ekosystemet för AI-skrapning som så många individer och organisationer aktivt trycker tillbaka mot.

Din konst är känslig data

Att stoppa stöld av AI-konst innebär inte att avvisa AI helt och hållet. Men det innebär att erkänna att kreativt arbete är känslig data, oavsett om det är en illustration, en roman eller en sång. Kreatörer förtjänar agens och rättvis behandling, inklusive möjligheten att bestämma hur och om deras arbete används.

Ingen enskild strategi kan fullt ut förhindra AI-system från att absorbera offentligt tillgängligt innehåll – och i vissa fall, indirekt exponerat privat innehåll – i sin träning. Och AI-företag vill få dig att tro att det inte finns något sätt att bygga AI-verktyg utan att använda din data. Vi håller inte med(nytt fönster).

Tills tillsynsmyndigheter och domstolar ger tydligare vägledning är det mest effektiva tillvägagångssättet att vara proaktiv med hur du interagerar med internet och att välja plattformar som tydligt respekterar din integritet och dina kreativa rättigheter.