En frustrerende realitet for skabere i dag er, at deres arbejde eksponeres for AI-træning. Tech-virksomheder, der udvikler generativ AI såsom ChatGPT, Gemini, DeepSeek, Stable Diffusion og Midjourney, har brug for massive datasæt til at træne deres modeller, og de har scrapet det offentlige internet for at gøre det.
Dette har rejst vigtige spørgsmål om samtykke, tilskrivning og kontrol over kreativt arbejde, når det deles online.
Hvis du leder efter måder bedre at beskytte dine kreative data på, skitserer denne guide praktiske trin, du kan tage for at reducere, hvordan dit arbejde bruges i AI-træning, mens du stadig interagerer med internettet på dine egne betingelser.
- Hvordan AI-træning på offentligt indhold kan bringe kreativt arbejde i fare
- Sådan forhindrer du AI i at bruge din kunst
- Din kunst er følsomme data
Hvordan AI-træning på offentligt indhold kan bringe kreativt arbejde i fare
Generative AI-værktøjer kræver en stor mængde data for at fungere, og meget af den data hentes fra internettet. OpenAI har offentligt udtalt(nyt vindue), at det ville være “umuligt” at træne AI som ChatGPT uden adgang til ophavsretligt beskyttet materiale fundet online.
Kreative værker fra onlineporteføljer, sociale medieplatforme og blogs bliver brugt til at træne disse modeller uden samtykke eller tilskrivning. For eksempel har Meta indrømmet(nyt vindue) at have scrapet offentligt delte Facebook- og Instagram-opslag, fotos og kommentarer helt tilbage til 2007 for at træne deres generative AI-modeller. Det betyder, at ethvert kreativt arbejde, du nogensinde har delt offentligt på disse platforme — som bryllupsbilleder, porteføljebilleder eller illustrationer — kunne blive brugt til AI-træning, medmindre du har indstillet synligheden til privat.
AI-virksomheder har argumenteret i igangværende retssager(nyt vindue), at træning på scrapede internetdata falder ind under “fair use”. Samtidig behandler de de resulterende modeller og datasæt som proprietære aktiver. OpenAIs servicevilkår forbyder “brug af Output til at udvikle modeller, der konkurrerer med OpenAI”, og virksomheden har anklaget DeepSeek for “upassende” at kopiere(nyt vindue) deres modeller — de samme modeller trænet på offentligt tilgængelige internetdata.
Denne tilsyneladende dobbeltmoral hjælper med at forklare, hvorfor mange skabere føler, at deres arbejde er sårbart over for AI-træning uden deres samtykke, kreditering eller kompensation. Det rejser også bredere spørgsmål om, hvordan “offentligt tilgængeligt” indhold fortolkes, især når kreativt arbejde deles på platforme, hvis licenser eksplicit begrænser uautoriseret genbrug eller kommerciel udnyttelse. Som et resultat skubber mange kunstnere, forfattere og fotografer i stigende grad tilbage mod AI-datascraping.
Sådan forhindrer du AI i at bruge din kunst
Med domstole, der stadig afsiger domme fra sag til sag, og ingen klar juridisk standard på plads, kan skabere ikke stole på retssystemet alene til at beskytte deres arbejde. I mellemtiden er der praktiske trin, du kan tage lige nu for at reducere, hvordan dit arbejde bruges i AI-træning.
Ingen af disse strategier er dog fejlsikre; beskyttelsesværktøjer og AI-virksomheder forsøger altid at udmanøvrere hinanden. For nu kan du tænke på dem som individuelle dele af din rustning, der fungerer bedre samlet. Dette er de bedste måder at give dig selv mere kontrol over dine kreative data:
Slør din kunststil
Sløringsværktøjer som Glaze(nyt vindue) gør det sværere for AI-modeller at træne på dit arbejde ved at lave små ændringer i pixels, der forvirrer AI-modeller. Billedet fremstår som tiltænkt for mennesker, men for en AI-scraper registreres det som en anden eller forvrænget stil.
“Forgift” dit kunstværk
Ved at bruge værktøjer som Nightshade(nyt vindue) kan du gøre dine kunstværker giftige for AI-scrapere. Et “forgiftet” billede indeholder subtile, usynlige ændringer, der forstyrrer AI-træning, hvilket får systemet til at fejlfortolke, hvad det ser, såsom biler i stedet for katte, eller skyer i stedet for fly. Over tid, hvis der bruges nok forgiftede billeder til træning, kan disse forkerte associationer dukke op i fremtidige versioner af modellen.
Imidlertid er tekniske beskyttelser som Glaze og Nightshade ikke fejlsikre, og forskning(nyt vindue) viser, at de kan svækkes, efterhånden som AI-systemer udvikler sig.
Fravælg AI-træning
Hvis dit arbejde findes online, er der stor sandsynlighed for, at det er blevet scrapet ind i en AI-model. Ved hjælp af websteder som Have I Been Trained(nyt vindue) og The Atlantics AI Watchdog(nyt vindue) kan du tjekke, om dine billeder, tekster eller andet kreativt arbejde optræder i kendte datasæt, der bruges til at træne AI-modeller. Den førstnævnte giver dig mulighed for at indsende dit arbejde til et Do Not Train-register, hvor deltagende virksomheder kan identificere og udelukke disse billeder fra fremtidige træningskørsler. Disse foranstaltninger er dog frivillige, afhænger af individuelle virksomheders villighed til at respektere dem og påvirker ikke modeller, der allerede er trænet ved hjælp af dit arbejde.
Hvis du bor i EU, kan du bruge databeskyttelseslove som GDPR(nyt vindue) til din fordel ved at anmode virksomheder om at udelukke dit indhold fra AI-træning. Nogle virksomheder har fravalgsprocesser gemt i indstillingerne for deres apps; her er for eksempel hvordan du fravælger Meta AI-databrug på Facebook, Instagram og WhatsApp.
Sikr dine privatlivsindstillinger
Reducer hvad du poster offentligt på sociale medier, og sørg for, at din profil er indstillet til privat. Jo mindre indhold der er åbent tilgængeligt, jo sværere er det at scrape for eksterne AI-systemer. Men dette er måske ikke nok til at beskytte dig mod platformen selv, da mange virksomheder i stigende grad integrerer AI-funktioner — såsom Meta, der bruger alle Meta AI-interaktioner til træning og annoncer — hvilket rejser spørgsmål om, hvordan både offentligt og privat indhold kan blive brugt over tid. Det er bedst at undgå at bruge sociale medier som dit primære arkiv eller portefølje.
Vær bevidst om offentlig deling
Når du poster offentligt for at nå dit publikum, så del mindre, lavere opløsning eller vandmærkede versioner af dit arbejde. Hold filer i fuld kvalitet gemt i offline backups eller cloud-tjenester, der klart ikke bruger privat indhold til AI-træning.
Gem og del filer sikkert
I takt med at AI-værktøjer bliver dybere integreret på tværs af store platforme — såsom Google, der tilføjer Gemini overalt inklusive Google Drive og Gmail — bliver folk mere og mere forsigtige med, hvordan de gemmer og deler deres arbejde.
Proton Drive tilbyder end-to-end-krypteret lagring og deling til dine fotos, videoer, albums, dokumenter, regneark og andre filer. Vi indsamler, behandler eller deler aldrig dine data med tredjeparter, og bruger dem ikke til AI-træning. I modsætning til Big Tech er Proton fuldt støttet af vores fællesskab af betalende abonnenter snarere end reklamer eller databrug.
Du kan dele adgangskodebeskyttede links, indstille udløbsdatoer, give adgang til specifikke personer kun via e-mail og tilbagekalde adgang når som helst. Du kan også indsamle filer sikkert fra folk uden en Proton-konto.
Brug privat AI uden at opgive kontrollen
Hvis du vil have fordelene ved AI uden at opgive kontrollen over dit arbejde, og uden at bekymre dig om, at en fremtidig politikændring pludselig kunne forvandle dine filer til træningsdata, så brug vores private AI-assistent(nyt vindue). Lumo træner aldrig på dine filer eller samtaler, og den er baseret på open source-kode, hvilket betyder, at alle kan verificere vores påstande.
Lumo integreres med Proton Drive, hvilket giver dig mulighed for sikkert at arbejde med dine filer og generere billeder uden at bidrage til AI-skrabningsøkosystemet, som så mange individer og organisationer aktivt skubber tilbage imod.
Din kunst er følsomme data
At stoppe AI-kunsttyveri betyder ikke at afvise AI fuldstændigt. Men det betyder at anerkende, at kreativt arbejde er følsomme data, hvad enten det er en illustration, en roman eller en sang. Skabere fortjener handlekraft og retfærdig behandling, herunder muligheden for at beslutte, hvordan og om deres arbejde bruges.
Ingen enkelt strategi kan fuldt ud forhindre AI-systemer i at absorbere offentligt tilgængeligt indhold — og i nogle tilfælde indirekte eksponeret privat indhold — i deres træning. Og AI-virksomheder vil have dig til at tro, at der ikke er nogen måde at bygge AI-værktøjer på uden at bruge dine data. Vi er uenige(nyt vindue).
Indtil lovgivere og domstole giver klarere vejledning, er den mest effektive tilgang at være proaktiv omkring, hvordan du interagerer med internettet, og at vælge platforme, der klart respekterer dit privatliv og dine kreative rettigheder.


