En frustrerende realitet for skapere i dag er at arbeidet deres blir utsatt for KI-trening. Teknologiselskaper som utvikler generativ KI, for eksempel ChatGPT, Gemini, DeepSeek, Stable Diffusion og Midjourney, trenger enorme datasett for å trene modellene sine, og de har skrapt det offentlige internettet for å gjøre dette.

Dette har reist viktige spørsmål om samtykke, kreditering og kontroll over kreativt arbeid etter at det er delt pålogget.

Hvis du ser etter måter å bedre beskytte de kreative dataene dine på, skisserer denne veiledningen praktiske trinn du kan ta for å redusere hvordan arbeidet ditt brukes i KI-trening, samtidig som du fortsatt kan bruke internett på dine egne premisser.

Hvordan KI-trening på offentlig innhold kan sette kreativt arbeid i fare

Generative KI-verktøy krever en stor mengde data for å fungere, og mye av disse dataene hentes fra internett. OpenAI har offentlig uttalt(nytt vindu) at det ville være «umulig» å trene KI som ChatGPT uten tilgang til opphavsrettsbeskyttet materiale funnet pålogget.

Kreative verk fra pålogget porteføljer, sosiale medie-plattformer og blogger blir brukt til å trene disse modellene uten samtykke eller kreditering. For eksempel har Meta innrømmet(nytt vindu) å ha skrapt offentlig delte Facebook- og Instagram-artikler, bilder og kommentarer helt tilbake til 2007 for å trene sine generative KI-modeller. Det betyr at alt kreativt arbeid du noen gang har delt offentlig på disse plattformene — som bryllupsbilder, porteføljebilder eller illustrasjoner — kan brukes til KI-trening med mindre du har satt synligheten til privat.

KI-selskaper har i pågående rettssaker(nytt vindu) argumentert med at trening på skrapte internettdata faller inn under «fair use» (rimelig bruk). Samtidig behandler de de resulterende modellene og datasettene som proprietære eiendeler. OpenAIs bruksvilkår forbyr «å bruke utdata til å utvikle modeller som konkurrerer med OpenAI», og selskapet har anklaget DeepSeek for å ha kopiert modellene sine på en «upassende» måte(nytt vindu) — de samme modellene som er trent på offentlig tilgjengelige internettdata.

Denne tilsynelatende dobbeltmoralen bidrar til å forklare hvorfor mange skapere føler at arbeidet deres er sårbart for KI-trening uten deres samtykke, kreditt eller kompensasjon. Det reiser også bredere spørsmål om hvordan «offentlig tilgjengelig» innhold tolkes, spesielt når kreativt arbeid deles på plattformer hvis lisenser uttrykkelig begrenser uautorisert gjenbruk eller kommersiell utnyttelse. Som et resultat kjemper mange kunstnere, forfattere og fotografer i økende grad tilbake mot KI-dataskraping.

Slik forhindrer du KI i å bruke kunsten din

Siden domstoler fortsatt fatter avgjørelser fra sak til sak og det ikke finnes noen tydelig juridisk standard, kan ikke skapere stole på at rettssystemet alene vil beskytte arbeidet deres. I mellomtiden finnes det praktiske trinn du kan ta akkurat nå for å redusere hvordan arbeidet ditt brukes i KI-trening.

Ingen av disse strategiene er imidlertid idiotsikre; beskyttelsesverktøy og KI-selskaper prøver alltid å utmanøvrere hverandre. For øyeblikket kan du se på dem som individuelle deler av rustningen din som fungerer bedre samlet. Dette er de beste måtene å gi deg selv mer kontroll over de kreative dataene dine på:

Skjul kunststilen din

Skjuleverktøy som Glaze(nytt vindu) gjør det vanskeligere for KI-modeller å trene på arbeidet ditt ved å gjøre ørsmå endringer i piksler som forvirrer KI-modellene. Bildet fremstår som tiltenkt for mennesker, men for en KI-skraper registreres det som en annen eller forvrengt stil.

«Forgift» kunstverket ditt

Ved å bruke verktøy som Nightshade(nytt vindu), kan du gjøre kunstverkene dine giftige for KI-skrapere. Et «forgiftet» bilde inneholder subtile, usynlige endringer som forstyrrer KI-treningen, og får systemet til å feiltolke det den ser, for eksempel biler i stedet for katter, eller skyer i stedet for fly. Over tid, hvis nok forgiftede bilder brukes til trening, kan disse feilaktige assosiasjonene vises i fremtidige versjoner av modellen.

Tekniske beskyttelser som Glaze og Nightshade er imidlertid ikke idiotsikre, og forskning(nytt vindu) viser at de kan svekkes etter hvert som KI-systemer utvikler seg.

Reserver deg mot KI-trening

Hvis arbeidet ditt finnes pålogget, er sjansen stor for at det har blitt skrapt inn i en KI-modell. Ved å bruke nettsteder som Have I Been Trained(nytt vindu) og The Atlantics AI Watchdog(nytt vindu), kan du sjekke om bildene dine, tekstene dine eller annet kreativt arbeid dukker opp i kjente datasett som brukes til å trene KI-modeller. Den første lar deg sende inn arbeidet ditt til et Do Not Train-register (Ikke tren-register), der deltakende selskaper kan identifisere og ekskludere disse bildene fra fremtidige treningskjøringer. Disse tiltakene er imidlertid frivillige, avhenger av de enkelte selskapenes vilje til å overholde dem, og påvirker ikke modeller som allerede har blitt trent med arbeidet ditt.

Hvis du bor i EU, kan du bruke databeskyttelseslover som GDPR(nytt vindu) til din fordel ved å be selskaper om å ekskludere innholdet ditt fra KI-trening. Noen selskaper har bortvalgsprosesser begravet i innstillingene til appene sine; her er for eksempel hvordan du reserverer deg mot bruk av Meta AI-data på Facebook, Instagram og WhatsApp.

Lås personverninnstillingene dine

Reduser det du legger ut offentlig på sosiale medier og sørg for at profilen din er satt til privat. Jo mindre innhold som er åpent tilgjengelig, desto vanskeligere er det å skrape for eksterne KI-systemer. Men dette er kanskje ikke nok til å beskytte deg mot selve plattformen, siden mange selskaper i økende grad integrerer KI-funksjoner — som at Meta bruker alle Meta AI-interaksjoner for trening og annonser — noe som reiser spørsmål om hvordan både offentlig og privat innhold kan bli brukt over tid. Det er best å unngå å bruke sosiale medier som ditt primære arkiv eller portefølje.

Vær bevisst på offentlig deling

Når du publiserer offentlig for å nå publikumet ditt, bør du dele mindre, lavere oppløselige eller vannmerkede versjoner av arbeidet ditt. Oppbevar filer i full kvalitet lagret i frakoblede sikkerhetskopier eller skytjenester som tydelig ikke bruker privat innhold til KI-trening.

Lagre og del filer trygt

Etter hvert som KI-verktøy blir dypere integrert på tvers av store plattformer — som for eksempel at Google legger til Gemini overalt, inkludert i Google Drive og Gmail — blir folk i økende grad forsiktige med hvordan de lagrer og deler arbeidet sitt.

Proton Drive tilbyr ende-til-ende-kryptert lagring og deling for bildene, videoene, albumene, dokumentene, regnearkene og andre filer. Vi samler aldri inn, behandler eller deler dataene dine med tredjeparter, og vi bruker dem heller ikke til KI-trening. I motsetning til Big Tech støttes Proton fullt ut av samfunnet vårt av betalende abonnenter i stedet for annonsering eller databruk.

Du kan dele passordbeskyttede lenker, angi utløpsdatoer, gi tilgang til bestemte personer kun via e-post, og tilbakekalle tilgangen når som helst. Du kan også samle inn filer sikkert fra personer uten en Proton Account.

Bruk privat KI uten å gi opp kontrollen

Hvis du ønsker fordelene med KI uten å gi opp kontrollen over arbeidet ditt, og uten å bekymre deg for at en fremtidig endring av retningslinjer plutselig kan gjøre filene dine om til treningsdata, kan du bruke vår private KI-assistent(nytt vindu). Lumo trener aldri på filene eller samtalene dine, og den er basert på åpen kildekode, noe som betyr at hvem som helst kan verifisere påstandene våre.

Lumo integreres med Proton Drive, slik at du trygt kan jobbe med filene dine og generere bilder, uten å bidra til økosystemet for KI-skraping som så mange individer og organisasjoner aktivt kjemper imot.

Kunsten din er sensitive data

Å stoppe tyveri av kunst gjort av KI betyr ikke å avvise KI helt. Men det betyr å anerkjenne at kreativt arbeid er sensitive data, enten det er en illustrasjon, en roman eller en sang. Skapere fortjener handlefrihet og rettferdig behandling, inkludert muligheten til å bestemre hvordan og om arbeidet deres blir brukt.

Ingen enkelt strategi kan fullt ut forhindre at KI-systemer absorberer offentlig tilgjengelig innhold — og i noen tilfeller indirekte eksponert privat innhold — i treningen sin. Og KI-selskaper vil ha deg til å tro at det ikke er noen måte å bygge KI-verktøy på uten å bruke dataene dine. Vi er uenige(nytt vindu).

Inntil regulatorer og domstoler gir tydeligere veiledning, er den mest effektive tilnærmingen å være proaktiv med tanke på hvordan du samhandler med internett og å velge plattformer som tydelig respekterer personvernet og de kreative rettighetene dine.