Turhauttava todellisuus sisällöntuottajille nykyään on se, että heidän työnsä altistuu tekoälykoulutukselle. Generatiivista tekoälyä kehittävät teknologiayritykset, kuten ChatGPT, Gemini, DeepSeek, Stable Diffusion ja Midjourney, tarvitsevat valtavia tietojoukkoja malliensa kouluttamiseen, ja ne ovat keränneet tietoja julkisesta internetistä tehdäkseen niin.

Tämä on herättänyt tärkeitä kysymyksiä suostumuksesta, tekijänoikeuksista ja luovan työn hallinnasta sen jälkeen, kun se on jaettu verkossa.

Jos etsitte tapoja suojata luovia tietojanne paremmin, tässä oppaassa esitellään käytännön toimia, joilla voitte vähentää työnne käyttöä tekoälykoulutuksessa ja samalla toimia internetissä omilla ehdoillanne.

Kuinka tekoälykoulutus julkisella sisällöllä voi vaarantaa luovan työn

Generatiiviset tekoälytyökalut vaativat toimiakseen suuren määrän tietoa, ja suuri osa tästä tiedosta on peräisin internetistä. OpenAI on julkisesti todennut(uusi ikkuna), että olisi ”mahdotonta” kouluttaa ChatGPT:n kaltaista tekoälyä ilman pääsyä verkosta löytyvään tekijänoikeussuojattuun materiaaliin.

Luovia teoksia verkkoportfolioista, sosiaalisen median alustoilta ja blogeista käytetään näiden mallien kouluttamiseen ilman suostumusta tai mainintaa tekijästä. Esimerkiksi Meta on myöntänyt(uusi ikkuna) keränneensä julkisesti jaettuja Facebook- ja Instagram-julkaisuja, valokuvia ja kommentteja vuodesta 2007 alkaen kouluttaakseen generatiivisia tekoälymallejaan. Tämä tarkoittaa, että mitä tahansa luovaa työtä, jonka olette koskaan jakaneet julkisesti näillä alustoilla – kuten hääkuvia, portfoliokuvia tai kuvituksia – voidaan käyttää tekoälykoulutukseen, ellette ole asettaneet näkyvyyttä yksityiseksi.

Tekoäly-yritykset ovat väittäneet käynnissä olevissa oikeudenkäynneissä(uusi ikkuna), että kerätyillä internet-tiedoilla kouluttaminen kuuluu ”oikeudenmukaisen käytön” (fair use) piiriin. Samaan aikaan ne pitävät tuloksena olevia malleja ja tietojoukkoja omana omaisuutenaan. OpenAI:n palveluehdot kieltävät ”tulosteen käytön sellaisten mallien kehittämiseen, jotka kilpailevat OpenAI:n kanssa”, ja yritys on syyttänyt DeepSeekiä malliensa ”sopimattomasta” kopioinnista(uusi ikkuna) – samojen mallien, jotka on koulutettu julkisesti saatavilla olevilla internet-tiedoilla.

Tämä ilmeinen kaksoisstandardi selittää, miksi monet luovan työn tekijät kokevat työnsä olevan haavoittuvaista tekoälykoulutukselle ilman heidän suostumustaan, kunniaa tai korvausta. Se herättää myös laajempia kysymyksiä siitä, miten ”julkisesti saatavilla oleva” sisältö tulkitaan, erityisesti kun luovaa työtä jaetaan alustoilla, joiden lisenssit rajoittavat nimenomaisesti luvatonta uudelleenkäyttöä tai kaupallista hyödyntämistä. Tämän seurauksena monet taiteilijat, kirjailijat ja valokuvaajat vastustavat yhä enemmän tekoälyn tiedonkeruuta.

Kuinka estää tekoälyä käyttämästä taidettanne

Koska tuomioistuimet antavat edelleen tapauskohtaisia päätöksiä eikä selkeää oikeudellista standardia ole, luovan työn tekijät eivät voi luottaa pelkästään oikeusjärjestelmään työnsä suojaamiseksi. Sillä välin on olemassa käytännön toimia, joita voitte toteuttaa heti vähentääksenne työnne käyttöä tekoälykoulutuksessa.

Mikään näistä strategioista ei kuitenkaan ole idioottivarma; suojaustyökalut ja tekoäly-yritykset yrittävät jatkuvasti päihittää toisensa. Toistaiseksi voitte ajatella niitä haarniskanne yksittäisinä osina, jotka toimivat paremmin yhdessä. Nämä ovat parhaat tavat saada enemmän hallintaa luoviin tietoihinne:

Naamioikaa taidetyylinne

Glazen(uusi ikkuna) kaltaiset naamiointityökalut tekevät tekoälymalleille vaikeammaksi kouluttautua työllänne tekemällä pikseleihin pieniä muutoksia, jotka hämmentävät tekoälymalleja. Kuva näyttää ihmisille tarkoitetulta, mutta tekoälykerääjälle se rekisteröityy erilaisena tai vääristyneenä tyylinä.

”Myrkyttäkää” taideteoksenne

Käyttämällä työkaluja, kuten Nightshade(uusi ikkuna), voitte tehdä taideteoksistanne myrkyllisiä tekoälykerääjille. ”Myrkytetty” kuva sisältää hienovaraisia, näkymättömiä muutoksia, jotka häiritsevät tekoälykoulutusta ja saavat järjestelmän tulkitsemaan väärin näkemänsä, esimerkiksi autot kissoiksi tai pilvet lentokoneiksi. Ajan myötä, jos koulutukseen käytetään tarpeeksi myrkytettyjä kuvia, nuo väärät mielleyhtymät voivat näkyä mallin tulevissa versioissa.

Tekniset suojaukset, kuten Glaze ja Nightshade, eivät kuitenkaan ole täysin varmoja, ja tutkimukset(uusi ikkuna) osoittavat, että ne voivat heikentyä tekoälyjärjestelmien kehittyessä.

Kieltäytykää tekoälykoulutuksesta

Jos työnne on verkossa, on todennäköistä, että se on kerätty tekoälymalliin. Käyttämällä verkkosivustoja, kuten Have I Been Trained(uusi ikkuna) ja The Atlanticin AI Watchdog(uusi ikkuna), voitte tarkistaa, esiintyvätkö kuvanne, kirjoituksenne tai muu luova työnne tunnetuissa tietojoukoissa, joita käytetään tekoälymallien kouluttamiseen. Ensimmäinen mahdollistaa työnne lähettämisen Do Not Train -rekisteriin, josta osallistuvat yritykset voivat tunnistaa ja sulkea pois kyseiset kuvat tulevista koulutusajoista. Nämä toimenpiteet ovat kuitenkin vapaaehtoisia, riippuvat yksittäisten yritysten halukkuudesta noudattaa niitä eivätkä vaikuta malleihin, jotka on jo koulutettu työllänne.

Jos asutte EU:ssa, voitte hyödyntää tietosuojalakeja, kuten GDPR:ää(uusi ikkuna), pyytämällä yrityksiä poistamaan sisältönne tekoälykoulutuksesta. Joidenkin yritysten kieltäytymisprosessit on haudattu sovellusten asetuksiin; tässä on esimerkiksi ohje, kuinka kieltäytyä Meta AI:n tietojen käytöstä Facebookissa, Instagramissa ja WhatsAppissa.

Lukitkaa yksityisyysasetuksenne

Vähentäkää julkisia julkaisujanne sosiaalisessa mediassa ja varmistakaa, että profiilinne on asetettu yksityiseksi. Mitä vähemmän sisältöä on avoimesti saatavilla, sitä vaikeampaa sitä on kerätä ulkoisilla tekoälyjärjestelmillä. Tämä ei kuitenkaan välttämättä riitä suojaamaan teitä itse alustalta, sillä monet yritykset integroivat yhä enemmän tekoälyominaisuuksia – kuten Meta, joka käyttää kaikkia Meta AI -vuorovaikutuksia koulutukseen ja mainoksiin – mikä herättää kysymyksiä siitä, miten sekä julkista että yksityistä sisältöä voidaan käyttää ajan myötä. On parasta välttää sosiaalisen median käyttöä ensisijaisena arkistona tai portfoliona.

Olkaa harkitsevia julkisessa jakamisessa

Kun julkaisette julkisesti tavoittaaksenne yleisönne, jakakaa työstänne pienempiä, matalaresoluutioisia tai vesileimattuja versioita. Pitäkää täyslaatuiset tiedostot tallennettuina yhteydettömiin varmuuskopioihin tai pilvipalveluihin, jotka eivät selvästikään käytä yksityistä sisältöä tekoälykoulutukseen.

Tallentakaa ja jakakaa tiedostoja turvallisesti

Kun tekoälytyökalut integroituvat yhä syvemmälle suuriin alustoihin – kuten Googlen lisätessä Geminin kaikkialle, mukaan lukien Google Driveen ja Gmailiin – ihmiset ovat yhä varovaisempia sen suhteen, kuinka tallentaa ja jakaa työtään.

Proton Drive tarjoaa päästä päähän -salatun tallennuksen ja jaon valokuvillenne, videoillenne, albumeillenne, asiakirjoillenne, laskentataulukoillenne ja muille tiedostoillenne. Emme koskaan kerää, käsittele tai jaa tietojanne kolmansien osapuolten kanssa tai käytä niitä tekoälykoulutukseen. Toisin kuin suuret teknologiayritykset, Proton saa täyden tuen maksavien tilaajien yhteisöltämme mainonnan tai tietojen käytön sijaan.

Voitte jakaa salasanasuojattuja linkkejä, asettaa päättymispäiviä, myöntää pääsyn tietyille henkilöille vain sähköpostitse ja mitätöidä pääsyn milloin tahansa. Voitte myös kerätä tiedostoja turvallisesti ihmisiltä ilman Proton-tiliä.

Käyttäkää yksityistä tekoälyä luopumatta hallinnasta

Jos haluatte tekoälyn hyödyt luopumatta työnne hallinnasta ja huolehtimatta siitä, että tuleva käytäntömuutos voisi yhtäkkiä muuttaa tiedostonne koulutustiedoksi, käyttäkää yksityistä tekoälyavustajaamme(uusi ikkuna). Lumo ei koskaan kouluttaudu tiedostoillanne tai keskusteluillanne, ja se perustuu avoimen lähdekoodin koodiin, mikä tarkoittaa, että kuka tahansa voi vahvistaa väitteemme.

Lumo integroituu Proton Driven kanssa, mikä mahdollistaa turvallisen työskentelyn tiedostojenne kanssa ja kuvien luomisen osallistumatta tekoälyn tiedonkeruuekosysteemiin, jota niin monet yksityishenkilöt ja organisaatiot aktiivisesti vastustavat.

Taiteenne on arkaluonteista tietoa

Tekoälyn taidevarkauden pysäyttäminen ei tarkoita tekoälyn hylkäämistä kokonaan. Mutta se tarkoittaa sen tunnistamista, että luova työ on arkaluonteista tietoa, olipa kyseessä kuvitus, romaani tai laulu. Luovan työn tekijät ansaitsevat vaikutusvaltaa ja oikeudenmukaista kohtelua, mukaan lukien mahdollisuuden päättää, miten ja käytetäänkö heidän työtään.

Mikään yksittäinen strategia ei voi täysin estää tekoälyjärjestelmiä imemästä julkisesti saatavilla olevaa sisältöä – ja joissakin tapauksissa epäsuorasti paljastunutta yksityistä sisältöä – koulutukseensa. Tekoäly-yritykset haluavat teidän uskovan, ettei tekoälytyökaluja voi rakentaa ilman tietojenne käyttöä. Olemme eri mieltä(uusi ikkuna).

Kunnes sääntelyviranomaiset ja tuomioistuimet antavat selkeämpiä ohjeita, tehokkain lähestymistapa on olla ennakoiva vuorovaikutuksessa internetin kanssa ja valita alustoja, jotka selvästi kunnioittavat yksityisyyttänne ja luovia oikeuksianne.