O realitate frustrantă pentru creatori astăzi este faptul că munca lor este expusă antrenării AI. Companiile de tehnologie care dezvoltă AI generativ, cum ar fi ChatGPT, Gemini, DeepSeek, Stable Diffusion și Midjourney au nevoie de seturi masive de date pentru a-și antrena modelele și au extras date de pe internetul public pentru a face acest lucru.
Acest lucru a ridicat întrebări importante despre consimțământ, atribuire și controlul asupra muncii creative odată ce aceasta este partajată online.
Dacă căutați modalități de a vă proteja mai bine datele creative, acest ghid prezintă pașii practici pe care îi puteți urma pentru a reduce modul în care munca dvs. este utilizată în antrenarea AI, continuând totodată să interacționați cu internetul în propriile condiții.
- Cum antrenarea AI pe conținut public poate pune în pericol munca creativă
- Cum să împiedicați AI să vă folosească arta
- Arta dvs. este o dată sensibilă
Cum antrenarea AI pe conținut public poate pune în pericol munca creativă
Instrumentele AI generative necesită o cantitate mare de date pentru a funcționa, iar o mare parte din aceste date provin de pe internet. OpenAI a declarat public(fereastră nouă) că ar fi „imposibil” să antreneze AI precum ChatGPT fără accesarea materialelor protejate prin drepturi de autor găsite online.
Lucrările creative din portofolii online, platforme de social media și bloguri sunt utilizate pentru a antrena aceste modele fără consimțământ sau atribuire. De exemplu, Meta a recunoscut(fereastră nouă) că a extras postări, fotografii și comentarii partajate public pe Facebook și Instagram începând cu 2007 pentru a-și antrena modelele AI generative. Asta înseamnă că orice lucrare creativă pe care ați partajat-o vreodată public pe acele platforme — cum ar fi fotografii de nuntă, fotografii de portofoliu sau ilustrații — ar putea fi folosită pentru antrenarea AI, cu excepția cazului în care ați setat vizibilitatea pe privat.
Companiile de AI au susținut în procese(fereastră nouă) în curs de desfășurare că antrenarea pe date extrase de pe internet intră sub incidența „utilizării echitabile”. În același timp, acestea tratează modelele și seturile de date rezultate ca active proprietare. Condițiile serviciului OpenAI interzic „utilizarea Rezultatului pentru a dezvolta modele care concurează cu OpenAI”, iar compania a acuzat DeepSeek de copiere „nepotrivită”(fereastră nouă) a modelelor sale — aceleași modele antrenate pe date disponibile public pe internet.
Acest dublu standard aparent ajută la explicarea motivului pentru care mulți creatori simt că munca lor este vulnerabilă la antrenarea AI fără consimțământul, creditul sau compensația lor. De asemenea, ridică întrebări mai largi cu privire la modul în care este interpretat conținutul „disponibil public”, în special atunci când munca creativă este partajată pe platforme ale căror licențe limitează în mod explicit reutilizarea neautorizată sau exploatarea comercială. Ca urmare, mulți artiști, scriitori și fotografi ripostează tot mai mult împotriva extragerii de date AI.
Cum să împiedicați AI să vă folosească arta
Deoarece instanțele emit încă decizii de la caz la caz și nu există un standard juridic clar, creatorii nu se pot baza doar pe sistemul juridic pentru a-și proteja munca. Între timp, există pași practici pe care îi puteți lua chiar acum pentru a reduce modul în care munca dvs. este utilizată în antrenarea AI.
Totuși, niciuna dintre aceste strategii nu este infailibilă; instrumentele de protecție și companiile de AI încearcă mereu să se depășească reciproc. Deocamdată, gândiți-vă la ele ca la părți individuale ale armurii dvs. care funcționează mai bine colectiv. Acestea sunt cele mai bune modalități de a vă oferi mai mult control asupra datelor dvs. creative:
Mascați-vă stilul artistic
Instrumentele de mascare precum Glaze(fereastră nouă) fac mai dificilă antrenarea modelelor AI pe munca dvs., făcând mici modificări pixelilor care derutează modelele AI. Imaginea apare așa cum a fost intenționată pentru oameni, dar pentru un extractor AI, se înregistrează ca un stil diferit sau distorsionat.
„Otrăviți-vă” opera de artă
Folosind instrumente precum Nightshade(fereastră nouă), vă puteți face lucrările de artă otrăvitoare pentru extractorii AI. O imagine „otrăvită” conține modificări subtile, invizibile, care interferează cu antrenarea AI, determinând sistemul să interpreteze greșit ceea ce vede, cum ar fi mașini în loc de pisici sau nori în loc de avioane. În timp, dacă sunt folosite suficiente imagini otrăvite pentru antrenare, acele asocieri greșite pot apărea în versiunile viitoare ale modelului.
Cu toate acestea, protecțiile tehnice precum Glaze și Nightshade nu sunt infailibile, iar cercetările(fereastră nouă) arată că acestea pot fi slăbite pe măsură ce sistemele AI evoluează.
Renunțați la antrenarea AI
Dacă munca dvs. există online, este probabil ca aceasta să fi fost extrasă într-un model AI. Folosind site-uri web precum Have I Been Trained(fereastră nouă) și AI Watchdog(fereastră nouă) de la The Atlantic, puteți verifica dacă imaginile, scrierile sau alte lucrări creative ale dvs. apar în seturi de date cunoscute utilizate pentru a antrena modele AI. Primul vă permite să vă trimiteți munca într-un registru Do Not Train (Nu antrenați), unde companiile participante pot identifica și exclude acele imagini din viitoarele sesiuni de antrenament. Cu toate acestea, aceste măsuri sunt voluntare, depind de dorința companiilor individuale de a le onora și nu afectează modelele care au fost deja antrenate folosind munca dvs.
Dacă locuiți în UE, puteți utiliza legile privind protecția datelor, cum ar fi GDPR(fereastră nouă), în avantajul dvs., solicitând companiilor să excludă conținutul dvs. din antrenarea AI. Unele companii au procese de renunțare îngropate în setările aplicațiilor lor; de exemplu, iată cum să renunțați la utilizarea datelor Meta AI pe Facebook, Instagram și WhatsApp.
Blocați setările confidențialitate
Reduceți ceea ce postați public pe rețelele de socializare și asigurați-vă că profilul dvs. este setat pe privat. Cu cât conținutul este mai puțin accesibil, cu atât este mai greu de extras de către sistemele AI externe. Dar acest lucru s-ar putea să nu fie suficient pentru a vă proteja de platformă în sine, deoarece multe companii integrează din ce în ce mai mult caracteristici AI — cum ar fi Meta folosind toate interacțiunile Meta AI pentru antrenare și reclame — ridicând întrebări despre modul în care conținutul public și privat poate fi utilizat în timp. Cel mai bine este să evitați utilizarea rețelelor de socializare ca arhivă principală sau portofoliu.
Fiți intenționat în ceea ce privește partajarea publică
Când postați public pentru a ajunge la publicul dvs., partajați versiuni mai mici, cu rezoluție mai mică sau cu filigran ale muncii dvs. Păstrați fișierele de calitate completă stocate în backup-uri deconectate sau servicii cloud care în mod clar nu utilizează conținut privat pentru antrenarea AI.
Stocați și partajați fișiere în siguranță
Pe măsură ce instrumentele AI devin tot mai profund integrate în platformele majore — cum ar fi Google adăugând Gemini peste tot, inclusiv în Google Drive și Gmail — oamenii sunt din ce în ce mai precauți cu privire la modul de stocare și partajare a muncii lor.
Proton Drive oferă stocare și partajare criptată de la un capăt la altul pentru fotografiile, videoclipurile, albumele, documentele, foile de calcul și alte fișiere ale dvs. Nu colectăm, nu procesăm, nu partajăm datele dvs. cu terțe părți și nu le folosim pentru antrenarea AI. Spre deosebire de Big Tech, Proton este susținut pe deplin de comunitatea noastră de abonați plătitori, nu de publicitate sau utilizarea datelor.
Puteți partaja linkuri protejate prin parolă, puteți seta date de expirare, puteți acorda acces anumitor persoane doar prin e-mail și puteți revoca accesul oricând. De asemenea, puteți colecta fișiere în siguranță de la persoane fără un cont Proton Account.
Utilizați AI privat fără a renunța la control
Dacă doriți beneficiile AI fără a renunța la controlul asupra muncii dvs. și fără a vă face griji că o viitoare modificare a politicii ar putea transforma brusc fișierele dvs. în date de antrenament, utilizați asistentul nostru AI privat(fereastră nouă). Lumo nu se antrenează niciodată pe fișierele sau conversațiile dvs. și se bazează pe cod open-source, ceea ce înseamnă că oricine poate verifica afirmațiile noastre.
Lumo se integrează cu Proton Drive, permițându-vă să lucrați în siguranță cu fișierele dvs. și să generați imagini, fără a contribui la ecosistemul de extragere a datelor AI împotriva căruia atât de multe persoane și organizații ripostează activ.
Arta dvs. este o dată sensibilă
Oprirea furtului de artă AI nu înseamnă respingerea totală a AI. Dar înseamnă recunoașterea faptului că munca creativă reprezintă date sensibile, fie că este vorba de o ilustrație, un roman sau un cântec. Creatorii merită libertate de acțiune și tratament echitabil, inclusiv capacitatea de a decide cum și dacă munca lor este utilizată.
Nicio strategie unică nu poate împiedica pe deplin sistemele AI să absoarbă conținut disponibil public — și, în unele cazuri, conținut privat expus indirect — în antrenamentul lor. Iar companiile de AI vă vor face să credeți că nu există nicio modalitate de a construi instrumente AI fără a vă folosi datele. Noi nu suntem de acord(fereastră nouă).
Până când autoritățile de reglementare și instanțele vor oferi orientări mai clare, cea mai eficientă abordare este să fiți proactivi cu privire la modul în care interacționați cu internetul și să alegeți platforme care vă respectă în mod clar confidențialitatea și drepturile creative.






