O concepție greșită comună este că dacă nu utilizați modele lingvistice mari (LLM) precum ChatGPT pentru chat-uri, Midjourney pentru generarea de imagini sau Sora pentru generarea de videoclipuri, sunteți la adăpost de inteligența artificială (AI). Indiferent dacă o utilizați sau nu, AI-ul vă atinge deja viața.

De exemplu, când faceți fotografii pe Android, Google Photos scanează și etichetează automat fiecare persoană din biblioteca dvs. foto folosind recunoașterea facială. Postarea pe rețelele sociale fără a vă schimba setările implicite creează postări publice care pot fi preluate în seturile masive de date folosite pentru antrenarea LLM-urilor. Chiar și reclamele personalizate de pe site-uri sau din aplicații sunt alimentate de AI antrenat pe preferințele dvs. de navigare și cumpărături.

Acel confort vă costă confidențialitatea și poate avea un impact profund asupra vieții dvs. Douăzeci de fotografii preluate din fluxul social al copilului dvs. sunt suficiente pentru a construi un videoclip deepfake de 30 de secunde care poate fi folosit pentru șantaj, intimidare sau furt de identitate.

Iată ce este în joc când AI are acces la datele dvs. personale și ce puteți face pentru a vă proteja confidențialitatea online.

Cum vă riscă AI-ul confidențialitatea?

AI poate eroda confidențialitatea colectând prea mult, deducând prea mult, partajând prea mult.

Datele dvs. personale pot fi colectate

Sistemele AI devin mai precise antrenându-se pe cantități masive de date, adesea preluate din surse disponibile public, cum ar fi postările dvs. de pe Facebook(fereastră nouă), fotografiile Flickr(fereastră nouă) sau firele de discuții Reddit(fereastră nouă). Postările ocazionale pe rețelele sociale, fotografiile de familie și detaliile de profil — conținând adesea informații sensibile și partajate inițial din motive personale sau sociale — au fost incluse în seturi de date folosite pentru a antrena LLM-uri și sisteme de recunoaștere facială de miliarde de dolari. Acest lucru se întâmplă deoarece Big Tech tratează conținutul online ca fiind disponibil gratuit pentru utilizarea AI, fără consimțământ explicit sau respect pentru proprietatea intelectuală.

Ați putea fi re-identificat

Companiile tehnologice susțin că datele dvs. personale nu pot fi urmărite înapoi la dvs. odată ce au fost de-identificate sau pseudo-anonimizate, ceea ce înseamnă că identificatorii evidenți precum numele sau numerele de telefon sunt eliminați. Dar această protecție este fragilă, deoarece seturile de date anonimizate pot fi re-identificate prin încrucișarea lor cu alte surse de date, cum ar fi profilurile de social media sau urmele de geolocalizare.

De exemplu, utilizatorii Netflix au fost re-identificați(fereastră nouă) comparând evaluările lor anonime de filme cu informațiile IMDb. Un studiu(fereastră nouă) arată că aproape orice american poate fi identificat în orice set de date cu doar 15 marcaje demografice. Adăugând puterea de potrivire a modelelor a AI, re-identificarea a devenit mai rapidă, mai ușoară și accesibilă oricui.

Datele dvs. pot fi partajate cu terți

Când utilizați sisteme AI, datele dvs. nu rămân întotdeauna la compania la care v-ați înregistrat. Acestea pot fi partajate cu parteneri sau procesatori terți — unii de care probabil nu ați auzit niciodată — care vă pot gestiona datele conform propriilor termeni și standarde de securitate.

În acel moment, confidențialitatea devine un exercițiu de încredere. Nu vă mai bazați doar pe compania pe care o cunoașteți pentru a vă proteja informațiile, ci pe un întreg lanț de actori externi necunoscuți, fiecare cu propria infrastructură, politici și vulnerabilități. Fiecare mână care atinge datele dvs. lărgește suprafața de atac, iar responsabilitatea este estompată.

De exemplu, o încălcare implicând un partener OpenAI a dus la expunerea datelor utilizatorilor API, arătând cum accesul terților poate deveni veriga slabă a sistemului.

Solicitările de ștergere a datelor ar putea să nu funcționeze

Odată ce datele dvs. antrenează un model AI, recuperarea lor este aproape imposibilă deoarece modelează comportamentul general al modelului. Dezvățarea automată — tehnici pentru a face un model să uite — este încă în stadii incipiente, așa că singura opțiune astăzi ar fi re-antrenarea modelului. Și chiar dacă o companie susține că a onorat solicitarea dvs. de ștergere a datelor, practic nu există nicio modalitate de a confirma acest lucru(fereastră nouă).

Alte persoane v-ar putea vedea conversațiile private

LLM-uri precum ChatGPT(fereastră nouă), Meta AI(fereastră nouă) și Grok(fereastră nouă) au expus conversații private prin caracteristicile lor de partajare, chat-urile fiind indexate de motoarele de căutare și făcute public descoperibile. Platformele nu au fost suficient de transparente cu privire la acest risc, lăsând utilizatorii neștiutori că ceea ce părea un schimb privat ar putea ajunge vizibil pentru oricine pe internet.

Ați putea fi tratat incorect

Dacă datele folosite de sistemele AI pentru a învăța modele conțin prejudecăți ascunse — cum ar fi cele din inegalitățile istorice sau seturile de date incomplete — AI poate consolida sau amplifica acele modele. Mizele sunt mai mari cu sistemele AI non-private ale Big Tech, care sunt cu sursă închisă și operează ca niște cutii negre ce nu pot fi revizuite independent. Aceste sisteme pot folosi atribute sensibile precum rasa, genul sau codul poștal pentru a lua decizii automate în poliția predictivă(fereastră nouă), angajare(fereastră nouă), sănătate(fereastră nouă) sau scoring de credit(fereastră nouă).

Direcționarea reclamelor devine mai precisă

În timp ce AI non-privat face reclamele mai inteligente permițând hiper-direcționarea, adesea invadează confidențialitatea întregii dvs. familii. De exemplu, Publicis, un broker de date și cea mai mare companie de publicitate din lume, susține că profilează 2,3 miliarde de oameni și urmărește detalii precum preferințele familiale și veniturile(fereastră nouă) pentru a decide dacă să îi vizeze cu produse de buget sau premium.

Odată cu chatbot-urile AI care înlocuiesc căutarea tradițională, reclamele ne urmează în acest nou spațiu. De exemplu, Perplexity încorporează reclame în răspunsurile generate de AI(fereastră nouă) și a plasat o ofertă de 34,5 miliarde de dolari pentru a cumpăra Google Chrome — o mișcare menită să obțină acces la cei peste 3 miliarde de utilizatori ai browserului și la datele comportamentale intime care vin odată cu acesta.

Stocarea în cloud vă poate expune datele

Furnizorii de stocare în cloud fără criptare de la un capăt la altul (E2EE) pot accesa fotografiile, documentele și fișierele sensibile pe care le încărcați. De asemenea, pot folosi acele date pentru a alimenta instrumente AI, a genera informații despre dvs. sau a afișa reclame personalizate.

Google Drive, de exemplu, păstrează accesul la datele dvs. și le folosește pentru caracteristici AI precum verificarea ortografică și completarea automată în Google Docs. Dacă Gemini, asistentul AI al Google, rămâne strâns integrat cu Google Workspace, interogările pe care le faceți despre fișierele dvs. Drive ar putea alimenta și ele antrenarea AI.

Similar, Microsoft a anunțat că Word, Excel și PowerPoint vor salva automat în OneDrive în mod implicit în curând, un alt serviciu non-E2EE unde utilizarea viitoare a datelor dvs. pentru publicitate sau antrenare AI rămâne incertă.

AI-ul poate face greșeli

Sistemele automate v-ar putea scana comunicările private și le-ar putea marca drept suspecte. Legea propusă de UE privind controlul chat-urilor ar cere serviciilor de mesagerie precum WhatsApp și Signal să folosească AI pentru a scana fiecare mesaj privat și fotografie pentru a detecta materialele de abuz sexual asupra copiilor (CSAM).

Dar acest lucru înseamnă monitorizarea conversațiilor tuturor, nu doar a celor suspectați de infracțiuni. Și istoria arată cât de ușor poate face AI greșeli. Contul Google al unui tată, de exemplu, a fost închis(fereastră nouă) și raportat autorităților după trimiterea unei fotografii a copilului său către un medic. Ceea ce ar trebui să rămână între dvs. și medicul dvs., sau între dvs. și familia dvs., ar putea fi expus brusc companiilor tehnologice și forțelor de ordine.

Oricine poate crea deepfake-uri

AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.

Actorii rău intenționați exploatează deepfake-urile pentru furt de identitate, fraudă, șantaj sau daune reputaționale — iar riscurile se extind și la copii. În 2019, infractorii au folosit audio deepfake pentru a imita vocea unui CEO(fereastră nouă) și au păcălit un angajat să transfere 220.000 €. Riscurile se extind și la copii, de asemenea. Într-un incident, un prădător a creat o imagine deepfake a unui copil de 14 ani(fereastră nouă) pentru a extorca bani amenințând că o va partaja.

Cum să vă păstrați datele private față de sistemele AI

Există multe îngrijorări legate de confidențialitate cu sistemele AI, în special modelele non-private, cu sursă închisă, rulate de Big Tech. Și deși nu puteți preveni complet ca aceste sisteme să vă preia sau să vă utilizeze greșit datele odată ce sunt acolo, vă puteți reduce amprenta, puteți cere responsabilitate și puteți alege AI axat pe confidențialitate care nu vă exploatează datele. Iată ce puteți face:

  • Pe rețelele sociale, faceți profilurile și postările private, ștergeți încărcările vechi, eliminați datele EXIF din fotografii înainte de partajare și evitați partajarea detaliilor identificabile — precum adresele, numele complete ale copiilor sau școlile pe care le frecventează. Aflați mai multe despre cum să gestionați internetul pentru familia dvs.
  • Verificați setările de confidențialitate ale aplicațiilor dvs. De exemplu, Meta AI ar putea scana fotografiile din galeria foto și videoclipurile în aplicația Facebook pentru Android și iOS.
  • Protejați-vă împotriva deepfake-urilor încețoșând sau cenzurând fețele familiei dvs. înainte de a posta fotografii online.
  • Mascați-vă amprenta digitală folosind o rețea privată virtuală (VPN)(fereastră nouă) pentru a vă ascunde adresa IP și utilizați aliasuri pentru a vă proteja adresa de e-mail atunci când postați informații sensibile pe care nu ați dori să fie urmărite înapoi la dvs.
  • Utilizați servicii axate pe confidențialitate care nu vă monetizează datele, cum ar fi Signal pentru mesagerie securizată și Brave sau DuckDuckGo pentru navigare privată.
  • Pentru stocarea securizată a celor mai sensibile fișiere, inclusiv fotografii private și documente confidențiale, utilizați Proton Drive pentru stocare în cloud criptată de la un capăt la altul. Spre deosebire de platformele care pot expune conținut presupus privat, Drive nu scanează, nu indexează și nu folosește datele dvs. pentru antrenare AI — și nu pot fi văzute de nimeni altcineva, chiar și când alegeți să le partajați. Păstrarea fotografiilor cu adevărat private înseamnă, de asemenea, că nu vor ajunge online unde ar putea fi utilizate greșit pentru a crea deepfake-uri.
  • Refuzați antrenarea AI ori de câte ori este posibil, cum ar fi pe Gemini, ChatGPT(fereastră nouă), Claude(fereastră nouă) sau Meta AI. Politicile se pot schimba peste noapte cu puține avertismente, așa că dacă doriți beneficiile atât ale AI, cât și ale confidențialității, treceți la Lumo — asistentul nostru AI axat pe confidențialitate(fereastră nouă) care nu păstrează jurnale și nu se antrenează pe datele dvs.

Reglementările mai stricte privind confidențialitatea AI, cum ar fi Actul UE privind AI(fereastră nouă), vor fi critice pentru a reda puterea utilizatorilor de internet. Până atunci, cea mai bună apărare este să fiți conștient de ceea ce partajați online, să cereți responsabilitate de la companiile care construiesc aceste sisteme și să alegeți instrumente AI transparente(fereastră nouă) care respectă confidențialitatea de la bază.