Pe măsură ce utilizarea inteligenței artificiale crește, asistenții IA(fereastră nouă) devin tovarăși de încredere. Milioane de oameni apelează la chatboți precum ChatGPT, Claude, Gemini, DeepSeek și alții pentru a pune întrebări și a rezolva probleme. Interogările lor pot fi profund sensibile, întrebând despre probleme de sănătate, partajând date ale clienților sau căutând sprijin emoțional și inspirație creativă.
Pentru mulți, acești chatboți par umani, receptivi și confidențiali. Dar evoluțiile recente (un ordin judecătoresc a obligat OpenAI să păstreze datele de ieșire ChatGPT(fereastră nouă) pe termen nelimitat, iar Sam Altman, fondatorul OpenAI, spune că ChatGPT nu oferă „confidențialitate juridică(fereastră nouă)”) pun în lumină riscul ca fiecare cuvânt pe care îl tastați să poată fi înregistrat, stocat, analizat și posibil utilizat abuziv sau divulgat către terți.
Iată ce ar putea însemna asta și de ce ar trebui să ne îngrijoreze pe toți.
Mizele sunt mai mari cu IA
Ascensiunea asistenților IA pare o nouă frontieră, dar în multe privințe am mai fost aici. Preocupările legate de jurnalele de chat IA le rezonează pe cele apărute în primele zile ale motoarelor de căutare, multe dintre care s-au dovedit bine fondate. Jurnalele de căutare au fost folosite pentru a construi profiluri profitabile de țintire a reclamelor, au fost expuse în încălcări de date și au fost citate în instanță.
Cu IA, mizele sunt mai mari, deoarece datele sunt mai personale și detaliate. Un număr tot mai mare de oameni trec de la motoarele de căutare la chatboți IA pentru răspunsuri, cu predicții că volumul motoarelor de căutare va scădea cu 25% până în 2026(fereastră nouă). Spre deosebire de o bară de căutare, care captează de obicei interogări scurte și fragmentate, întrebările către chatboți sunt formulate ca și cum solicitanții ar vorbi cu o altă persoană, dezvăluind mult mai multe despre ei înșiși în acest proces. O singură conversație ar putea conține gânduri personale(fereastră nouă), lupte emoționale, preocupări de sănătate(fereastră nouă), temeri financiare sau chiar nume complete și adrese.
Pe scurt, jurnalele de chat oferă o hartă incredibil de bogată și intimă a identității dvs., mai mult decât jurnalele motoarelor de căutare — și cu implicații mult mai mari pentru confidențialitatea dvs. Big Tech ar putea accesa jurnalele dvs. de chat și le-ar putea folosi pentru a construi un profil psihologic despre dvs., care poate fi dezvăluit guvernului sau folosit pentru publicitate țintită. De exemplu, Meta folosește datele de chat IA pentru a crea reclame personalizate.
Chat-urile dvs. „anonime” nu vor rămâne întotdeauna așa
Un argument comun împotriva îngrijorării cu privire la confidențialitatea jurnalelor de chat este că volumul mare de date face puțin probabilă exploatarea individuală, mai ales când utilizatorii nu sunt conectați. Dar istoria recentă spune o altă poveste.
În iulie, reporterii au descoperit că peste 100.000 de conversații în ChatGPT(fereastră nouă) au fost indexate de Google și făcute căutabile. Utilizatorii care au dat clic pe butonul de „partajare” pentru a trimite o conversație prietenilor sau colegilor, aproape sigur nu și-au dat seama că conversațiile lor private vor fi vizibile pentru toată lumea de pe internet.
Acest exemplu este un avertisment: Așa-numitele date „anonime” sunt rareori anonime. Asociate cu adrese IP, mărci temporale, amprentele dispozitivului și ID-uri de sesiune și cookie, aceste jurnale devin mult mai identificabile.
Cum pot chat-urile să expună viețile noastre interioare
Platformele populare de AI ChatGPT(fereastră nouă), Gemini(fereastră nouă) și DeepSeek(fereastră nouă) precizează toate că jurnalele de chat ale utilizatorilor sunt folosite pentru a ajuta la îmbunătățirea performanței modelului și nu sunt folosite pentru a vă „vinde” datele pentru publicitate sau profilarea utilizatorilor. Dar politicile se pot schimba peste noapte, așa cum arată bătălia juridică a OpenAI.
De exemplu, Anthropic și-a actualizat politica de confidențialitate(fereastră nouă) fără avertisment în august 2025 pentru a extinde perioada de păstrare a datelor. Cu jurnalele stocate pe termen nelimitat, datele personale care păreau odată interzise ar putea deveni brusc o sursă profitabilă de venituri.
Nu ar fi prima dată când se întâmplă acest lucru. Când Google s-a lansat în 1998, co-fondatorii Sergey Brin și Larry Page au avertizat(fereastră nouă) că motoarele de căutare bazate pe publicitate vor fi inevitabil „în mod inerent părtinitoare față de agenții de publicitate și departe de nevoile consumatorilor”. Un deceniu mai târziu, Google a început să folosească istoricul căutărilor pentru a direcționa reclamele(fereastră nouă).
Având accesare directă la viața interioară a oamenilor, jurnalele AI pot împinge direcționarea reclamelor la limite. Cu un număr tot mai mare de utilizatori care apelează la boții de chat pentru sprijin emoțional(fereastră nouă), cineva ar putea mărturisi:
- „Mă simt copleșit și singur în ultima vreme.”
- „Crezi că am depresie?”
- „Ce pot face dacă nu pot plăti chiria luna viitoare?”
Aceste afirmații nu sunt doar cuvinte cheie sau o colecție de interacțiuni, ci sunt indicatori emoționali și situaționali clari. Dacă sunt stocate și analizate, acestea ar putea fi folosite pentru a construi profiluri psihologice și a manipula deciziile utilizatorilor.
Nu este alarmist să sugerăm că astfel de informații intime și sensibile ar putea fi folosite în scopuri de exploatare — deoarece marile companii de tehnologie au făcut exact acest lucru. În 2017, Facebook a demonstrat că nicio interacțiune nu este interzisă, explorând modalități de a ținti adolescenții vulnerabili emoțional(fereastră nouă) cu reclame în momente de nesiguranță.
Jurnalele boților de chat sunt o fereastră către psihicul dvs. Iar acest nivel de accesare ridică probleme semnificative de confidențialitate și etică într-un sector care nu are încă reguli clare privind utilizarea și aplicarea datelor.
Riscurile legale pentru utilizatori
Istoricul căutărilor a jucat mult timp un rol în investigațiile penale și în cazurile judiciare. Există mai multe cazuri în care interogările online au contribuit la verdicte de vinovăție, în special Moira Akers vs State în SUA.
După ce a suferit o naștere de făt mort în 2018, Akers a fost acuzată de crimă și în 2022 a fost condamnată la 30 de ani de închisoare. O parte cheie a cazului procurorului a fost reprezentată de căutările pe internet ale lui Akers despre avort, efectuate în primele etape ale sarcinii. Potrivit acuzării, aceste căutări au servit ca dovadă a intenției lui Akers — în ciuda faptului că a dus sarcina la termen. Curtea Supremă din Maryland i-a anulat condamnarea în 2025, decizând că dovada interogării de căutare este inadmisibilă(fereastră nouă). Dar Akers petrecuse deja aproape trei ani în închisoare. Cazul subliniază modul în care jurnalele stocate pot fi folosite pentru a spune o poveste care să se potrivească unei narațiuni nefavorabile, chiar dacă există dovezi care o contrazic.
Mizele ar putea fi chiar mai mari cu discuțiile AI stocate care pot face obiectul unor dovezi legale. Spre deosebire de interogările de căutare, aceste interacțiuni sunt mai conversaționale și chiar speculative, uneori ca o modalitate de a solicita un anumit tip de răspuns de la LLM sau modelul lingvistic mare. Un schimb privat, nevinovat, cu o IA ar putea fi interpretat ulterior ca incriminator într-un cadru legal, indiferent de intenția de la momentul respectiv.
Un instrument puternic pentru manipulare
Cei care pot vedea jurnalele boților de chat pot obține accesare la planuri comportamentale detaliate: obiceiuri personale, declanșatori emoționali, dinamica relațiilor și chiar vulnerabilități profesionale. În mâinile greșite, aceste date sunt un instrument puternic pentru ingineria socială, care este o tactică obișnuită de hacking care implică manipulare psihologică.
Acest risc este departe de a fi ipotetic. În ianuarie 2025, platforma AI DeepSeek a lăsat o bază de date masivă expusă online(fereastră nouă). Încălcarea a inclus peste un milion de jurnale de chat AI și chei API, toate accesibile public oricui știa unde să caute. Printre datele expuse s-au numărat conversații în text simplu care ar fi putut conține discuții despre familie, finanțe și proiecte confidențiale — informații care ar putea fi ușor exploatate pentru fraudă, șantaj sau furt de identitate.
Odată divulgate, aceste date pot fi transformate în arme pentru a vă uzurpa identitatea sau a vă manipula. Făcând referire la detalii personale extrase din conversații anterioare, atacatorii vă pot câștiga încrederea și o pot exploata pentru a crea vulnerabilități financiare sau de securitate grave.
Spectrul supravegherii politice
În regimurile autoritare, consecințele interacțiunilor digitale stocate pot fi mult mai grave. De exemplu, mai multe țări au interzis platforma AI DeepSeek, cu sediul în China, de la utilizarea pe dispozitive guvernamentale(fereastră nouă) din cauza preocupărilor de securitate cu privire la modul în care informațiile personale ale utilizatorilor sunt gestionate de operator. Coreea de Sud, Australia și Taiwan și-au exprimat îngrijorarea că aceste date ar putea fi accesate de autoritățile chineze și potențial utilizate pentru supraveghere.
Pentru dizidenți, activiști sau jurnaliști, aceasta nu este doar o problemă de confidențialitate, ci o chestiune de siguranță. O discuție aparent banală despre drepturile de protest, legile mass-media sau rutele de azil ar putea fi interpretată ca dovadă incriminatoare în jurisdicțiile cu protecție limitată pentru libertatea de exprimare și libertățile civile.
O amenințare la adresa proprietății intelectuale
În 2023, inginerii Samsung au încărcat neintenționat cod sursă proprietar(fereastră nouă) în ChatGPT în timp ce încercau să depaneze o problemă, având convingerea greșită că interogările lor erau private. Odată trimise, acele date au devenit parte a sistemului de antrenare al OpenAI, stârnind îngrijorări cu privire la securitatea și proprietatea intelectuală partajată cu instrumentele AI.
O îngrijorare conexă a apărut în cazul de profil înalt privind drepturile de autor intentat de The New York Times împotriva OpenAI(fereastră nouă) menționat la începutul acestui articol. Cazul a determinat un ordin judecătoresc care impunea OpenAI să păstreze toate datele de ieșire ChatGPT pe termen nelimitat, după acuzațiile că firma a folosit milioane de articole ale ziarului pentru a-și antrena modelele fără permisiune. Deși cazul se concentrează pe crawlerele web ale OpenAI care extrag conținut de știri, acesta ridică întrebări mai largi pentru creatori — scriitori, designeri, muzicieni și alții — care contribuie cu lucrări originale la platformele AI.
Dacă conținutul trimis de utilizator este păstrat și reutilizat de model, există un risc real ca materialul proprietar sau creativ să fie redistribuit altor utilizatori fără atribuire sau consimțământ. Acest lucru estompează linia dintre contribuția utilizatorului și datele de antrenare AI și ridică întrebări urgente despre calitatea de autor și proprietate în epoca AI generative.
Ce trebuie să se schimbe și cum să vă protejați
Majoritatea oamenilor doresc și se așteaptă la confidențialitate în viața reală. Credem că aceleași așteptări ar trebui să se extindă și la viața digitală a oamenilor. Am construit o suită de servicii criptate care fac confidențialitatea online accesibilă oricui, indiferent dacă trimiteți e-mailuri prietenilor, vizionați transmisiuni în flux ale emisiunilor preferate(fereastră nouă) sau faceți backup fotografiilor. Nu este prea târziu să corectăm greșelile timpurii ale internetului și, cu AI la început, mai este timp să trasăm un nou curs pentru această tehnologie care vă respectă confidențialitatea.
Am construit asistentul nostru AI(fereastră nouă) Lumo într-un mod care respectă protecțiile cheie prin design:
- Fără înregistrarea datelor: Utilizatorii ar trebui să poată interacționa cu boții de chat fără îngrijorarea că materialele trimise vor fi stocate, folosite pentru profit sau folosite împotriva lor.
- Fără antrenarea modelului: Discuțiile private nu ar trebui exploatate niciodată ca date de antrenare, deoarece riscă să reapară ulterior în rezultatele modelului.
- Transparență în manipularea datelor: Ar trebui să fie clar cum sunt utilizate datele utilizatorului stocate, cine poate obține accesare la acestea, unde sunt stocate, cât timp sunt păstrate și cum pot fi șterse.
- Criptare cu acces zero în mod implicit: Conversațiile ar trebui securizate folosind cheile de criptare ale utilizatorului, astfel încât nici măcar furnizorul AI să nu poată obține accesare.
Deși pericolele boților de chat care înregistrează discret datele noastre sunt reale și presante, nu suntem neputincioși. Alegând instrumente AI care pun confidențialitatea pe primul loc și cerând transparență și responsabilitate de la creatorii lor, putem schimba echilibrul puterii înapoi în mâinile utilizatorilor, afirmând convingerea că confidențialitatea este un drept, nu un privilegiu.






