Companiile Big Tech au construit imperii de trilioane de dolari transformând viețile noastre personale într-o marfă. Inteligența artificială supraalimentează modelul lor de afaceri bazat pe capitalismul de supraveghere, integrându-se în instrumentele pe care le folosim în fiecare zi — adesea fără a ne oferi explicații clare sau posibilitatea de a opta pentru excludere.
Puternicele modele lingvistice mari (LLM-uri) colectează date și mai detaliate și deduc mai multe despre dvs. decât era imaginabil anterior. IA este integrată într-o gamă largă de platforme(fereastră nouă), de la căutare la stocarea fotografiilor și chiar sistemul de operare al dispozitivului dvs., făcând mai dificilă urmărirea, cu atât mai puțin consimțământul pentru această colectare de date. Acest lucru permite la rândul său companiilor precum Google, Meta și Microsoft să construiască profiluri personale mai cuprinzătoare, să profite mai mult de pe urma datelor și să exercite mai mult control asupra informațiilor și narativelor pe care le vedeți.
Aceste companii pot partaja sau vinde informațiile dvs. private către brokeri de date și alți terți. Guvernele pot accesa aceste date prin citații(fereastră nouă) sau chiar forme mai ascunse de supraveghere. Iar datele personale pot fi expuse într-o încălcare a securității datelor, așa cum s-a întâmplat din nou(fereastră nouă) și din nou(fereastră nouă) cu servicii precum ChatGPT.
Rezultatul este o colectare rapidă și la scară largă a datelor, cu și mai puține controale asupra companiilor pentru a obține consimțământul sau a lua în considerare consecințele tehnologiei. Legile privind protecția datelor care înconjoară IA sunt notoriu mult în urma industriei(fereastră nouă).
Avem nevoie urgentă de o alternativă privată, motiv pentru care am construit un nou asistent IA confidențial, Lumo(fereastră nouă), care nu păstrează nicio înregistrare a conversațiilor dvs. Chaturile dvs. salvate sunt disponibile doar pentru dvs., protejate prin criptare zero-access. Când vine vorba de datele dvs., aveți o alegere — dar mai mulți oameni trebuie să înțeleagă riscurile status quo-ului.
IA face Big Tech și mai puternic
IA permite Google și Meta să-și scaleze și să-și consolideze monopolurile existente, în special în publicitate și exploatarea datelor personale, dar la o scară mult mai rapidă și mai mare.
Meta, de exemplu, integrează profund IA pentru a-și revitaliza afacerea cu reclame, scanând postările dvs. și chiar adăugând Meta AI(fereastră nouă) la produsele sale de chat criptate de la un capăt la altul, precum WhatsApp, într-o încercare aparentă de a sifona mai multe date personale de pe platformă. Google a trecut la AI-first cu afacerea sa de publicitate(fereastră nouă), astfel încât fiecare reclamă este optimizată pentru a vă manipula personal. Iar Gemini al Google este acum profund integrat în întregul său ecosistem, oferind IA-ului său un permis gratuit pentru a colecta date de pe telefoanele Android și aplicațiile Google.
IA este similară cu căutarea, dar mult mai intimă și adânc înrădăcinată în viața dvs. În timp ce urmărirea căutării folosește interogări simple și clicuri pentru a vă prezice interesele, IA folosește procesarea limbajului natural și chiar recunoașterea imaginilor pentru a prezice brandurile, mesajele, emoțiile și imaginile care vor rezona cel mai profund cu dvs. Unii oameni devin chiar investiți emoțional(fereastră nouă) în chatbot-uri IA datorită modului în care pot imita conexiunea umană — ceva ce nu s-a întâmplat niciodată cu motoarele de căutare.
O agenție de publicitate se laudă(fereastră nouă) că publicitatea alimentată de IA este o „schimbare seismică” care oferă clienților puterea de a „evalua sentimentele și preferințele” și chiar de a „procesa date vizuale, cum ar fi imagini și videoclipuri, pentru a identifica logo-urile de brand și utilizarea produselor, permițând țintirea reclamelor specifică contextului.” Imaginați-vă dacă produsele de înfrumusețare ar putea viza copilul dvs. în momentul în care își exprimă anxietățile unui prieten, sau dacă politicienii ar putea implementa reclame optimizate de IA pentru a profita de temerile private ale alegătorilor.
Big Tech este deja mai puternic decât guvernele — imaginați-vă ce ar putea realiza cu o IA neîngrădită.
Conversațiile dvs. sunt divulgate
Confidențialitatea dvs. este în joc, dar și siguranța dvs. IA creează un fond masiv, centralizat de informații intime care este din ce în ce mai vulnerabil la a fi expus într-o varietate de moduri.
Acest lucru s-a întâmplat deja:
- În iulie 2025, reporterii au descoperit că peste 100.000 de conversații în ChatGPT(fereastră nouă) au fost indexate de Google și făcute căutabile. Utilizatorii care dădeau clic pe butonul „partajare” pentru a trimite o conversație prietenilor sau colegilor aproape sigur nu realizau că conversațiile lor private vor fi vizibile pentru toată lumea pe internet.
- În 2024, cercetătorii au folosit o injecție de prompt în Slack AI(fereastră nouă) pentru a dezvălui conținut partajat în canale private.
- În 2023, o echipă diferită de cercetători a extras acreditări software reale(fereastră nouă) (cunoscute sub numele de „secrete”) din asistentul IA Copilot al GitHub, care este antrenat pe miliarde de linii de cod. O parte din acel cod de antrenament includea acreditări, iar cercetătorii au convins IA să dezvăluie peste 200 dintre acestea.
- În ianuarie 2025, după lansarea răsunătoare a startup-ului IA DeepSeek, o echipă de cercetare a găsit o bază de date publică(fereastră nouă) care includea un volum imens de jurnale de chat, secrete și alte date sensibile.
- În august 2025, contractorii care lucrau pentru Meta AI au spus că au citit conversații personale(fereastră nouă) în care oamenii partajau date sensibile cu chatbot-ul.
Ori de câte ori datele personale sunt stocate fără de la un capăt la altul sau criptare zero-access pe serverele unei companii, acele date sunt vulnerabile la a fi divulgate. Jurnalele de chat sunt o țintă incredibil de atractivă pentru hackeri — și guverne. O instanță din SUA a ordonat deja OpenAI să păstreze toate jurnalele de chat ale utilizatorilor(fereastră nouă) (lucru pe care compania îl contestă în prezent). Acele date ar fi apoi disponibile guvernului la cerere. SUA are deja o varietate de metode de a spiona în secret utilizatorii, de la interceptări fără mandat la cereri de date pe care companiile Big Tech sunt obligate să le respecte.
Cu cât sistemele IA absorb mai multe date, cu atât riscă mai mult să dezvăluie, fie prin scurgeri accidentale, rezultate părtinitoare sau presiuni guvernamentale.
Nu sunt doar date – este influență
Acest lucru este probabil de la sine înțeles: Companiile și agenții politici care vă vizează cu reclame nu vă urmăresc interesele.
IA duce acea manipulare la un nivel complet nou. Spre deosebire de mass-media, pe care puteți alege să o ignorați, IA este țesută în viața dvs. de zi cu zi — răspunzând la întrebările dvs. și oferind sugestii în aplicație pe care nici măcar nu le-ați dorit. Nu este doar reactivă; este proactivă. Și când este construită de companii sau exploatată de guverne cu agende specifice, asta o face incredibil de puternică și periculoasă.
Vedem deja cum arată asta. În China, s-a demonstrat că DeepSeek evită sau șterge subiectele sensibile politic. Întrebați despre protestele din Piața Tiananmen și vă veți lovi de un zid(fereastră nouă) — nu pentru că IA nu știe, ci pentru că jurisdicția sa înseamnă că nu are voie să vă spună.
Aceasta nu este o problemă unică pentru China. Chatbot-ul Grok al lui Elon Musk a ridicat semne de întrebare pentru luarea unor poziții politice clare(fereastră nouă) și oferirea unor rezultate extrem de diferite în funcție de cum a fost setat „cadranul” său intern. De asemenea, s-a descoperit că consultă propriile opinii ale lui Musk(fereastră nouă) pe un subiect înainte de a-și partaja răspunsul. Acest lucru arată cum ghidarea IA poate fi modelată pentru a impune anumite opinii, subtil sau nu, ceea ce va deveni din ce în ce mai problematic pe măsură ce ne bazăm mai mult pe IA pentru educație și informații fără a verifica sursele primare.
Deci, dacă IA modelează ceea ce vedeți, ceea ce gândiți și cum vă simțiți, cine decide ce versiune a adevărului primiți?
IA construită pentru oameni, nu pentru profit
Dacă vrem o IA care nu este modelată de Big Tech sau politici autoritare și care vă protejează datele de hackeri și scurgeri, trebuie să construim ceva diferit. Asta înseamnă sprijinirea instrumentelor IA private, independente, fără motive ascunse sau agende secrete.
Lumo este un pas în acea direcție. Este construit în Europa, fără investiții din Silicon Valley sau supraveghere străină, și supervizat de organizația nonprofit Proton Foundation, care este obligată prin statutul său să promoveze confidențialitatea comunității noastre. Deoarece compania noastră a fost fondată de oameni de știință care s-au întâlnit la CERN în 2014, am fost finanțați exclusiv de utilizatorii noștri, nu de investitori sau agenți de publicitate. Acest lucru asigură că valorile și misiunea noastră rămân aliniate cu oamenii pe care îi servim.
Am proiectat Lumo pentru a fi privat în mod implicit, ceea ce înseamnă că nu păstrează jurnale de chat, iar chaturile dvs. sunt stocate cu criptare zero-access, astfel încât doar dvs. le puteți vedea. Lumo este, de asemenea, construit pe modele open-source, iar datele dvs. nu sunt folosite niciodată pentru a antrena IA.
Lumo este doar începutul. Dacă vrem un viitor în care IA servește oamenii — nu profitul, nu puterea — trebuie să-l cerem. Alegând alternative private astăzi, ajutați la modelarea unui internet care este mai transparent, mai democratic și mai respectuos față de drepturile dvs. Instrumentele sunt aici. Alegerea este a dvs.






