„Problema alinierii” AI postulează că, pe măsură ce sistemele AI devin mai inteligente, va deveni mai dificil să se alinieze obiectivele lor cu cele ale dezvoltatorilor lor. Un sistem AI ar putea, în teorie, să „o ia razna”, elaborând strategii nedorite și imprevizibile pentru a atinge un obiectiv.

Maximizatorul de agrafe(fereastră nouă) este un experiment de gândire care explorează acest concept: Dacă un AI superinteligent ar fi însărcinat cu singurul scop de a crea agrafe, ar putea rechiziționa resursele lumii pentru a-și atinge scopul cu orice preț, transformând totul în agrafe. În cele din urmă, ar putea chiar să realizeze că oamenii, încercând să oprească AI-ul, sunt o distragere a atenției și să ne elimine: în mod clar o nealiniere între interesele AI și cele umane.

Deși evident bizară, problema agrafelor a devenit un punct de referință în cultura pop pentru AI. În viața reală, constrângerile și regulile împiedică sistemele să depășească scopurile propuse. Dar mulți fondatori și directori executivi din Big Tech folosesc această ipoteză pentru a crea agitație în jurul modelelor lingvistice mari (LLM-uri). Au cu adevărat chatboții puterea de a face omenirea să dispară? Nu. Dar îi face să pară impresionanți și, mai important, ascunde adevărata problemă de aliniere AI care ne face rău chiar acum: LLM-urile Big Tech ne invadează confidențialitatea, ne fură datele și ne devalorizează economia informațională. Este atât o strategie de vânzări, cât și o diversiune, menită să ne facă să privim spre viitor în loc să ne uităm la controlul pe care îl cedăm în prezent.

Suntem pe drumul spre un viitor distopic?

Când fondatorii fac declarații largi, speculative despre ceea ce produsele lor „ar putea” face, aceasta este în primul rând o metodă de a crea oportunități de afaceri și de a crea valoare pentru acționarii lor. LLM-urile și AI generativ sunt produse de afaceri. Este în interesul proprietarilor lor să credeți că instrumentul lor este revoluționar.

Instituțiile media sunt dornice să propulseze povești senzaționale, cum ar fi potențialul instrumentelor AI de a ajuta utilizatorii să creeze arme biologice(fereastră nouă) sau să mintă dezvoltatorii(fereastră nouă), ca și cum AI-ul generativ ar avea o minte proprie (nu are). Este ușor să obțineți clicuri cu titluri despre opinii extreme sau nefondate, dar astfel de opinii nu sunt o reprezentare exactă a tehnologiei AI care există astăzi.

În schimb, LLM-urile sunt pur și simplu mașini de predicție a cuvintelor. Sunt programe informatice care digeră cantități masive de text, „învățând” modele de limbaj uman și apoi construiesc răspunsuri probabilistice la intrările utilizatorilor. Nu au gânduri proprii și nici măcar nu înțeleg limbajul. De fapt, trebuie mai întâi să convertească cuvintele în numere înainte de a putea procesa informații. Limitările LLM-urilor au fost bine documentate de Gary Marcus(fereastră nouă) și mulți alți cercetători.

Noi instrumente pentru capitalismul de supraveghere

LLM-urile nu vor cauza apocalipsa, dar sunt destul de bune la altceva: colectarea de informații extrem de nuanțate despre dvs. De aceea, LLM-urile sunt o mină de aur de date pentru afaceri și o țintă atractivă pentru infractori.

LLM-urile alimentează chatboți precum ChatGPT, Copilot, Claude și Grok, care funcționează ca motoare de căutare. Aparent, puteți utiliza acești chatboți pentru orice doriți: Vă pot ajuta să creați liste de cumpărături, să vă organizați calendarul, să scrieți e-mailuri sau să scrieți cod. Sunt asistentul dvs. personal, profesorul dvs., confidentul dvs. sau orice altceva le cereți să fie.

Sute de milioane de oameni la nivel global își împărtășesc deja întrebările, ideile, gândurile și cele mai profunde secrete cu chatboți. Sunt încurajați să facă acest lucru de companiile care îi gestionează: Sam Altman, CEO al Open AI, a notat recent(fereastră nouă) că Generația Z „nu iau cu adevărat decizii de viață fără a întreba ChatGPT ce ar trebui să facă.” Solicitarea și încurajarea acestui nivel de încredere și dependență față de un chatbot cu scop lucrativ și nesigur este profund iresponsabilă. Big Tech dorește să ne mediem viețile și gândurile prin serviciile lor, deoarece atunci au un cuvânt de spus în modul în care ne cheltuim banii, ce facem și ce gândim.

Companiile din spatele LLM-urilor își vând, de asemenea, produsele ca soluții de productivitate pentru guverne și afaceri, promițând să economisească timp și efort pentru utilizatorii lor, introducând în același timp noi oportunități de a fi supravegheați. În Marea Britanie, sistemul AI al Ministerului Justiției „prezice” riscul de recidivă(fereastră nouă) al prizonierilor. Ofițerii de poliție folosesc chatboți(fereastră nouă) pentru a redacta rapoarte de crimă. Combinarea puterilor de stat cu algoritmi părtinitori(fereastră nouă) este periculoasă și întărește prejudecățile existente.

Exploatarea datelor dvs. în scopuri de antrenare

LLM-urile rulează pe modele AI antrenate pe seturi enorme de date, iar pentru a-și îmbunătăți serviciile necesită tot mai multe date. Din păcate, aceste date provin de la dvs.: chaturile dvs., fotografiile dvs., căutările dvs. web. Companiile nu vă vor cere întotdeauna permisiunea sau nu vor clarifica ce colectează de la dvs.

De exemplu, Meta AI dorește să scaneze (fereastră nouă)fotografii(fereastră nouă) din biblioteca dvs. pe care nici măcar nu le-ați încărcat pe platformele sale pentru a vă analiza datele faciale. Mulți utilizatori au fost deranjați de anunțul că AI-ul Microsoft Copilot(fereastră nouă) ar face capturi de ecran ale dispozitivelor lor la fiecare câteva minute. Fotografiile dvs., mesajele către prieteni și cei dragi și gândurile dvs. cele mai personale sunt puncte de date valoroase pe care companiile le doresc.

Analizând politica de confidențialitate(fereastră nouă) a Open AI, vedem că ChatGPT va găsi și stoca:

  • Identificatori, cum ar fi numele dvs., detaliile de contact, adresa IP și alți identificatori de dispozitiv
  • Informații comerciale, cum ar fi istoricul tranzacțiilor dvs.
  • Informații privind activitatea rețelei, cum ar fi conținutul și modul în care interacționați cu ChatGPT
  • Locația generală din care accesați ChatGPT

Aceste informații pot fi divulgate guvernelor, vânzătorilor, afiliaților, furnizorilor de servicii și altor terțe părți.

În esență, un LLM ajunge să vă cunoască. La fel ca un motor de căutare, ajunge să vă înțeleagă obiceiurile, preferințele, interesele și fiecare aspect al dvs. pe care îl poate deduce din comportamentul dvs. Big Tech va acorda întotdeauna prioritate găsirii de noi modalități de a vă achiziționa datele personale, deoarece este profitabil. Și speră că nu veți observa.

Gândiți-vă doar la tendințele care au măturat rețelele de socializare în ultimii ani: animațiile personalizate în stil Studio Ghibli(fereastră nouă) au imitat stilul distinctiv al lui Hayao Miyazaki împotriva voinței sale, iar păpușile personalizate ambalate AI(fereastră nouă) inspirate de jucării clasice precum Barbie au creat perspective vizuale asupra gusturilor personale ale oamenilor. Această tendință pe rețelele de socializare poate să fi părut o distracție inofensivă, dar instrumentele AI folosite pentru a crea aceste imagini au putut recolta fotografii și informații despre oameni pe care companiile lor mamă le pot folosi în scopuri publicitare și le pot vinde potențial terților. Acestea sunt doar două dintre multele exemple de Big Tech ingerând în liniște datele dvs. personale în schimbul participării la o tendință trecătoare.

Există o soluție mai bună pentru LLM-uri

După ce ați citit despre toate aceste riscuri, s-ar putea să ajungeți să credeți că LLM-urile sunt inerent periculoase. Dar nu este deloc cazul. Companiile Big Tech și-au construit sistemele AI pentru a fi invazive și înfometate de date în mod intenționat. Este posibil să construiești AI care protejează confidențialitatea oamenilor și păstrează datele sigure implicit. Știm pentru că am făcut-o cu Lumo, asistentul AI(fereastră nouă) axat pe confidențialitate.

Iată cum rezolvă Lumo adevărata problemă de aliniere AI:

  • Lumo nu păstrează jurnale ale conversațiilor dvs. Fiecare chat este șters de pe serverele noastre imediat ce modelul termină de procesat interogarea și răspunsul dvs.
  • Istoricele chatului sunt stocate cu criptare zero-access. Blocându-vă datele cu cheia secretă, Proton nu are niciodată acces și, prin urmare, nu vă poate partaja sau divulga niciodată accidental datele.
  • Nu antrenăm modelele cu chaturile dvs. Folosirea conversațiilor pentru a antrena modele AI pune datele dvs. în pericol de a reapărea în rezultate viitoare. Conversațiile cu Lumo sunt doar ale dvs.
  • Lumo este open source și utilizează doar modele open source. Deoarece baza noastră de cod este publică, oricine poate verifica dacă aplicațiile noastre fac exact ceea ce pretindem.
  • Suntem stabiliți într-o jurisdicție care respectă confidențialitatea. Spre deosebire de AI-urile Big Tech din SUA care sunt supuse legilor de supraveghere invazive, Lumo este stabilit în Europa și protejat de legi puternice privind confidențialitatea.

La fiecare nivel, Lumo este conceput pentru a oferi aceeași utilitate ca alte LLM-uri, fără externalitățile riscante. Big Tech și-ar putea construi AI-urile în același mod. Doar că aleg să nu o facă, deoarece datele dvs. sunt moneda lor.

Este alinierea AI cu adevărat o amenințare?

Adevărul este pur și simplu mai puțin interesant decât ar dori să credem CEO-ii Big Tech. Pare mai puțin probabil ca un AI să împuternicească oamenii să creeze arme biologice sau să cheltuiască toate resursele noastre globale făcând agrafe decât să urmeze pur și simplu directivele pe care Big Tech le urmează deja: Furtul și exploatarea datelor private.

Nu credeți entuziasmul exagerat despre alinierea AI. Nu este amenințarea pe care ar trebui să ne concentrăm vreunul dintre noi. Supravegherea, exploatarea indivizilor și a afacerilor mai mici și un ecosistem informațional compromis sunt preocupările presante cărora ar trebui să le acordăm atenție atunci când vine vorba de AI.