Il “problema dell’allineamento” dell’IA postula che man mano che i sistemi di IA diventano più intelligenti, diventerà più difficile allineare i loro obiettivi con quelli dei loro sviluppatori. Un sistema di IA potrebbe, in teoria, “impazzire”, ideando strategie indesiderabili e imprevedibili per raggiungere un obiettivo.

Il massimizzatore di graffette(nuova finestra) è un esperimento mentale che esplora questo concetto: se un’IA superintelligente avesse il compito di creare graffette come unico scopo, potrebbe requisire le risorse del mondo per raggiungere il suo obiettivo a tutti i costi, trasformando tutto in graffette. Alla fine potrebbe persino rendersi conto che gli esseri umani, cercando di fermare l’IA, erano una distrazione ed eliminarci: chiaramente un disallineamento tra gli interessi dell’IA e quelli umani.

Sebbene ovviamente stravagante, il problema delle graffette è diventato un punto di riferimento della cultura pop per l’IA. Nella vita reale, vincoli e regole impediscono ai sistemi di andare oltre i loro scopi previsti. Ma molti fondatori e CEO delle Big Tech usano questa ipotesi per creare clamore attorno ai loro modelli linguistici di grandi dimensioni (LLM). I chatbot hanno davvero il potere di far estinguere l’umanità? No. Ma li fa sembrare impressionanti e, cosa più importante, nasconde il vero problema dell’allineamento dell’IA che ci sta danneggiando proprio ora: gli LLM delle Big Tech stanno invadendo la nostra privacy, rubando i nostri dati e svalutando la nostra economia dell’informazione. È sia una strategia di vendita che un depistaggio, progettato per farci guardare al futuro invece che al controllo che stiamo cedendo nel presente.

Siamo sulla strada per un futuro distopico?

Quando i fondatori fanno dichiarazioni ampie e speculative su ciò che i loro prodotti “potrebbero” fare, questo è principalmente un metodo per creare opportunità di business e creare valore per i loro azionisti. LLM e IA generativa sono prodotti commerciali. È nell’interesse dei loro proprietari che tu creda che il loro strumento sia rivoluzionario.

I media sono desiderosi di spingere storie sensazionali, come il potenziale degli strumenti di IA per aiutare gli utenti a creare armi biologiche(nuova finestra) o mentire agli sviluppatori(nuova finestra), come se l’IA generativa avesse una mente propria (non ce l’ha). È facile ottenere clic con titoli su opinioni estreme o infondate, ma tali opinioni non sono un ritratto accurato della tecnologia di IA che esiste oggi.

Invece, gli LLM sono semplicemente macchine di previsione delle parole. Sono programmi per computer che digeriscono enormi quantità di testo, “imparando” schemi del linguaggio umano, e poi costruiscono risposte probabilistiche agli input degli utenti. Non hanno pensieri propri e non capiscono nemmeno il linguaggio. Infatti, devono prima convertire le parole in numeri prima di poter elaborare le informazioni. I limiti degli LLM sono stati ben documentati da Gary Marcus(nuova finestra) e molti altri ricercatori.

Nuovi strumenti per il capitalismo di sorveglianza

Gli LLM non causeranno l’apocalisse, ma sono piuttosto bravi in qualcos’altro: raccogliere informazioni estremamente dettagliate su di te. Ecco perché gli LLM sono una miniera d’oro di dati per le aziende e un bersaglio attraente per i criminali.

Gli LLM alimentano chatbot come ChatGPT, Copilot, Claude e Grok, che funzionano come motori di ricerca. Apparentemente, puoi usare questi chatbot per tutto ciò che vuoi: possono aiutarti a creare liste della spesa, organizzare il tuo calendario, scrivere email o scrivere codice. Sono il tuo assistente personale, il tuo insegnante, il tuo confidente o qualsiasi altra cosa tu chieda loro di essere.

Centinaia di milioni di persone in tutto il mondo stanno già condividendo le loro domande, idee, pensieri e segreti più profondi con i chatbot. Sono incoraggiati a farlo dalle aziende che li gestiscono: Sam Altman, CEO di Open AI, ha notato recentemente(nuova finestra) che la Generazione Z “non prende davvero decisioni di vita senza chiedere a ChatGPT cosa dovrebbe fare”. Evidenziare e incoraggiare questo livello di fiducia e dipendenza da un chatbot a scopo di lucro e inaffidabile è profondamente irresponsabile. Le Big Tech vogliono che mediamo le nostre vite e i nostri pensieri attraverso i loro servizi perché così hanno voce in capitolo su come spendiamo i nostri soldi, cosa facciamo e cosa pensiamo.

Le aziende dietro gli LLM vendono anche i loro prodotti come soluzioni di produttività per governi e aziende, promettendo di risparmiare tempo e fatica per i loro utenti mentre introducono nuove opportunità per sorvegliarti. Nel Regno Unito, il sistema di IA del Ministero della Giustizia “prevede” il rischio di recidiva(nuova finestra) dei prigionieri. Gli agenti di polizia stanno usando chatbot(nuova finestra) per scrivere rapporti sui crimini. Combinare poteri statali con algoritmi distorti(nuova finestra) è pericoloso e rafforza i pregiudizi esistenti.

Sfruttare i tuoi dati per scopi di addestramento

Gli LLM funzionano su modelli di IA addestrati da enormi set di dati e per migliorare i loro servizi richiedono sempre più dati. Purtroppo, questi dati provengono da te: le tue chat, le tue foto, le tue ricerche sul web. Le aziende non chiederanno sempre il tuo permesso né chiariranno cosa stanno raccogliendo da te.

Ad esempio, Meta AI vuole scansionare (nuova finestra)foto(nuova finestra) nella tua libreria che non hai nemmeno caricato sulle sue piattaforme per analizzare i tuoi dati facciali. Molti utenti sono rimasti turbati dall’annuncio che Copilot AI di Microsoft(nuova finestra) avrebbe fatto screenshot dei loro dispositivi ogni pochi minuti. Le tue foto, i tuoi messaggi ai tuoi amici e ai tuoi cari e i tuoi pensieri più personali sono punti dati preziosi che le aziende vogliono.

Guardando la privacy policy(nuova finestra) di Open AI, vediamo che ChatGPT troverà e memorizzerà:

  • Identificatori, come il tuo nome, dettagli di contatto, indirizzo IP e altri identificatori del dispositivo
  • Informazioni commerciali, come la tua cronologia delle transazioni
  • Informazioni sull’attività di rete, come i contenuti e il modo in cui interagisci con ChatGPT
  • La posizione generale da cui accedi a ChatGPT

Queste informazioni possono essere divulgate a governi, fornitori, affiliati, fornitori di servizi e altre terze parti.

Essenzialmente, un LLM arriva a conoscerti. Proprio come un motore di ricerca, arriva a capire le tue abitudini, le tue preferenze, i tuoi interessi e ogni aspetto di te che può dedurre dal tuo comportamento. Le Big Tech daranno sempre priorità alla ricerca di nuovi modi per acquisire i tuoi dati personali perché è redditizio. E sperano che tu non te ne accorga.

Pensa solo alle tendenze che hanno spazzato i social media negli ultimi anni: animazioni in stile Studio Ghibli(nuova finestra) personalizzate hanno imitato lo stile distintivo di Hayao Miyazaki contro la sua volontà e bambole confezionate AI personalizzate(nuova finestra) ispirate a giocattoli classici come Barbie hanno creato intuizioni visive sui gusti personali delle persone. Questa tendenza dei social media potrebbe essere sembrata un divertimento innocuo, ma gli strumenti di IA utilizzati per creare queste immagini sono stati in grado di raccogliere foto e informazioni sulle persone che le loro società madri sono in grado di utilizzare per scopi pubblicitari e potenzialmente vendere a terze parti. Questi sono solo due dei tanti esempi di Big Tech che ingeriscono silenziosamente i tuoi dati personali in cambio della partecipazione a una tendenza passeggera.

C’è una soluzione migliore per gli LLM

Dopo aver letto di tutti questi rischi, potresti pensare che gli LLM siano intrinsecamente pericolosi. Ma non è affatto così. Le aziende Big Tech hanno costruito i loro sistemi di IA per essere invasivi e avidi di dati di proposito. È possibile costruire un’IA che protegga la privacy delle persone e mantenga i dati sicuri di default. Lo sappiamo perché l’abbiamo fatto con Lumo, il nostro assistente IA(nuova finestra) privacy-first.

Ecco come Lumo risolve il vero problema dell’allineamento dell’IA:

  • Lumo non conserva log delle tue conversazioni. Ogni chat viene eliminata dai nostri server non appena il modello ha finito di elaborare la tua query e la risposta.
  • Le cronologie delle chat sono archiviate con crittografia zero-access. Bloccando i tuoi dati con la tua chiave segreta, Proton non ha mai accesso e quindi non può mai condividere o far trapelare accidentalmente i tuoi dati.
  • Non addestriamo i modelli con le tue chat. Usare le conversazioni per addestrare i modelli di IA mette i tuoi dati a rischio di riapparire in output futuri. Le conversazioni con Lumo sono solo tue.
  • Lumo è open source e utilizza solo modelli open source. Poiché la nostra codebase è pubblica, chiunque può verificare che le nostre app facciano esattamente ciò che affermiamo.
  • Abbiamo sede in una giurisdizione che rispetta la privacy. A differenza delle IA delle Big Tech con sede negli USA che sono soggette a leggi di sorveglianza invasive, Lumo ha sede in Europa ed è protetta da forti leggi sulla privacy.

A ogni livello, Lumo è progettata per fornire la stessa utilità di altri LLM senza le esternalità rischiose. Le Big Tech potrebbero costruire le loro IA allo stesso modo. Scelgono semplicemente di non farlo perché i tuoi dati sono la loro valuta.

L’allineamento dell’IA è davvero una minaccia?

La verità è semplicemente meno eccitante di quanto i CEO delle Big Tech vorrebbero farci credere. Sembra meno probabile che un’IA permetta alle persone di creare armi biologiche o consumi tutte le nostre risorse globali producendo graffette piuttosto che segua semplicemente le direttive che le Big Tech seguono già: rubare e sfruttare dati privati.

Non credere al clamore sull’allineamento dell’IA. Non è la minaccia su cui nessuno di noi dovrebbe concentrarsi. Sorveglianza, sfruttamento di individui e piccole imprese e un ecosistema informativo compromesso sono le preoccupazioni pressanti a cui dovremmo effettivamente prestare attenzione quando si tratta di IA.