Le grandi aziende tecnologiche hanno costruito imperi da trilioni di dollari trasformando le nostre vite personali in merce. L’intelligenza artificiale sta potenziando il loro modello di business del capitalismo della sorveglianza integrandosi negli strumenti che usiamo ogni giorno, spesso senza darci spiegazioni chiare o la possibilità di rinunciare.
Potenti modelli linguistici di grandi dimensioni (LLM) raccolgono dati ancora più dettagliati e deducono più cose su di te di quanto fosse precedentemente immaginabile. L’IA viene integrata in una vasta gamma di piattaforme(nuova finestra), dalla ricerca all’archiviazione di foto e persino al sistema operativo del tuo dispositivo, rendendo più difficile tenere traccia di questa raccolta di dati, tanto meno acconsentirvi. Questo a sua volta consente ad aziende come Google, Meta e Microsoft di costruire profili personali più completi, trarre maggiore profitto dai dati ed esercitare un maggiore controllo sulle informazioni e le narrazioni che vedi.
Queste aziende possono condividere o vendere le tue informazioni private con data broker e altre terze parti. I governi possono attingere a questi dati tramite citazioni in giudizio(nuova finestra) o forme ancora più nascoste di sorveglianza. E i dati personali possono essere esposti in una violazione dei dati, come è successo più(nuova finestra) e più(nuova finestra) volte con servizi come ChatGPT.
Il risultato è una raccolta di dati rapida e su larga scala, con ancora meno controlli sulle aziende per ottenere il consenso o considerare le conseguenze della tecnologia. Le leggi sulla protezione dei dati che circondano l’IA sono notoriamente molto indietro rispetto al settore(nuova finestra).
Abbiamo urgente bisogno di un’alternativa privata, motivo per cui abbiamo costruito un nuovo assistente IA riservato, Lumo(nuova finestra), che non conserva alcun registro delle tue conversazioni. Le tue chat salvate sono disponibili solo per te, protette dalla crittografia zero-access. Quando si tratta dei tuoi dati, hai una scelta — ma più persone devono comprendere i rischi dello status quo.
L’IA rende le Big Tech ancora più potenti
L’IA consente a Google e Meta di scalare e consolidare i loro monopoli esistenti, specialmente nella pubblicità e nello sfruttamento dei dati personali, ma su una scala molto più rapida e ampia.
Meta, ad esempio, sta integrando profondamente l’IA per rivitalizzare il suo business pubblicitario, scansionando i tuoi post e persino aggiungendo Meta AI(nuova finestra) ai suoi prodotti di chat crittografati end-to-end come WhatsApp in un apparente tentativo di sottrarre più dati personali dalla piattaforma. Google è passata all’IA-first con il suo business pubblicitario(nuova finestra), quindi ogni annuncio è ottimizzato per manipolarti personalmente. E Gemini di Google è ora profondamente integrato nel suo intero ecosistema, dando alla sua IA libero accesso per raccogliere dati dai telefoni Android e dalle app di Google.
L’IA è simile alla ricerca, ma molto più intima e profondamente radicata nella tua vita. Mentre il tracciamento della ricerca utilizza semplici query e clic per prevedere i tuoi interessi, l’IA utilizza l’elaborazione del linguaggio naturale e persino il riconoscimento delle immagini per prevedere i marchi, i messaggi, le emozioni e le immagini che risuoneranno più profondamente con te. Alcune persone stanno persino diventando emotivamente coinvolte(nuova finestra) nei chatbot IA a causa di quanto strettamente possono imitare la connessione umana — qualcosa che non è mai successo con i motori di ricerca.
Un’agenzia pubblicitaria vanta(nuova finestra) che la pubblicità basata sull’IA è un “cambiamento sismico” che dà ai clienti il potere di “valutare il sentiment e le preferenze” e persino “elaborare dati visivi, come immagini e video, per identificare loghi di marchi e utilizzo dei prodotti, consentendo un targeting pubblicitario specifico per il contesto”. Immagina se i prodotti di bellezza potessero prendere di mira tuo figlio nel momento in cui esprime ansie a un amico, o se i politici potessero distribuire annunci ottimizzati dall’IA per sfruttare le paure private degli elettori.
Le Big Tech sono già più potenti dei governi — immagina cosa potrebbero realizzare con un’IA sfrenata.
Le tue chat stanno trapelando
La tua privacy è a rischio, ma lo è anche la tua sicurezza. L’IA crea un enorme pool centralizzato di informazioni intime che è sempre più vulnerabile all’esposizione in vari modi.
È già successo:
- Nel luglio 2025, i giornalisti hanno scoperto che oltre 100.000 conversazioni in ChatGPT(nuova finestra) sono state indicizzate da Google e rese ricercabili. Gli utenti che cliccavano sul pulsante “condividi” per inviare una conversazione ad amici o colleghi quasi certamente non si rendevano conto che le loro conversazioni private sarebbero state visibili a tutti su internet.
- Nel 2024, i ricercatori hanno utilizzato un prompt injection in Slack AI(nuova finestra) per rivelare contenuti condivisi nei canali privati.
- Nel 2023, un diverso team di ricercatori ha estratto credenziali software reali(nuova finestra) (note come “segreti”) dall’assistente IA Copilot di GitHub, che è addestrato su miliardi di righe di codice. Parte di quel codice di addestramento includeva credenziali e i ricercatori hanno convinto l’IA a sputarne fuori oltre 200.
- Nel gennaio 2025, dopo lo sfarzoso lancio della startup di IA DeepSeek, un team di ricerca ha trovato un database pubblico(nuova finestra) che includeva un enorme volume di log di chat, segreti e altri dati sensibili.
- Nell’agosto 2025, i contraenti che lavoravano per Meta AI hanno affermato di leggere conversazioni personali(nuova finestra) in cui le persone condividevano dati sensibili con il chatbot.
Ogni volta che i dati personali vengono archiviati senza crittografia end-to-end o zero-access sui server di un’azienda, tali dati sono vulnerabili alle perdite. I log delle chat sono un obiettivo incredibilmente attraente per gli hacker — e per i governi. Un tribunale statunitense ha già ordinato a OpenAI di conservare tutti i log delle chat degli utenti(nuova finestra) (cosa che l’azienda sta attualmente combattendo). Tali dati sarebbero quindi disponibili per il governo su richiesta. Gli Stati Uniti hanno già una varietà di metodi per spiare segretamente gli utenti, dalle intercettazioni senza mandato alle richieste di dati a cui le aziende Big Tech sono tenute a obbedire.
Più dati assorbono i sistemi di IA, più rischiano di rivelare, sia attraverso perdite accidentali, output distorti o pressioni governative.
Non sono solo dati – è influenza
Probabilmente è ovvio: le aziende e gli agenti politici che ti prendono di mira con annunci non stanno cercando i tuoi migliori interessi.
L’IA porta quella manipolazione a un livello completamente nuovo. A differenza dei mass media, che puoi scegliere di ignorare, l’IA è intrecciata con la tua vita quotidiana — rispondendo alle tue domande e offrendo suggerimenti in-app che non volevi nemmeno. Non è solo reattiva; è proattiva. E quando è costruita da aziende o sfruttata da governi con agende specifiche, ciò la rende incredibilmente potente e pericolosa.
Stiamo già vedendo come appare. In Cina, è stato dimostrato che DeepSeek evita o cancella argomenti politicamente sensibili. Chiedi delle proteste di Piazza Tienanmen e sbatterai contro un muro(nuova finestra) — non perché l’IA non lo sappia, ma perché la sua giurisdizione significa che non le è permesso dirtelo.
Questo non è un problema esclusivo della Cina. Il chatbot Grok di Elon Musk ha sollevato dubbi per aver preso posizioni politiche chiare(nuova finestra) e aver offerto output estremamente diversi a seconda di come era impostato il suo “quadrante” interno. È stato anche scoperto che consulta le opinioni dello stesso Musk(nuova finestra) su un argomento prima di condividere la sua risposta. Questo mostra come la guida dell’IA possa essere modellata per spingere determinate opinioni, sottilmente o meno, il che diventerà sempre più problematico man mano che ci affidiamo maggiormente all’IA per l’istruzione e l’informazione senza controllare le fonti primarie.
Quindi, se l’IA sta modellando ciò che vedi, ciò che pensi e come ti senti, chi decide quale versione della verità ottieni?
IA costruita per le persone, non per il profitto
Se vogliamo un’IA che non sia modellata dalle Big Tech o dalla politica autoritaria e che protegga i tuoi dati da hacker e perdite, dobbiamo costruire qualcosa di diverso. Ciò significa supportare strumenti IA privati e indipendenti senza secondi fini o agende nascoste.
Lumo è un passo in quella direzione. È costruito in Europa, senza investimenti della Silicon Valley o sorveglianza straniera, e supervisionato dalla Proton Foundation senza scopo di lucro, che è tenuta dal suo statuto a promuovere la privacy della nostra community. Da quando la nostra azienda è stata fondata da scienziati che si sono incontrati al CERN nel 2014, siamo stati finanziati esclusivamente dai nostri utenti, non da investitori o inserzionisti. Ciò garantisce che i nostri valori e la nostra missione rimangano allineati con le persone che serviamo.
Abbiamo progettato Lumo per essere privato per impostazione predefinita, il che significa che non conserva log delle chat e le tue chat sono archiviate con crittografia zero-access, quindi solo tu puoi vederle. Lumo è anche costruito su modelli open source e i tuoi dati non vengono mai utilizzati per addestrare l’IA.
Lumo è solo l’inizio. Se vogliamo un futuro in cui l’IA serva le persone — non il profitto, non il potere — dobbiamo richiederlo. Scegliendo alternative private oggi, aiuti a plasmare un internet più trasparente, più democratico e più rispettoso dei tuoi diritti. Gli strumenti sono qui. La scelta è tua.



