Het AI-“uitlijningsprobleem” stelt dat naarmate AI-systemen intelligenter worden, het moeilijker zal worden om hun doelen af te stemmen op die van hun ontwikkelaars. Een AI-systeem zou in theorie “op hol kunnen slaan” en ongewenste en onvoorspelbare strategieën kunnen bedenken om een doel te bereiken.

De paperclip-maximalisator(nieuw venster) is een gedachte-experiment dat dit concept verkent: Als een superintelligente AI de taak kreeg met als enig doel paperclips te maken, zou hij de middelen van de wereld kunnen opeisen om zijn doel koste wat het kost te bereiken en alles in paperclips veranderen. Uiteindelijk zou hij zich zelfs kunnen realiseren dat mensen, die proberen de AI te stoppen, een afleiding waren en ons elimineren: duidelijk een wanverhouding tussen AI- en menselijke belangen.

Hoewel duidelijk bizar, is het paperclip-probleem een popcultuur-referentiepunt geworden voor AI. In het echte leven voorkomen beperkingen en regels dat systemen verder gaan dan hun beoogde doelen. Maar veel oprichters en CEO’s van Big Tech gebruiken dit hypothetische scenario om buzz te creëren rond hun grote taalmodellen (LLM’s). Hebben chatbots echt de macht om de mensheid uit te roeien? Nee. Maar het laat ze indrukwekkend klinken en, belangrijker nog, het verhult het echte AI-uitlijningsprobleem dat ons nu schaadt: Big Tech-LLM’s dringen onze privacy binnen, stelen onze gegevens en devalueren onze informatie-economie. Het is zowel een verkoopstrategie als misleiding, ontworpen om ons naar de toekomst te laten kijken in plaats van naar de controle die we in het heden afstaan.

Zijn we op weg naar een dystopische toekomst?

Wanneer oprichters brede, speculatieve uitspraken doen over wat hun producten “zouden kunnen” doen, is dit voornamelijk een methode om zakelijke kansen te creëren en waarde te creëren voor hun aandeelhouders. LLM’s en generatieve AI zijn zakelijke producten. Het is in het belang van hun eigenaren dat u gelooft dat hun tool revolutionair is.

Media zijn erop gebrand sensationele verhalen te promoten, zoals het potentieel voor AI-tools om gebruikers te helpen biowapens te creëren(nieuw venster) of te liegen tegen ontwikkelaars(nieuw venster), alsof de gen-AI een eigen wil heeft (dat heeft het niet). Het is gemakkelijk om klikken te krijgen met koppen over extreme of ongegronde meningen, maar dergelijke opvattingen zijn geen nauwkeurige weergave van de AI-technologie die vandaag bestaat.

In plaats daarvan zijn LLM’s simpelweg woordvoorspellingsmachines. Het zijn computerprogramma’s die enorme hoeveelheden tekst verwerken, patronen van menselijke taal “leren” en vervolgens probabilistische reacties op gebruikersinvoer bouwen. Ze hebben geen eigen gedachten en ze begrijpen taal niet eens. In feite moeten ze woorden eerst omzetten in getallen voordat ze informatie kunnen verwerken. De beperkingen van LLM’s zijn goed gedocumenteerd door Gary Marcus(nieuw venster) en vele andere onderzoekers.

Nieuwe tools voor surveillancekapitalisme

LLM’s zullen de apocalyps niet veroorzaken, maar ze zijn heel goed in iets anders: het verzamelen van uiterst genuanceerde informatie over u. Daarom zijn LLM’s een goudmijn aan gegevens voor bedrijven en een aantrekkelijk doelwit voor criminelen.

LLM’s drijven chatbots aan zoals ChatGPT, Copilot, Claude en Grok, die functioneren als zoekmachines. Ogenschijnlijk kunt u deze chatbots gebruiken voor alles wat u maar wilt: ze kunnen u helpen boodschappenlijstjes te maken, uw agenda te organiseren, e-mails te schrijven of code te schrijven. Ze zijn uw persoonlijke assistent, uw leraar, uw vertrouweling of wat u ze ook vraagt te zijn.

Honderden miljoenen mensen wereldwijd delen al hun vragen, ideeën, gedachten en diepste geheimen met chatbots. Ze worden aangemoedigd dit te doen door de bedrijven die ze beheren: Sam Altman, CEO van Open AI, merkte onlangs op(nieuw venster) dat Gen Z “niet echt levensbeslissingen neemt zonder ChatGPT te vragen wat ze moeten doen.” Het oproepen tot en aanmoedigen van dit niveau van vertrouwen en afhankelijkheid van een op winst gerichte en onbetrouwbare chatbot is zeer onverantwoordelijk. Big Tech wil dat we ons leven en onze gedachten via hun diensten leiden, omdat ze dan inspraak krijgen in hoe we ons geld uitgeven, wat we doen en wat we denken.

De bedrijven achter LLM’s verkopen hun producten ook als productiviteitsoplossingen voor overheden en bedrijven, en beloven tijd en moeite te besparen voor hun gebruikers terwijl ze nieuwe mogelijkheden introduceren om u te surveilleren. In het VK “voorspelt” het AI-systeem van het ministerie van Justitie het risico op recidive(nieuw venster) van gevangenen. Politieagenten gebruiken chatbots(nieuw venster) om misdaadrapporten op te stellen. Het combineren van staatsbevoegdheden met bevooroordeelde algoritmen(nieuw venster) is gevaarlijk en versterkt bestaande vooroordelen.

Uw gegevens exploiteren voor trainingsdoeleinden

LLM’s draaien op AI-modellen die zijn getraind door enorme datasets, en om hun diensten te verbeteren hebben ze steeds meer gegevens nodig. Helaas komen deze gegevens van u: uw chats, uw foto’s, uw webzoekopdrachten. Bedrijven zullen niet altijd uw toestemming vragen of duidelijk maken wat ze van u verzamelen.

Meta AI wil bijvoorbeeld foto’s scannen (nieuw venster)(nieuw venster) in uw bibliotheek die u nog niet eens hebt geüpload naar zijn platforms om uw gezichtsgegevens te analyseren. Veel gebruikers waren verontrust door de aankondiging dat Microsoft’s Copilot AI(nieuw venster) om de paar minuten screenshots van hun apparaten zou maken. Uw foto’s, uw berichten aan uw vrienden en geliefde, en uw meest persoonlijke gedachten zijn waardevolle gegevenspunten die de bedrijven willen hebben.

Als we kijken naar het privacybeleid(nieuw venster) van Open AI, zien we dat ChatGPT het volgende zal vinden en opslaan:

  • Identificatoren, zoals uw naam, contactgegevens, IP-adres en andere apparaatidentificatoren
  • Commerciële informatie, zoals uw transactiegeschiedenis
  • Informatie over netwerkactiviteit, zoals inhoud en hoe u communiceert met ChatGPT
  • De algemene locatie van waaruit u toegang heeft tot ChatGPT

Deze informatie kan worden vrijgegeven aan overheden, verkopers, gelieerde ondernemingen, dienstverleners en andere derden.

In wezen leert een LLM u kennen. Net als een zoekmachine gaat het uw gewoonten, uw voorkeuren, uw interesses en elk aspect van u dat het uit uw gedrag kan afleiden, begrijpen. Big Tech zal altijd prioriteit geven aan het vinden van nieuwe manieren om uw persoonlijke gegevens te verwerven omdat het winstgevend is. En ze hopen dat u het niet merkt.

Denk maar aan de trends die de afgelopen jaren over sociale media zijn gegaan: aangepaste animaties in Studio Ghibli-stijl(nieuw venster) apen de kenmerkende stijl van Hayao Miyazaki tegen zijn wil na en aangepaste door AI verpakte poppen(nieuw venster) geïnspireerd op klassiek speelgoed zoals Barbie creëerden visuele inzichten in de persoonlijke smaak van mensen. Deze socialemediatrend voelde misschien als onschuldig plezier, maar de AI-tools die werden gebruikt om deze afbeeldingen te maken, konden foto’s en informatie over mensen oogsten die hun moederbedrijven kunnen gebruiken voor reclamedoeleinden en mogelijk verkopen aan derden. Dit zijn slechts twee van de vele voorbeelden van Big Tech dat stilletjes uw persoonlijke gegevens opneemt in ruil voor deelname aan een vluchtige trend.

Er is een betere oplossing voor LLM’s

Na het lezen over al deze risico’s, zou u kunnen denken dat LLM’s inherent gevaarlijk zijn. Maar dat is helemaal niet het geval. Big Tech-bedrijven hebben hun AI-systemen opzettelijk gebouwd om invasief en gegevenshongerig te zijn. Het is mogelijk om AI te bouwen die de privacy van mensen beschermt en gegevens standaard veilig houdt. We weten het omdat we het hebben gedaan met Lumo, onze privacy-first AI-assistent(nieuw venster).

Hier is hoe Lumo het echte AI-uitlijningsprobleem oplost:

  • Lumo houdt geen logboeken bij van uw gesprekken. Elke chat wordt van onze servers verwijderd zodra het model klaar is met het verwerken van uw vraag en antwoord.
  • Chatgeschiedenissen worden opgeslagen met zero-access versleuteling. Door uw gegevens te vergrendelen met uw geheime sleutel, heeft Proton nooit toegang en kan het uw gegevens dus nooit delen of per ongeluk lekken.
  • We trainen de modellen niet met uw chats. Het gebruik van gesprekken om AI-modellen te trainen brengt uw gegevens in gevaar om opnieuw op te duiken in toekomstige outputs. Gesprekken met Lumo zijn alleen van u.
  • Lumo is open source en gebruikt alleen open source-modellen. Omdat onze codebase openbaar is, kan iedereen verifiëren dat onze apps precies doen wat we beweren.
  • We zijn gevestigd in een rechtsgebied dat privacy respecteert. In tegenstelling tot in de VS gevestigde Big Tech-AI’s die onderworpen zijn aan invasieve surveillancewetten, is Lumo gevestigd in Europa en beschermd door sterke privacywetten.

Op elk niveau is Lumo ontworpen om hetzelfde nut te bieden als andere LLM’s zonder de risicovolle externaliteiten. Big Tech zou hun AI’s op dezelfde manier kunnen bouwen. Ze kiezen er gewoon voor om dat niet te doen omdat uw gegevens hun valuta zijn.

Is AI-uitlijning echt een bedreiging?

De waarheid is gewoon minder spannend dan de CEO’s van Big Tech ons willen doen geloven. Het lijkt minder waarschijnlijk dat een AI mensen in staat stelt biowapens te creëren of al onze wereldwijde middelen te verbruiken om paperclips te maken dan dat het simpelweg de richtlijnen volgt die Big Tech al volgt: Het stelen en exploiteren van privégegevens.

Geloof de hype over AI-uitlijning niet. Het is niet de bedreiging waar iemand van ons zich op zou moeten concentreren. Surveillance, uitbuiting van individuen en kleinere bedrijven en een gecompromitteerd informatie-ecosysteem zijn de dringende zorgen waar we eigenlijk aandacht aan zouden moeten besteden als het gaat om AI.