AI-problemet med ”anpassning” (alignment) postulerar att när AI-system blir mer intelligenta kommer det att bli svårare att anpassa deras mål med utvecklarnas. Ett AI-system skulle, i teorin, kunna ”löpa amok”, och utarbeta oönskade och oförutsägbara strategier för att uppnå ett mål.
Gem-maximeraren(nytt fönster) (paperclip maximizer) är ett tankeexperiment som utforskar detta koncept: Om en superintelligent AI fick i uppgift med det enda syftet att skapa gem, skulle den kunna ta över världens resurser för att uppnå sitt mål till varje pris, och förvandla allt till gem. Så småningom skulle den kanske till och med inse att människor, som försöker stoppa AI:n, var en distraktion och eliminera oss: tydligt en feljustering mellan AI och mänskliga intressen.
Även om det uppenbarligen är bisarrt, har gem-problemet blivit en popkulturell referenspunkt för AI. I verkligheten hindrar begränsningar och regler system från att gå utöver sina avsedda syften. Men många Big Tech-grundare och VD:ar använder detta hypotetiska scenario för att skapa buzz kring sina stora språkmodeller (LLM:er). Har chattbotar verkligen makten att utrota mänskligheten? Nej. Men det får dem att låta imponerande och, ännu viktigare, det döljer det verkliga problemet med AI-anpassning som skadar oss just nu: Big Tech-LLM:er invaderar vår integritet, stjäl vår data och devalverar vår informationsekonomi. Det är både en säljstrategi och vilseledning, utformad för att hålla oss blickande in i framtiden istället för att titta på den kontroll vi avstår i nutiden.
Är vi på väg mot en dystopisk framtid?
När grundare gör breda, spekulativa uttalanden om vad deras produkter ”skulle kunna” göra, är detta främst en metod för att skapa affärsmöjligheter och skapa värde för sina aktieägare. LLM:er och generativ AI är affärsprodukter. Det ligger i deras ägares intresse att du tror att deras verktyg är revolutionerande.
Medier är angelägna om att driva sensationella historier, såsom potentialen för AI-verktyg att hjälpa användare skapa biovapen(nytt fönster) eller ljuga för utvecklare(nytt fönster), som om gen-AI har ett eget sinne (det har den inte). Det är lätt att få klick med rubriker om extrema eller ogrundade åsikter, men sådana åsikter är inte en korrekt bild av den AI-teknik som finns idag.
Istället är LLM:er helt enkelt ordprognosmaskiner. De är datorprogram som smälter enorma mängder text, ”lär sig” mönster i mänskligt språk, och sedan bygger sannolikhetsbaserade svar på användarinsatser. De har inte egna tankar, och de förstår inte ens språk. Faktum är att de först måste konvertera ord till siffror innan de kan bearbeta information. Begränsningarna hos LLM:er har dokumenterats väl av Gary Marcus(nytt fönster) och många andra forskare.
Nya verktyg för övervakningskapitalism
LLM:er kommer inte att orsaka apokalypsen, men de är ganska bra på något annat: att samla in extremt nyanserad information om dig. Det är därför LLM:er är en dataguldgruva för företag och ett attraktivt mål för kriminella.
LLM:er driver chattbotar som ChatGPT, Copilot, Claude och Grok, som fungerar som sökmotorer. Skenbart kan du använda dessa chattbotar till vad du vill: De kan hjälpa dig att skapa inköpslistor, organisera din kalender, skriva e-post eller skriva kod. De är din personliga assistent, din lärare, din förtrogna eller vad du än ber dem vara.
Hundratals miljoner människor globalt delar redan sina frågor, idéer, tankar och djupaste hemligheter med chattbotar. De uppmuntras att göra det av företagen som driver dem: Sam Altman, VD för Open AI, noterade nyligen(nytt fönster) att Gen Z ”egentligen inte fattar livsbeslut utan att fråga ChatGPT vad de ska göra”. Att lyfta fram och uppmuntra denna nivå av tillit och beroende av en vinstdrivande och otillförlitlig chattbot är djupt oansvarigt. Big Tech vill att vi medlar våra liv och tankar genom deras tjänster eftersom de då får något att säga till om hur vi spenderar våra pengar, vad vi gör och vad vi tänker.
Företagen bakom LLM:er säljer också sina produkter som produktivitetslösningar för regeringar och företag, och lovar att spara tid och ansträngning för sina användare samtidigt som de introducerar nya möjligheter för dig att övervakas. I Storbritannien ”förutsäger” justitieministeriets AI-system återfallsrisken(nytt fönster) hos fångar. Poliser använder chattbotar(nytt fönster) för att skriva brottsrapporter. Att kombinera statliga befogenheter med partiska algoritmer(nytt fönster) är farligt och förstärker befintliga fördomar.
Utnyttjar din data för träningsändamål
LLM:er körs på AI-modeller tränade av enorma dataset, och för att förbättra sina tjänster kräver de mer och mer data. Tyvärr kommer denna data från dig: dina chattar, dina foton, dina webbsökningar. Företag kommer inte alltid att be om ditt tillstånd eller göra det tydligt vad de samlar in från dig.
Till exempel vill Meta AI skanna (nytt fönster)foton(nytt fönster) i ditt bibliotek som du inte ens har laddat upp till deras plattformar för att analysera din ansiktsdata. Många användare blev störda av tillkännagivandet att Microsofts Copilot AI(nytt fönster) skulle ta skärmdumpar av deras enheter varannan minut. Dina foton, dina meddelanden till dina vänner och nära och kära, och dina mest personliga tankar är värdefulla datapunkter som företagen vill ha.
När vi tittar på Open AI:s integritetspolicy(nytt fönster) ser vi att ChatGPT kommer att hitta och lagra:
- Identifierare, såsom ditt namn, kontaktuppgifter, IP-adress och andra enhetsidentifierare
- Kommersiell information, såsom din transaktionshistorik
- Information om nätverksaktivitet, såsom innehåll och hur du interagerar med ChatGPT
- Den allmänna platsen från vilken du får åtkomst till ChatGPT
Denna information kan lämnas ut till regeringar, leverantörer, dotterbolag, tjänsteleverantörer och andra tredje parter.
I huvudsak lär en LLM känna dig. Precis som en sökmotor börjar den förstå dina vanor, dina preferenser, dina intressen och varje aspekt av dig som den kan utläsa från ditt beteende. Big Tech kommer alltid att prioritera att hitta nya sätt att förvärva dina personuppgifter eftersom det är lönsamt. Och de hoppas att du inte ska märka det.
Tänk bara på de trender som har svept över sociala medier de senaste åren: anpassade animationer i Studio Ghibli-stil(nytt fönster) efterliknade Hayao Miyazakis distinkta stil mot hans vilja och anpassade AI-förpackade dockor(nytt fönster) inspirerade av klassiska leksaker som Barbie skapade visuella insikter i människors personliga smak. Denna trend på sociala medier kan ha känts som harmlöst kul, men AI-verktygen som användes för att skapa dessa bilder kunde skörda foton och information om människor som deras moderbolag kan använda för reklamändamål och potentiellt sälja till tredje parter. Dessa är bara två av många exempel på att Big Tech tyst suger i sig dina personuppgifter i utbyte mot deltagande i en flyktig trend.
Det finns en bättre lösning för LLM:er
Efter att ha läst om alla dessa risker kanske du tror att LLM:er är i sig farliga. Men så är inte fallet alls. Big Tech-företag byggde sina AI-system för att vara invasiva och datahungriga med flit. Det är möjligt att bygga AI som skyddar människors integritet och håller data säker som standard. Vi vet eftersom vi gjorde det med Lumo, vår integritetsfokuserade AI-assistent(nytt fönster).
Här är hur Lumo löser det verkliga problemet med AI-anpassning:
- Lumo sparar inga loggar över dina konversationer. Varje chatt raderas från våra servrar så snart modellen är klar med att bearbeta din fråga och ditt svar.
- Chatthistorik lagras med nollåtkomstkryptering (zero-access encryption). Genom att låsa din data med din hemliga nyckel har Proton aldrig åtkomst och kan därför aldrig dela eller oavsiktligt läcka din data.
- Vi tränar inte modellerna med dina chattar. Att använda konversationer för att träna AI-modeller utsätter din data för risken att återuppstå i framtida utdata. Konversationer med Lumo är enbart dina.
- Lumo är öppen källkod och använder endast modeller med öppen källkod. Eftersom vår kodbas är offentlig kan vem som helst verifiera att våra appar gör exakt vad vi påstår.
- Vi är baserade i en jurisdiktion som respekterar integritet. Till skillnad från USA-baserade Big Tech-AI:er som är föremål för invasiva övervakningslagar, är Lumo baserat i Europa och skyddat av starka integritetslagar.
På varje nivå är Lumo utformat för att ge samma nytta som andra LLM:er utan de riskfyllda externaliteterna. Big Tech skulle kunna bygga sina AI:er på samma sätt. De väljer bara att inte göra det eftersom din data är deras valuta.
Är AI-anpassning verkligen ett hot?
Sanningen är helt enkelt mindre spännande än vad Big Tech-VD:ar skulle vilja att vi tror. Det verkar mindre sannolikt att en AI kommer att ge människor makt att skapa biovapen eller förbruka alla våra globala resurser för att göra gem än att den helt enkelt kommer att följa de direktiv som Big Tech redan följer: Att stjäla och utnyttja privat data.
Tro inte på hypen om AI-anpassning. Det är inte det hot som någon av oss borde fokusera på. Övervakning, exploatering av individer och mindre företag, och ett komprometterat informationsekosystem är de angelägna bekymmer vi faktiskt borde uppmärksamma när det gäller AI.






