AI-“alignment-problemet” postulerer, at efterhånden som AI-systemer bliver mere intelligente, vil det blive sværere at tilpasse deres mål til deres udvikleres. Et AI-system kunne i teorien “gå amok” og udtænke uønskede og uforudsigelige strategier for at nå et mål.

Papirclips-maksimereren(nyt vindue) er et tankeeksperiment, der udforsker dette koncept: Hvis en superintelligent AI fik til opgave med det ene formål at skabe papirclips, kunne den beslaglægge verdens ressourcer for at nå sit mål for enhver pris og omdanne alt til papirclips. Til sidst kunne den endda indse, at mennesker, der forsøger at stoppe AI’en, var en distraktion, og eliminere os: Klart en uoverensstemmelse mellem AI og menneskelige interesser.

Selvom det åbenlyst er besynderligt, er papirclipsproblemet blevet et popkulturelt referencepunkt for AI. I det virkelige liv forhindrer begrænsninger og regler systemer i at gå ud over deres tilsigtede formål. Men mange Big Tech-stiftere og administrerende direktører bruger dette hypotetiske eksempel til at skabe hype omkring deres store sprogmodeller (LLM’er). Har chatbots virkelig magten til at udrydde menneskeheden? Nej. Men det får dem til at lyde imponerende, og endnu vigtigere, skjuler det det virkelige AI-alignment-problem, der skader os lige nu: Big Tech LLM’er invaderer vores privatliv, stjæler vores data og devaluerer vores informationsøkonomi. Det er både en salgsstrategi og en afledningsmanøvre, designet til at få os til at kigge ind i fremtiden i stedet for at se på den kontrol, vi afgiver i nutiden.

Er vi på vej mod en dystopisk fremtid?

Når stiftere kommer med brede, spekulative udtalelser om, hvad deres produkter “kunne” gøre, er dette primært en metode til at skabe forretningsmuligheder og skabe værdi for deres aktionærer. LLM’er og generativ AI er forretningsprodukter. Det er i deres ejeres interesse, at du tror, deres værktøj er revolutionerende.

Medier er ivrige efter at fremme sensationelle historier, såsom potentialet for AI-værktøjer til at hjælpe brugere med at skabe biovåben(nyt vindue) eller lyve over for udviklere(nyt vindue), som om den generative AI har sit eget sind (det har den ikke). Det er nemt at få klik med overskrifter om ekstreme eller udokumenterede meninger, men sådanne synspunkter er ikke et præcist billede af den AI-teknologi, der eksisterer i dag.

I stedet er LLM’er simpelthen ordforudsigelsesmaskiner. De er computerprogrammer, der fordøjer massive mængder tekst, “lærer” mønstre i det menneskelige sprog, og derefter bygger probabilistiske svar på brugerinput. De har ikke deres egne tanker, og de forstår ikke engang sprog. Faktisk skal de først konvertere ord til tal, før de kan behandle information. Begrænsningerne ved LLM’er er veldokumenterede af Gary Marcus(nyt vindue) og mange andre forskere.

Nye værktøjer til overvågningskapitalisme

LLM’er vil ikke forårsage apokalypsen, men de er ret gode til noget andet: At indsamle ekstremt nuancerede oplysninger om dig. Derfor er LLM’er en dataguldmine for virksomheder og et attraktivt mål for kriminelle.

LLM’er driver chatbots som ChatGPT, Copilot, Claude og Grok, som fungerer som søgemaskiner. Tilsyneladende kan du bruge disse chatbots til hvad som helst: De kan hjælpe dig med at oprette indkøbslister, organisere din kalender, skrive e-mails eller skrive kode. De er din personlige assistent, din lærer, din fortrolige, eller hvad du end beder dem om at være.

Hundreder af millioner af mennesker globalt deler allerede deres spørgsmål, ideer, tanker og dybeste hemmeligheder med chatbots. De opfordres til at gøre det af de virksomheder, der driver dem: Sam Altman, administrerende direktør for Open AI, bemærkede for nylig(nyt vindue), at Gen Z “ikke rigtig træffer livsbeslutninger uden at spørge ChatGPT, hvad de skal gøre.” At fremhæve og opmuntre til dette niveau af tillid og afhængighed af en kommerciel og upålidelig chatbot er dybt uansvarligt. Big Tech vil have os til at formidle vores liv og tanker gennem deres tjenester, fordi de så får indflydelse på, hvordan vi bruger vores penge, hvad vi gør, og hvad vi tænker.

Virksomhederne bag LLM’er sælger også deres produkter som produktivitetsløsninger til regeringer og virksomheder, der lover at spare tid og kræfter for deres brugere, samtidig med at de introducerer nye muligheder for, at du kan blive overvåget. I Storbritannien “forudsiger” justitsministeriets AI-system risikoen for tilbagefald(nyt vindue) hos fanger. Politibetjente bruger chatbots(nyt vindue) til at skrive kriminalrapporter. At kombinere statslige beføjelser med partiske algoritmer(nyt vindue) er farligt og forstærker eksisterende fordomme.

Udnyttelse af dine data til træningsformål

LLM’er kører på AI-modeller trænet af enorme datasæt, og for at forbedre deres tjenester har de brug for flere og flere data. Desværre kommer disse data fra dig: Dine chats, dine fotos, dine websøgninger. Virksomheder vil ikke altid bede om din tilladelse eller gøre det klart, hvad de indsamler fra dig.

For eksempel vil Meta AI scanne (nyt vindue)fotos(nyt vindue) i dit bibliotek, som du ikke engang har uploadet til deres platforme, for at analysere dine ansigtsdata. Mange brugere var foruroligede over meddelelsen om, at Microsofts Copilot AI(nyt vindue) ville tage skærmbilleder af deres enheder med få minutters mellemrum. Dine fotos, dine beskeder til venner og kære, og dine mest personlige tanker er værdifulde datapunkter, som virksomhederne vil have.

Når vi kigger på Open AIs privatlivspolitik(nyt vindue), ser vi, at ChatGPT vil finde og gemme:

  • Identifikatorer, såsom dit navn, kontaktoplysninger, IP-adresse og andre enhedsidentifikatorer
  • Kommercielle oplysninger, såsom din transaktionshistorik
  • Oplysninger om netværksaktivitet, såsom indhold og hvordan du interagerer med ChatGPT
  • Den generelle placering, hvorfra du tilgår ChatGPT

Disse oplysninger kan videregives til regeringer, leverandører, tilknyttede selskaber, tjenesteudbydere og andre tredjeparter.

I bund og grund lærer en LLM dig at kende. Ligesom en søgemaskine kommer den til at forstå dine vaner, dine præferencer, dine interesser og ethvert aspekt af dig, som den kan udlede af din adfærd. Big Tech vil altid prioritere at finde nye måder at erhverve dine personlige data på, fordi det er rentabelt. Og de håber, du ikke opdager det.

Tænk bare på de trends, der har fejet hen over sociale medier i de seneste år: Brugerdefinerede Studio Ghibli-stil-animationer(nyt vindue) efterlignede Hayao Miyazakis karakteristiske stil mod hans vilje, og brugerdefinerede AI-pakkede dukker(nyt vindue) inspireret af klassisk legetøj såsom Barbie skabte visuel indsigt i folks personlige smag. Denne trend på sociale medier kan have føltes som harmløs sjov, men AI-værktøjerne, der blev brugt til at skabe disse billeder, var i stand til at høste fotos og oplysninger om mennesker, som deres moderselskaber kan bruge til reklameformål og potentielt sælge til tredjeparter. Disse er blot to af mange eksempler på, at Big Tech stille og roligt indtager dine personlige data til gengæld for deltagelse i en flygtig trend.

Der findes en bedre løsning for LLM’er

Efter at have læst om alle disse risici tænker du måske, at LLM’er i sagens natur er farlige. Men det er slet ikke tilfældet. Big Tech-virksomheder byggede deres AI-systemer til at være invasive og datasultne med vilje. Det er muligt at bygge AI, der beskytter folks privatliv og holder data sikre som standard. Vi ved det, fordi vi gjorde det med Lumo, vores privatlivs-første AI-assistent(nyt vindue).

Her er, hvordan Lumo løser det virkelige AI-alignment-problem:

  • Lumo gemmer ikke logfiler over dine samtaler. Hver chat slettes fra vores servere, så snart modellen er færdig med at behandle din forespørgsel og dit svar.
  • Chathistorikker gemmes med zero-access-kryptering. Ved at låse dine data med din hemmelige nøgle har Proton aldrig adgang og kan derfor aldrig dele eller ved et uheld lække dine data.
  • Vi træner ikke modellerne med dine chats. Brug af samtaler til at træne AI-modeller bringer dine data i fare for at dukke op igen i fremtidige outputs. Samtaler med Lumo er kun dine.
  • Lumo er open source og bruger kun open source-modeller. Da vores kodebase er offentlig, kan enhver verificere, at vores apps gør præcis, hvad vi hævder.
  • Vi er baseret i en jurisdiktion, der respekterer privatlivets fred. I modsætning til amerikansk-baserede Big Tech AI’er, der er underlagt invasive overvågningslove, er Lumo baseret i Europa og beskyttet af stærke privatlivslove.

På alle niveauer er Lumo designet til at give samme nytteværdi som andre LLM’er uden de risikable eksternaliteter. Big Tech kunne bygge deres AI’er på samme måde. De vælger bare at lade være, fordi dine data er deres valuta.

Er AI-alignment virkelig en trussel?

Sandheden er simpelthen mindre spændende, end Big Tech-cheferne gerne vil have os til at tro. Det virker mindre sandsynligt, at en AI vil give folk mulighed for at skabe biovåben eller opbruge alle vores globale ressourcer på at lave papirclips, end at den simpelthen vil følge de direktiver, som Big Tech allerede følger: At stjæle og udnytte private data.

Tro ikke på hypen om AI-alignment. Det er ikke den trussel, som nogen af os bør fokusere på. Overvågning, udnyttelse af individer og mindre virksomheder og et kompromitteret informationsøkosystem er de presserende bekymringer, vi faktisk burde være opmærksomme på, når det kommer til AI.