AIs «justeringsproblem» antar at etter hvert som AI-systemer blir mer intelligente, vil det bli vanskeligere å samkjøre deres mål med utviklernes. Et AI-system kan i teorien «løpe løpsk», og utarbeide uønskede og uforutsigbare strategier for å oppnå et mål.
Bindersmaksimereren(nytt vindu) er et tankeeksperiment som utforsker dette konseptet: Hvis en superintelligent AI fikk i oppgave å ha det ene formål å lage binderser, kan den kanskje ta beslag i verdens ressurser for å oppnå målet for enhver pris, og gjøre alt om til binderser. Til slutt kan den til og med innse at mennesker som prøver å stoppe AI-en var en distraksjon og eliminere oss: tydelig en feiljustering mellom AI og menneskelige interesser.
Selv om bindersproblemet åpenbart er absurd, har det blitt et popkulturelt berøringspunkt for AI. I virkeligheten forhindrer begrensninger og regler systemer fra å gå utover sine tiltenkte formål. Men mange Big Tech-gründere og administrerende direktører bruker dette hypotetiske eksemplet til å skape blest rundt sine store språkmodeller (LLM-er). Har chatboter virkelig makt til å utrydde menneskeheten? Nei. Men det får dem til å høres imponerende ut og, enda viktigere, det skjuler det virkelige AI-justeringsproblemet som skader oss akkurat nå: Big Techs LLM-er invaderer vårt personvern, stjeler dataene våre og devaluerer informasjonsøkonomien vår. Det er både en salgsstrategi og en avledningsmanøver, designet for å få oss til å se inn i fremtiden i stedet for å se på kontrollen vi avgir i nåtiden.
Er vi på vei mot en dystopisk fremtid?
Når gründere kommer med brede, spekulative uttalelser om hva produktene deres «kunne» gjøre, er dette primært en metode for å skape forretningsmuligheter og skape verdi for aksjonærene sine. LLM-er og generativ AI er forretningsprodukter. Det er i eiernes interesse at du tror verktøyet deres er revolusjonerende.
Medier er ivrige etter å drive frem sensasjonelle historier, for eksempel potensialet for AI-verktøy til å hjelpe brukere med å lage biovåpen(nytt vindu) eller lyve til utviklere(nytt vindu), som om den generative AI-en har sitt eget sinn (det har den ikke). Det er lett å få klikk med overskrifter om ekstreme eller ubegrunnede meninger, men slike synspunkter er ikke en nøyaktig skildring av AI-teknologien som finnes i dag.
I stedet er LLM-er ganske enkelt ordprediksjonsmaskiner. De er datamaskin-programmer som fordøyer enorme mengder tekst, «lærer» mønstre av menneskelig språk, og deretter bygger sannsynlighetsbaserte responser på brukerens inndata. De har ikke egne tanker, og de forstår ikke en gang språk. Faktisk må de først konvertere ord til tall før de kan behandle informasjon. Begrensningene til LLM-er har blitt godt dokumentert av Gary Marcus(nytt vindu) og mange andre forskere.
Nye verktøy for overvåkingskapitalisme
LLM-er vil ikke forårsake apokalypsen, men de er ganske gode på noe annet: å samle ekstremt nyansert informasjon om deg. Det er derfor LLM-er er en datagullgruve for bedrifter og et attraktivt mål for kriminelle.
LLM-er driver chatboter som ChatGPT, Copilot, Claude og Grok, som fungerer som søkemotorer. Tilsynelatende kan du bruke disse chatbotene til hva du vil: De kan hjelpe deg med å lage handlelister, organisere kalenderen din, skrive e-poster eller skrive kode. De er din personlige assistent, din lærer, din fortrolige eller hva du ellers ber dem om å være.
Hundrevis av millioner mennesker globalt deler allerede spørsmålene, ideene, tankene og de dypeste hemmelighetene sine med chatboter. De oppfordres til å gjøre det av selskapene som driver dem: Sam Altman, administrerende direktør i Open AI, bemerket nylig(nytt vindu) at Gen Z «egentlig ikke tar livsbeslutninger uten å spørre ChatGPT hva de bør gjøre.» Å oppfordre til og fremme dette nivået av tillit og avhengighet av en profittdrevet og upålitelig chatbot er dypt uansvarlig. Big Tech vil at vi skal formidle livene våre og tankene våre gjennom tjenestene deres, for da får de en stemme i hvordan vi bruker pengene våre, hva vi gjør og hva vi tenker.
Virksomhetene bak LLM-er selger også produktene sine som produktivitetsløsninger for myndigheter og bedrifter, og lover å lagre tid og krefter for brukerne sine, samtidig som de introduserer nye muligheter for at du blir overvåket. I Storbritannia “forutsier” justisdepartementets AI-system risikoen for tilbakefall(nytt vindu) blant fanger. Politifolk bruker chatboter(nytt vindu) for å skrive kriminalitetsrapporter. Å kombinere statlige makter med forutinntatte algoritmer(nytt vindu) er farlig og forsterker eksisterende fordommer.
Utnyttelse av dataene dine til opplæringsformål
LLM-er kjører på AI-modeller trent av enorme datasett, og for å forbedre tjenestene sine krever de mer og mer data. Dessverre kommer disse dataene fra deg: chattene dine, bildene dine, søkene dine på nettet. Selskaper vil ikke alltid be om tillatelse fra deg eller gjøre det tydelig hva de samler inn fra deg.
For eksempel ønsker Meta AI å skanne (nytt vindu)bilder(nytt vindu) i biblioteket ditt som du ikke en gang har lastet opp til plattformene deres, for å analysere ansiktsdataene dine. Mange brukere ble forstyrret av kunngjøringen om at Microsofts Copilot AI(nytt vindu) ville ta skjermbilder av enhetene deres med noen minutters mellomrom. Bildene dine, meldingene dine til venner og kjære, og dine mest personlige tanker er verdifulle datapunkter som selskapene vil ha.
Når vi ser på Open AIs personvernerklæring(nytt vindu), ser vi at ChatGPT vil finne og lagre:
- Identifikatorer, for eksempel navnet ditt, kontaktdetaljer, IP-adresse og andre enhetsidentifikatorer
- Kommersiell informasjon, for eksempel transaksjonshistorikken din
- Nettverksaktivitetsinformasjon, for eksempel innhold og hvordan du samhandler med ChatGPT
- Den generelle plasseringen du får tilgang til ChatGPT fra
Denne informasjonen kan utleveres til myndigheter, leverandører, tilknyttede selskaper, tjenesteleverandører og andre tredjeparter.
I hovedsak blir en LLM kjent med deg. I likhet med en søkemotor kommer den til å forstå vanene dine, preferansene dine, interessene dine og alle aspekter ved deg som den kan fange opp fra oppførselen din. Big Tech vil alltid prioritere å finne nye måter å skaffe dine personlige data på, fordi det er lønnsomt. Og de håper at du ikke vil merke det.
Bare tenk på trendene som har feid over sosiale medier de siste årene: tilpassede Studio Ghibli-stil-animasjoner(nytt vindu) som etterlignet den karakteristiske stilen til Hayao Miyazaki mot hans vilje, og tilpassede AI-pakkede dukker(nytt vindu) inspirert av klassiske leker som Barbie, som skapte visuell innsikt i folks personlige smak. Denne sosiale medier-trenden kan ha føltes som harmløs moro, men AI-verktøyene som ble brukt til å lage disse bildene, var i stand til å høste inn bilder og informasjon om folk, som de overordnede selskapene kan bruke til reklameformål og potensielt selge til tredjeparter. Dette er bare to av mange eksempler på at Big Tech stille inntar dine personlige data i bytte mot deltakelse i en flyktig trend.
Det finnes en bedre løsning for LLM-er
Etter å ha lest om alle disse risikoene, tenker du kanskje at LLM-er i seg selv er farlige. Men det er overhodet ikke tilfelle. Big Tech-selskaper bygget AI-systemene sine for å være inngripende og datasultne med vilje. Det er mulig å bygge AI som beskytter folks personvern og holder data sikre som standard. Vi vet det fordi vi gjorde det med Lumo, vår personvern-først AI-assistent(nytt vindu).
Slik løser Lumo det virkelige AI-justeringsproblemet:
- Lumo fører ikke logger over samtalene dine. Hver chat slettes fra tjenerne våre så snart modellen er ferdig med å behandle spørringen og svaret ditt.
- Chathistorikker er lagret med nulltilgangskryptering. Ved å låse dataene dine med din hemmelige nøkkel, har Proton aldri tilgang og kan derfor aldri dele eller ved et uhell lekke dataene dine.
- Vi trener ikke modellene med chattene dine. Bruk av samtaler til å trene AI-modeller setter dataene dine i fare for å dukke opp igjen i fremtidige utdata. Samtaler med Lumo er dine alene.
- Lumo har åpen kildekode og bruker bare modeller med åpen kildekode. Siden kodebasen vår er offentlig, kan hvem som helst bekrefte at appene våre gjør nøyaktig det vi påstår.
- Vi er basert i en jurisdiksjon som respekterer personvernet. I motsetning til USA-baserte Big Tech AI-er som er underlagt inngripende overvåkingslover, er Lumo basert i Europa og beskyttet av sterke personvernlover.
På alle nivåer er Lumo designet for å gi samme nytte som andre LLM-er uten de risikable eksternalitetene. Big Tech kunne bygget sine AI-er på samme måte. De velger bare å la være fordi dataene dine er valutaen deres.
Er AI-justering egentlig en trussel?
Sannheten er ganske enkelt mindre spennende enn Big Tech-direktørene vil ha oss til å tro. Det virker mindre sannsynlig at en AI vil gi folk makt til å lage biovåpen eller bruke opp alle våre globale ressurser på å lage binders, enn at den ganske enkelt vil følge direktivene som Big Tech allerede følger: Stjele og utnytte private data.
Ikke tro på hypen om AI-justering. Det er ikke den trusselen noen av oss bør fokusere på. Overvåking, utnyttelse av individer og mindre bedrifter, og et kompromittert informasjonsøkosystem er de presserende bekymringene vi faktisk bør være oppmerksomme på når det gjelder AI.






