Tekoälyn ”kohdistusongelma” (alignment problem) esittää, että kun tekoälyjärjestelmistä tulee älykkäämpiä, on vaikeampaa sovittaa niiden tavoitteita yhteen kehittäjiensä tavoitteiden kanssa. Tekoälyjärjestelmä voisi teoriassa ”villiintyä”, kehittäen ei-toivottuja ja arvaamattomia strategioita tavoitteen saavuttamiseksi.
Paperiliitinmaksimoija(uusi ikkuna) on ajatuskoe, joka tutkii tätä käsitettä: Jos superälykäs tekoäly saisi ainoaksi tehtäväkseen luoda paperiliittimiä, se saattaisi ottaa haltuunsa maailman resurssit saavuttaakseen tavoitteensa hinnalla millä hyvänsä, muuttaen kaiken paperiliittimiksi. Lopulta se saattaisi jopa tajuta, että ihmiset, jotka yrittävät pysäyttää tekoälyn, ovat häiriötekijä, ja eliminoida meidät: selvästi ristiriita tekoälyn ja ihmisten etujen välillä.
Vaikka ilmeisen outo, paperiliitinongelmasta on tullut populaarikulttuurin kosketuspinta tekoälylle. Oikeassa elämässä rajoitteet ja säännöt estävät järjestelmiä ylittämästä tarkoitettuja käyttötarkoituksiaan. Mutta monet suurten teknologiayritysten perustajat ja toimitusjohtajat käyttävät tätä hypoteesia luodakseen kohua suurten kielimalliensa (LLM) ympärille. Onko chatboteilla todella valta tehdä ihmiskunnasta sukupuuttoon kuollut? Ei. Mutta se saa ne kuulostamaan vaikuttavilta ja, mikä tärkeämpää, se peittää todellisen tekoälyn kohdistusongelman, joka vahingoittaa meitä juuri nyt: Suurten teknologiayritysten LLM:t tunkeutuvat yksityisyyteemme, varastavat tietojamme ja vähentävät tietotaloutemme arvoa. Se on sekä myyntistrategia että harhautus, joka on suunniteltu pitämään meidät katsomassa tulevaisuuteen sen sijaan, että katsoisimme hallintaa, josta luovumme nykyhetkessä.
Olemmeko matkalla kohti dystooppista tulevaisuutta?
Kun perustajat esittävät laajoja, spekulatiivisia lausuntoja siitä, mitä heidän tuotteensa ”voisivat” tehdä, tämä on ensisijaisesti keino luoda liiketoimintamahdollisuuksia ja arvoa osakkeenomistajilleen. LLM:t ja generatiivinen tekoäly ovat liiketoimintatuotteita. On niiden omistajien etujen mukaista, että uskotte heidän työkalunsa olevan vallankumouksellinen.
Tiedotusvälineet ovat innokkaita edistämään sensaatiomaisia tarinoita, kuten tekoälytyökalujen potentiaalia auttaa käyttäjiä luomaan bioaseita(uusi ikkuna) tai valehtelemaan kehittäjille(uusi ikkuna), ikään kuin generatiivisella tekoälyllä olisi oma mieli (sillä ei ole). On helppo saada klikkauksia otsikoilla äärimmäisistä tai perusteettomista mielipiteistä, mutta sellaiset näkemykset eivät ole tarkka kuvaus tänään olemassa olevasta tekoälyteknologiasta.
Sen sijaan LLM:t ovat yksinkertaisesti sanojen ennustuskoneita. Ne ovat tietokoneohjelmia, jotka sulattavat valtavia määriä tekstiä, ”oppivat” ihmiskielen kaavoja ja rakentavat sitten todennäköisyyspohjaisia vastauksia käyttäjän syötteisiin. Niillä ei ole omia ajatuksia, eivätkä ne edes ymmärrä kieltä. Itse asiassa niiden on ensin muutettava sanat numeroiksi ennen kuin ne voivat käsitellä tietoa. LLM:ien rajoitukset ovat hyvin dokumentoineet Gary Marcus(uusi ikkuna) ja monet muut tutkijat.
Uudet työkalut valvontakapitalismille
LLM:t eivät aiheuta maailmanloppua, mutta ne ovat varsin hyviä jossain muussa: erittäin vivahteikkaan tiedon keräämisessä teistä. Siksi LLM:t ovat tietokultakaivos yrityksille ja houkutteleva kohde rikollisille.
LLM:t pyörittävät chatbotteja, kuten ChatGPT:tä, Copilotia, Claudea ja Grokia, jotka toimivat kuin hakukoneet. Näennäisesti voitte käyttää näitä chatbotteja mihin tahansa haluatte: Ne voivat auttaa teitä luomaan ostoslistoja, järjestämään kalenterianne, kirjoittamaan sähköposteja tai kirjoittamaan koodia. Ne ovat henkilökohtainen avustajanne, opettajanne, uskottunne tai mitä tahansa muuta pyydätte niiden olevan.
Sadat miljoonat ihmiset maailmanlaajuisesti jakavat jo kysymyksiään, ideoitaan, ajatuksiaan ja syvimpiä salaisuuksiaan chatbottien kanssa. Heitä kannustavat tekemään niin yritykset, jotka pyörittävät niitä: Sam Altman, Open AI:n toimitusjohtaja, totesi äskettäin(uusi ikkuna), että Z-sukupolvi ”ei todella tee elämänpäätöksiä kysymättä ChatGPT:ltä, mitä heidän pitäisi tehdä”. Tämän tason luottamuksen ja riippuvuuden peräänkuuluttaminen ja kannustaminen voittoa tavoittelevaan ja epäluotettavaan chatbottiin on syvästi vastuutonta. Suuret teknologiayritykset haluavat meidän välittävän elämäämme ja ajatuksiamme palveluidensa kautta, koska silloin ne saavat sananvaltaa siihen, miten käytämme rahamme, mitä teemme ja mitä ajattelemme.
LLM:ien takana olevat yritykset myyvät tuotteitaan myös tuottavuusratkaisuina hallituksille ja yrityksille, lupauden säästää aikaa ja vaivaa käyttäjilleen samalla kun ne tuovat uusia mahdollisuuksia teidän valvomiseksenne. Isossa-Britanniassa oikeusministeriön tekoälyjärjestelmä ”ennustaa” vankien uusimisriskin(uusi ikkuna). Poliisit käyttävät chatbotteja(uusi ikkuna) rikosilmoitusten kirjoittamiseen. Valtion valtuuksien yhdistäminen puolueellisiin algoritmeihin(uusi ikkuna) on vaarallista ja vahvistaa olemassa olevia ennakkoluuloja.
Tietojenne hyödyntäminen koulutustarkoituksiin
LLM:t toimivat tekoälymalleilla, jotka on koulutettu valtavilla tietojoukoilla, ja parantaakseen palveluitaan ne tarvitsevat yhä enemmän tietoa. Valitettavasti tämä tieto tulee teiltä: keskustelunne, kuvanne, verkkohakunne. Yritykset eivät aina pyydä lupaasi tai tee selväksi, mitä ne keräävät teiltä.
Esimerkiksi Meta AI haluaa skannata (uusi ikkuna)valokuvia(uusi ikkuna) kirjastossanne, joita ette ole edes lähettänyt sen alustoille analysoidakseen kasvotietojanne. Monet käyttäjät olivat järkyttyneitä ilmoituksesta, että Microsoftin Copilot AI(uusi ikkuna) ottaisi kuvankaappauksia heidän laitteistaan muutaman minuutin välein. Kuvanne, viestinne ystävillenne ja rakkaillenne sekä henkilökohtaisimmat ajatuksenne ovat arvokkaita tietopisteitä, joita yritykset haluavat.
Tarkasteltaessa Open AI:n tietosuojakäytäntöä(uusi ikkuna) näemme, että ChatGPT etsii ja tallentaa:
- Tunnisteet, kuten nimenne, yhteystietonne, IP-osoitteenne ja muut laitetunnisteet
- Kaupalliset tiedot, kuten tapahtumahistorianne
- Verkkotoimintatiedot, kuten sisällön ja miten olette vuorovaikutuksessa ChatGPT:n kanssa
- Yleisen sijainnin, josta käytätte ChatGPT:tä
Tämä tieto voidaan luovuttaa hallituksille, myyjille, tytäryhtiöille, palveluntarjoajille ja muille kolmansille osapuolille.
Pohjimmiltaan LLM oppii tuntemaan teidät. Aivan kuten hakukone, se oppii ymmärtämään tottumuksenne, mieltymyksenne, kiinnostuksen kohteenne ja jokaisen aspektin teistä, jonka se voi päätellä käyttäytymisestänne. Suuret teknologiayritykset asettavat aina etusijalle uusien tapojen löytämisen henkilötietojenne hankkimiseksi, koska se on kannattavaa. Ja ne toivovat, ettette huomaa.
Ajatelkaa vain trendejä, jotka ovat pyyhkäisseet sosiaalisen median yli viime vuosina: mukautetut Studio Ghibli -tyyliset animaatiot(uusi ikkuna) apinoivat Hayao Miyazakin omaleimaista tyyliä vastoin hänen tahtoaan ja mukautetut tekoälypakatut nuket(uusi ikkuna), jotka saivat inspiraationsa klassisista leluista, kuten Barbiesta, loivat visuaalisia oivalluksia ihmisten henkilökohtaisiin makuihin. Tämä sosiaalisen median trendi on saattanut tuntua harmittomalta huvilta, mutta tekoälytyökalut, joita käytettiin näiden kuvien luomiseen, pystyivät keräämään ihmisistä valokuvia ja tietoja, joita niiden emoyhtiöt voivat käyttää mainostarkoituksiin ja mahdollisesti myydä kolmansille osapuolille. Nämä ovat vain kaksi monista esimerkeistä, joissa suuret teknologiayritykset hiljaisesti nielevät henkilötietojanne vastineeksi osallistumisesta ohimenevään trendiin.
On olemassa parempi ratkaisu LLM:ille
Luettuanne kaikista näistä riskeistä saatatte tulla ajatukseen, että LLM:t ovat luonnostaan vaarallisia. Mutta niin ei ole lainkaan. Suuret teknologiayritykset rakensivat tekoälyjärjestelmänsä tunkeileviksi ja tiedonnälkäisiksi tarkoituksella. On mahdollista rakentaa tekoälyä, joka suojaa ihmisten yksityisyyttä ja pitää tiedot turvassa oletusarvoisesti. Tiedämme sen, koska teimme sen Lumolla, yksityisyys edellä toimivalla tekoälyavustajallamme(uusi ikkuna).
Näin Lumo ratkaisee todellisen tekoälyn kohdistusongelman:
- Lumo ei pidä lokeja keskusteluistanne. Jokainen keskustelu poistetaan palvelimiltamme heti, kun malli on saanut käsiteltyä kyselynne ja vastauksenne.
- Keskusteluhistoriat tallennetaan ilman pääsyä -salauksella (zero-access encryption). Lukitsemalla tietonne salaisella avaimellanne, Protonilla ei ole koskaan pääsyä eikä se voi siksi koskaan jakaa tai vahingossa vuotaa tietojanne.
- Emme kouluta malleja keskusteluillanne. Keskustelujen käyttö tekoälymallien kouluttamiseen asettaa tietonne vaaraan nousta esiin tulevissa tulosteissa. Keskustelut Lumon kanssa ovat vain teidän.
- Lumo on avointa lähdekoodia ja käyttää vain avoimen lähdekoodin malleja. Koska koodikantamme on julkinen, kuka tahansa voi vahvistaa, että sovelluksemme tekevät juuri sen mitä väitämme.
- Sijaitsemme yksityisyyttä kunnioittavalla lainkäyttöalueella. Toisin kuin yhdysvaltalaiset suurten teknologiayritysten tekoälyt, jotka ovat tunkeilevien valvontalakejen alaisia, Lumo sijaitsee Euroopassa ja sitä suojaavat vahvat tietosuojalait.
Joka tasolla Lumo on suunniteltu tarjoamaan samaa hyötyä kuin muut LLM:t ilman riskialttiita ulkoisvaikutuksia. Suuret teknologiayritykset voisivat rakentaa tekoälynsä samalla tavalla. Ne vain valitsevat olla tekemättä niin, koska tietonne ovat niiden valuuttaa.
Onko tekoälyn kohdistus todella uhka?
Totuus on yksinkertaisesti vähemmän jännittävä kuin suurten teknologiayritysten toimitusjohtajat haluaisivat meidän uskovan. Vaikuttaa vähemmän todennäköiseltä, että tekoäly valtuuttaisi ihmiset luomaan bioaseita tai kuluttamaan kaikki globaalit resurssimme paperiliittimien tekemiseen kuin että se yksinkertaisesti noudattaa direktiivejä, joita suuret teknologiayritykset jo noudattavat: Varastavat ja hyödyntävät yksityisiä tietoja.
Älkää uskoko hypeä tekoälyn kohdistuksesta. Se ei ole uhka, johon kenenkään meistä pitäisi keskittyä. Valvonta, yksilöiden ja pienempien yritysten hyväksikäyttö ja vaarantunut tietoympäristö ovat painavia huolenaiheita, joihin meidän pitäisi todella kiinnittää huomiota, kun on kyse tekoälystä.






