Yleinen harhaluulo on, että jos ette käytä suuria kielimalleja (LLM), kuten ChatGPT:tä keskusteluihin, Midjourneytä kuvien luomiseen tai Soraa videoiden luomiseen, olette turvassa tekoälyltä (AI). Käytittepä sitä tai ette, tekoäly koskettaa jo elämäänne.
Esimerkiksi, kun otatte kuvia Androidilla, Google Kuvat skannaa ja merkitsee automaattisesti jokaisen henkilön kuvakirjastossanne käyttäen kasvojentunnistusta. Julkaiseminen sosiaalisessa mediassa ilman oletusasetusten muuttamista luo julkisia julkaisuja, joita voidaan haravoida massiivisiin tietokantoihin LLM:ien kouluttamiseksi. Jopa personoidut mainokset verkkosivustoilla tai sovelluksissa toimivat tekoälyllä, joka on koulutettu selaus- ja ostosasetustenne perusteella.
Tuo mukavuus maksaa yksityisyytenne ja sillä voi olla syvä vaikutus elämäänne. Kaksikymmentä kuvaa lapsenne sosiaalisesta syötteestä riittää luomaan 30 sekunnin deepfake-videon, jota voidaan käyttää kiristykseen, kiusaamiseen tai identiteettivarkauteen.
Tässä on pelissä, kun tekoäly käyttää henkilökohtaisia tietojanne, ja mitä voitte tehdä suojellaksenne yksityisyyttänne verkossa.
- Miten tekoäly vaarantaa yksityisyytenne?
- Henkilökohtaisia tietojanne saatetaan kerätä
- Teidät saatetaan uudelleentunnistaa
- Tietojanne saatetaan jakaa ulkopuolisille tahoille
- Tietojen poistopyynnöt eivät välttämättä toimi
- Muut ihmiset saattavat nähdä yksityiset keskustelunne
- Teitä saatetaan kohdella epäreilusti
- Mainosten kohdentaminen tarkentuu
- Pilvitallennus saattaa paljastaa tietojanne
- Tekoäly voi tehdä virheitä
- Kuka tahansa voi tehdä deepfakeja
- Kuinka pitää tietonne yksityisinä tekoälyjärjestelmiltä
Miten tekoäly vaarantaa yksityisyytenne?
Tekoäly voi rapauttaa yksityisyyttä keräämällä liikaa, päättelemällä liikaa ja jakamalla liikaa.
Henkilökohtaisia tietojanne saatetaan kerätä
Tekoälyjärjestelmät muuttuvat tarkemmiksi harjoittelemalla massiivisilla tietomäärillä, jotka on usein haravoitu julkisesti saatavilla olevista lähteistä, kuten Facebook-julkaisuistanne(uusi ikkuna), Flickr-kuvista(uusi ikkuna) tai Reddit-ketjuista(uusi ikkuna). Arkiset sosiaalisen median julkaisut, perhekuvat ja profiilitiedot – jotka usein sisältävät arkaluonteisia tietoja ja on alun perin jaettu henkilökohtaisista tai sosiaalisista syistä – on sisällytetty tietokantoihin, joita käytetään miljardien dollarien LLM:ien ja kasvojentunnistusjärjestelmien kouluttamiseen. Tämä tapahtuu, koska Big Tech kohtelee verkkosisältöä vapaasti tekoälyn käytettävissä olevana ilman nimenomaista suostumusta tai kunnioitusta immateriaalioikeuksia kohtaan.
Teidät saatetaan uudelleentunnistaa
Teknologiayritykset väittävät, että henkilökohtaisia tietojanne ei voida jäljittää takaisin teihin, kun ne on tehty tunnisteettomiksi tai pseudo-anonymisoitu, mikä tarkoittaa, että ilmeiset tunnisteet, kuten nimet tai puhelinnumerot, on poistettu. Mutta tämä suoja on hauras, sillä anonymisoidut tietokannat voidaan uudelleentunnistaa vertaamalla niitä muihin tietolähteisiin, kuten sosiaalisen median profiileihin tai sijaintijälkiin.
Esimerkiksi Netflixin käyttäjiä on uudelleentunnistettu(uusi ikkuna) vertaamalla heidän anonyymejä elokuva-arvioitaan IMDb:n tietoihin. Yksi tutkimus(uusi ikkuna) osoittaa, että lähes jokainen amerikkalainen voidaan erottaa mistä tahansa tietokannasta vain 15 demografisen tekijän avulla. Lisäämällä tähän tekoälyn kyky tunnistaa kaavoja, uudelleentunnistamisesta on tullut nopeampaa, helpompaa ja kenen tahansa saavutettavissa olevaa.
Tietojanne saatetaan jakaa ulkopuolisille tahoille
Kun käytätte tekoälyjärjestelmiä, tietonne eivät aina pysy siinä yrityksessä, johon rekisteröidyitte. Niitä saatetaan jakaa kumppaneiden tai ulkopuolisten käsittelijöiden kanssa – joista ette todennäköisesti ole koskaan kuulleetkaan – jotka saattavat käsitellä tietojanne omien ehtojensa ja turvallisuusstandardiensa mukaisesti.
Siinä vaiheessa yksityisyydestä tulee luottamuskysymys. Ette enää luota vain tuntemaanne yritykseen tietojenne suojaamisessa, vaan kokonaiseen ketjuun tuntemattomia ulkopuolisia toimijoita, joilla jokaisella on oma infrastruktuurinsa, käytäntönsä ja haavoittuvuutensa. Jokainen käsi, joka koskettaa tietojanne, laajentaa hyökkäyspintaa, ja vastuu hämärtyy.
Esimerkiksi OpenAI:n kumppaniin liittynyt tietomurto johti API-käyttäjätietojen paljastumiseen, mikä osoittaa, kuinka ulkopuolisten tahojen pääsy voi muodostua järjestelmän heikoimmaksi lenkiksi.
Tietojen poistopyynnöt eivät välttämättä toimi
Kun tietonne kouluttavat tekoälymallia, niiden takaisin ottaminen on lähes mahdotonta, koska ne muokkaavat mallin yleistä käyttäytymistä. Koneellinen unohtaminen – tekniikat, joilla malli saadaan unohtamaan – on vielä varhaisessa vaiheessa, joten ainoa vaihtoehto nykyään olisi kouluttaa malli uudelleen. Ja vaikka yritys väittäisi noudattaneensa tietojen poistopyyntöänne, ei käytännössä ole mitään tapaa vahvistaa sitä(uusi ikkuna).
Muut ihmiset saattavat nähdä yksityiset keskustelunne
LLM:t, kuten ChatGPT(uusi ikkuna), Meta AI(uusi ikkuna) ja Grok(uusi ikkuna), ovat paljastaneet yksityisiä keskusteluja jakamisominaisuuksiensa kautta, jolloin hakukoneet ovat indeksoineet keskustelut ja tehneet niistä julkisesti löydettäviä. Alustat eivät olleet riittävän läpinäkyviä tästä riskistä, jättäen käyttäjät tietämättömiksi siitä, että yksityiseltä tuntunut keskustelu saattaisi päätyä kenen tahansa nähtäväksi internetissä.
Teitä saatetaan kohdella epäreilusti
Jos tekoälyjärjestelmien oppimiseen käyttämä data sisältää piilotettuja vääristymiä – kuten historiallisesta epätasa-arvosta tai puutteellisista tietokannoista johtuvia – tekoäly voi vahvistaa tai voimistaa noita kaavoja. Panokset ovat korkeammat Big Techin ei-yksityisissä tekoälyjärjestelmissä, jotka ovat suljettua lähdekoodia ja toimivat mustina laatikoina, joita ei voida riippumattomasti tarkistaa. Nämä järjestelmät saattavat käyttää arkaluonteisia ominaisuuksia, kuten rotua, sukupuolta tai postinumeroa, tehdäkseen automatisoituja päätöksiä ennustavassa poliisitoiminnassa(uusi ikkuna), rekrytoinnissa(uusi ikkuna), terveydenhuollossa(uusi ikkuna) tai luottoluokituksessa(uusi ikkuna).
Mainosten kohdentaminen tarkentuu
Vaikka ei-yksityinen tekoäly tekee mainoksista älykkäämpiä mahdollistamalla hyperkohdentamisen, se usein loukkaa koko perheenne yksityisyyttä. Esimerkiksi Publicis, tietovälittäjä ja maailman suurin mainosyritys, väittää profiloivansa 2,3 miljardia ihmistä ja seuraavansa yksityiskohtia, kuten perheen mieltymyksiä ja tuloja(uusi ikkuna) päättääkseen, kohdistaako heihin edullisia vai premium-tuotteita.
Tekoälybottien korvatessa perinteistä hakua, mainokset seuraavat meitä tähän uuteen tilaan. Esimerkiksi Perplexity upottaa mainoksia tekoälyn luomiin vastauksiin(uusi ikkuna) ja on tehnyt 34,5 miljardin dollarin tarjouksen Google Chromen ostamisesta – siirto, jonka tavoitteena on saada pääsy selaimen yli 3 miljardiin käyttäjään ja sen mukana tulevaan intiimiin käyttäytymisdataan.
Pilvitallennus saattaa paljastaa tietojanne
Pilvitallennuspalveluntarjoajat ilman päästä päähän -salausta (E2EE) voivat käyttää kuvia, asiakirjoja ja arkaluonteisia tiedostoja, joita lähetätte. Ne saattavat myös käyttää noita tietoja tekoälytyökalujen pyörittämiseen, oivallusten luomiseen teistä tai personoitujen mainosten näyttämiseen.
Esimerkiksi Google Drive säilyttää pääsyn tietoihinne ja käyttää niitä tekoälyominaisuuksiin, kuten oikeinkirjoituksen tarkistukseen ja automaattiseen täydennykseen Google Docsissa. Jos Gemini, Googlen tekoälyavustaja, pysyy tiukasti integroituna Google Workspaceen, Drive-tiedostoistanne tekemänne kyselyt voisivat myös syöttyä tekoälyn koulutukseen.
Vastaavasti Microsoft on ilmoittanut, että Word, Excel ja PowerPoint tallentavat pian automaattisesti OneDriveen oletuksena, toiseen ei-E2EE-palveluun, jossa tietojenne tuleva käyttö mainontaan tai tekoälyn koulutukseen on epävarmaa.
Tekoäly voi tehdä virheitä
Automatisoidut järjestelmät voisivat skannata yksityistä viestintäänne ja merkitä sen epäilyttäväksi. EU:n ehdottama Chat Control -laki vaatisi viestipalveluita, kuten WhatsAppia ja Signalia, käyttämään tekoälyä jokaisen yksityisen viestin ja kuvan skannaamiseen lapsiin kohdistuvan seksuaalisen hyväksikäytön materiaalin (CSAM) havaitsemiseksi.
Mutta tämä tarkoittaa kaikkien keskustelujen valvontaa, ei vain epäiltyjen rikollisten. Ja historia osoittaa, kuinka helposti tekoäly voi tehdä virheitä. Esimerkiksi isän Google-tili suljettiin(uusi ikkuna) ja ilmoitettiin viranomaisille sen jälkeen, kun hän lähetti kuvan lapsestaan lääkärille. Se, minkä pitäisi pysyä teidän ja lääkärinne tai teidän ja perheenne välillä, voisi yhtäkkiä paljastua teknologiayrityksille ja lainvalvonnalle.
Kuka tahansa voi tehdä deepfakeja
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Pahantahtoiset toimijat hyödyntävät deepfakeja identiteettivarkauksiin, petoksiin, kiristykseen tai maineen vahingoittamiseen – ja riskit ulottuvat lapsiin. Vuonna 2019 rikolliset käyttivät deepfake-ääntä imitoidakseen toimitusjohtajan ääntä(uusi ikkuna) ja huijasivat työntekijän siirtämään 220 000 euroa. Riskit ulottuvat myös lapsiin. Yhdessä tapauksessa saalistaja loi deepfake-kuvan 14-vuotiaasta(uusi ikkuna) kiristääkseen rahaa uhkaamalla jakaa sen.
Kuinka pitää tietonne yksityisinä tekoälyjärjestelmiltä
Tekoälyjärjestelmiin liittyy monia yksityisyyshuolia, erityisesti Big Techin ylläpitämiin ei-yksityisiin, suljetun lähdekoodin malleihin. Ja vaikka ette voi täysin estää näitä järjestelmiä haravoimasta tai väärinkäyttämästä tietojanne, kun ne ovat julkisia, voitte pienentää jalanjälkeänne, vaatia vastuullisuutta ja valita yksityisyyden ensisijaistavaa tekoälyä, joka ei hyödynnä tietojanne. Tässä on, mitä voitte tehdä:
- Sosiaalisessa mediassa tehkää profiileistanne ja julkaisuistanne yksityisiä, poistakaa vanhat lataukset, poistakaa EXIF-tiedot kuvista ennen jakamista ja välttäkää tunnistettavien tietojen – kuten osoitteiden, lasten koko nimien tai koulujen – jakamista. Selvittäkää lisää siitä, kuinka hallita internetiä perheellenne.
- Tarkistakaa sovellustenne yksityisyysasetukset. Esimerkiksi Meta AI saattaa skannata kamerarullan kuvia ja videoita Facebook-sovelluksessa Androidilla ja iOS:llä.
- Suojautukaa deepfakeilta sumentamalla tai peittämällä perheenne kasvot ennen kuvien julkaisemista verkossa.
- Peittäkää digitaalinen jalanjälkenne käyttämällä VPN-palvelua (virtuaalinen yksityisverkko)(uusi ikkuna) IP-osoitteenne piilottamiseksi ja käyttäkää aliaksia suojataksenne sähköpostiosoitteenne, kun julkaisette arkaluonteisia tietoja, joita ette halua jäljitettävän takaisin teihin.
- Käyttäkää palveluita, jotka asettavat yksityisyyden etusijalle eivätkä rahasta tiedoillanne, kuten Signalia turvalliseen viestintään ja Bravea tai DuckDuckGo:ta yksityiseen selaukseen.
- Käyttäkää Proton Drivea päästä päähän -salattuun pilvitallennukseen arkaluonteisimpien tiedostojenne, kuten yksityisten kuvien ja luottamuksellisten asiakirjojen turvalliseen säilyttämiseen. Toisin kuin alustat, jotka saattavat paljastaa oletettavasti yksityistä sisältöä, Drive ei skannaa, indeksoi tai käytä tietojanne tekoälyn kouluttamiseen – eikä kukaan muu voi nähdä niitä, edes silloin kun päätätte jakaa ne. Kuvienne pitäminen aidosti yksityisinä tarkoittaa myös sitä, etteivät ne päädy verkkoon, jossa niitä voitaisiin käyttää väärin deepfakejen luomiseen.
- Kieltäytykää tekoälykoulutuksesta aina kun mahdollista, esimerkiksi Geminissä, ChatGPT:ssä(uusi ikkuna), Claudessa(uusi ikkuna) tai Meta AI:ssa. Käytännöt voivat muuttua yön yli pienellä varoituksella, joten jos haluatte sekä tekoälyn hyödyt että yksityisyyden, vaihtakaa Lumoon – yksityisyyden ensisijaistavaan tekoälyavustajaamme(uusi ikkuna), joka ei pidä lokeja tai kouluta itseään tiedoillanne.
Vahvemmat säädökset tekoälyn yksityisyydestä, kuten EU:n tekoälysäädös(uusi ikkuna), ovat kriittisiä vallan siirtämiseksi takaisin internetin käyttäjille. Siihen asti paras puolustus on olla tietoinen siitä, mitä jaatte verkossa, vaatia vastuullisuutta näitä järjestelmiä rakentavilta yrityksiltä ja valita läpinäkyviä tekoälytyökaluja(uusi ikkuna), jotka kunnioittavat yksityisyyttä alusta alkaen.






