«AI er kommet for å bli, og selskaper er bare så vidt i gang med å finne ut hvordan de skal utnytte kraften for å drive virksomheten sin. Hver dag skynder bedrifter seg for å integrere AI i utallige arbeidsflyter: Det brukes til å oppsummere dokumenter, automatisere rapporter, skape prediktive analyser og levere støtte med chatbots. Disse endringene skjer raskt og åpner nye dører for både store og små bedrifter, men disse endringene eksponerer også potensielt selskapenes verdifulle proprietære data for nye risikoer.»
«Når bedrifter gjør sin konfidensielle informasjon tilgjengelig for AI, er det ikke alltid tøm om denne informasjonen kan gjenbrukes eller indekseres av store språkmodeller (LLM-er) som treningsdata. Det finnes også mange eksempler på at sensitiv informasjon utilsiktet eksponeres av AI-verktøy. Dette er ikke bare personvernbekymringer; de er sikkerhetsrisikoer som enhver bedrift må vurdere før de bruker AI-verktøy på sine lagrede filer.»
«Hvordan AI kan utsette filene dine for risiko uten at du vet det»
«AI har utviklet seg og spredt seg i en eksponentiell hastighet. Mens de fleste er best kjent med chatbots, som ChatGPT eller Claude, har Big Tech integrert generative AI-systemer som kan innta, indeksere og oppsummere innhold direkte i regneark-, dokument- og e-post-tjenester. Denne integrasjonen gir kraftige funksjoner, men den introduserer betydelig risiko som de færreste er klar over.»
«I følge en AI-sikkerhetsundersøkelse for 2025(nytt vindu), fikk Microsoft Copilot — som er innfelt i verktøy som Excel, Word og SharePoint — tilgang til nesten 3 millioner sensitive oppføringer per organisasjon bare i løpet av første halvår. Den fant også at organisasjoner i gjennomsnitt hadde mer enn 3 000 interaksjoner med Copilot der sensitiv bedriftsinformasjon kunne ha blitt eksponert. Og en Google-studie sa at 90 % av arbeiderne(nytt vindu) i teknologiindustrien bruker AI til å skrive eller modifisere kode. Selv om disse tallene er blåst opp, må organisasjoner inkludere AI-verktøy i sin trusselmodell.»
«Dette er en ny type sikkerhetsrisiko. Disse filene ble ikke delt eksternt. Faktisk ble de kanskje ikke delt i det hele tatt. Men fordi de var lagret i filer Copilot kunne få tilgang til, kan informasjonen de inneholder ha blitt samlet inn uten at brukere var klar over det.»
«Dette kan få alvorlige konsekvenser. Politiet i Sveits(nytt vindu) (kilde på fransk) og FBI i USA(nytt vindu) har allerede blitt funnet å bruke ChatGPT-logger som en del av sine etterforskninger. Hvis Big Tech-selskaper er et eksempel, kan du forvente at AI-selskaper snart vil motta hundretusener av dataforespørsler fra amerikanske og EU-myndigheter, hvis de ikke allerede gjør det.»
«Sikker datalagring er utrolig vanskelig når AI-verktøy er så dypt innfelt i applikasjonene du bruker hver dag. Filer lagret i bedriftsstasjoner blir søkbare, kan oppsummeres, og dermed sårbare, noe som utvisker de tradisjonelle sikkerhetskonseptene om tilgang, tillatelse og tilsyn.»
«Hva med Google Workspace og Gemini?»
«Disse risikoene er ikke begrenset til Microsoft Copilot. Google Workspace integrerer på lignende måte sitt AI-verktøy, Gemini, direkte inn i sine stasjoner, ark og dokumenter.»
«Mange bedrifter vil sannsynligvis se på Google Workspace med Gemini-integrasjon som en sterk standard. Ifølge Googles egen side(nytt vindu): «Dine data blir ikke gjennomgått av mennesker eller brukt for opplæring av generative AI-modeller utenfor ditt domene uten tillatelse.»»
«Imidlertid er reglene som Google bruker for å hente informasjon for å trene AI-systemet sitt utformet på en måte som skaper en gråsone og reiser spørsmål:»
- Google bruker nå faktisk forbrukerchatter og filer du laster opp til å trene Gemini som standard, med mindre du velger det bort.
- Google Gemini(nytt vindu)s støttesider advarer om at informasjon som deles med Gemini-apper vil bli gjennomgått av mennesker og kan bli brukt som et datasett for å trene AI.
- I sin personvernerklæring for Gemini, advarer Google brukere(nytt vindu) mot å dele konfidensiell informasjon.
- Bedriftsdokumentasjon gir rom for tolkning med formuleringer som «uten tillatelse.»
- Sikkerhetsleverandører har flagget tilstander der bedriftsdata kan bli treningsinndata, spesielt ettersom AI-funksjoner blir mer tett integrert i fillagring, søk og arbeidsflytverktøy.
«Denne mangelen på klarhet er bekymringsfull når Gemini er integrert i stasjoner, dokumenter og ark. Det er ikke bare et spørsmål om å feildeling av filer, men om hvordan disse filene utilsiktet blir en del av AI-arbeidsflyter. Hvordan vil AI-en innta, indeksere, analysere og lagre ledetekster eller utdata, og vil disse loggene fortsatt være under organisasjonens kontroll?»
«Selv et velstyrt system som Google Workspace er ikke-privat og med lukket kildekode. Slike systemer kan kanskje dempe mange risikoer, men for bedrifter som sitter på svært sensitive data, kan nivået av tillit som kreves fortsatt være for høyt.»
«Slik finner du en privat AI for bedriften din»
«Hver fil du laster opp til eller deler med et AI-aktivert system, utvider angrepsflaten din. Bare det å laste opp filer til skylagring kan eksponere disse filene for AI-trening, avhengig av tjenesten og abonnementet ditt. Hvis disse opplastingene oppbevares, indekseres eller blir tilgjengelige på måter du ikke er klar over eller ikke kan kontrollere, er din proprietære verdi i fare.»
«Før bedriften din velger et AI-verktøy, bør du spørre om du kan garantere at det eller dets fillagringssystem ikke vil oppbevare eller eksponere kritiske data.»
«Her er to konkrete krav du bør stille til ethvert AI-verktøy for bedrifter:»
- Null-data-oppbevaring: AI-systemet skal ikke loggføre eller lagre ledetekster, responser eller filopplastinger utover bedriftsøkten med mindre det uttrykkelig kreves — og disse loggene skal være under din bedrifts fulle kontroll.
- Ingen ekstern trening: Bedriftens data (inkludert lagrede filer) må ikke brukes til å trene andre modeller utenfor bedriftsdomenet eller deles på tvers av leietakere.
«Hva du kan gjøre nå»
«Før du kan velge de riktige verktøyene, må du vurdere situasjonen din og sørge for at du ikke allerede utilsiktet eksponerer sensitive data:»
- Gjennomfør en risiko-revisjon for AI-fillagring: Identifiser alle delte stasjoner, teammapper og skylagring der AI-verktøy kobles til, og kartlegg deretter hvilke verktøy som inntar eller indekserer disse filene.
- Definer en tøm styringsretningslinje for filinntak i AI: Spesifiser hvilke AI-verktøy som er godkjent, hvilke filtyper som er tillatt, og om indeksering av depotfiler er slått av, etc.
- Krev en leverandør/løsning som tilbyr privat AI med strenge kontroller: Velg en AI-assistent som tilbyr «ingen logger, ingen trening, ingen deling» som grunnlinje.
- Overvåk og begrens «skygge-AI», eller individuelle medlemmer av teamet ditt som bruker AI utenfor sikkerhetsteamets rammeverk, samt uautoriserte filopplastinger i AI-verktøy. Håndhev via forebygging av datatap, praksiser for identitets- og tilgangsadministrasjon og revisjonslogging.
- Velg en leverandør hvis forretningsmodell ikke er avhengig av å selge eller utvinne data. Dette sikrer at deres insentiver alltid samsvarer med å holde dataene dine sikre.
«Proton tilbyr AIs produktivitet uten risiko»
«Ingen bedrift ønsker å uforvarende overlate sine sensitive opplysninger. Det er derfor Proton for Business-verktøyene er bygget rundt kraftig kryptering som gir deg kontrollen over hvem som kan få tilgang til informasjonen din.»
«Proton Drive bruker ende-til-ende-kryptering på alle filene dine, slik at ingen, ikke engang Proton, kan få tilgang til dem med mindre du deler dem. Dette forhindrer at filene dine noen gang blir eksponert for eller brukt til å trene AI. Proton Drive gir deg også muligheten til å passordbeskytte delingslenker eller slå av tilgang med ett enkelt klikk, noe som betyr at du beholder kontrollen.»
«Vi har også bygget Lumo for Business, en privat AI-assistent som utelukkende jobber for deg, og ikke omvendt. Ettersom ingen logger oppbevares og hver chat og fil du laster opp er kryptert, holder Lumo samtalene dine konfidensielle og dataene dine fullt ut under din kontroll — aldri delt, solgt eller stjålet.»
«Hos Proton bygger vi alle våre produkter med personvern bygget inn fra bunnen av. Bedrifter skal kunne lagre filer og bruke AI med selvtillit, og vite at deres mest sensitive informasjon forblir beskyttet.»
«I motsetning til Big Tech tjener ikke Proton penger på å selge dataene dine. Vi støttes utelukkende av fellesskapet vårt, ikke annonsører, og vår base i personvernvennlige Europa gir oss de juridiske beskyttelsene som skal til for å sikre at vi kan leve opp til våre løfter. Og viktigst av alt, vi eies av den ideelle stiftelsen Proton Foundation, hvis eneste formål er å fremme personvern og frihet.»
«Ved å bruke Lumo for Business(nytt vindu), kan du nyte fordelene av en avansert AI-assistent uten risiko for at dataene dine blir misbrukt.»






