AI er kommet for at blive, og virksomheder er netop begyndt at finde ud af, hvordan de kan udnytte dens kraft til at drive deres forretning. Hver dag skynder virksomheder sig at integrere AI i utallige arbejdsgange: Det bruges til at opsummere dokumenter, automatisere rapporter, skabe prædiktiv analyse og levere support med chatbots. Disse ændringer sker hurtigt og åbner nye døre for virksomheder store og små, men disse ændringer eksponerer også potentielt virksomheders værdifulde proprietære data for nye risici.
Når virksomheder gør deres fortrolige information tilgængelig for AI, er det ikke altid klart, om denne information kan genbruges eller indekseres af store sprogmodeller (LLM’er) som træningsdata. Der er også talrige eksempler på følsom information, der utilsigtet er blevet eksponeret af AI-værktøjer. Disse er ikke blot bekymringer om privatliv; de er sikkerhedsrisici, som enhver virksomhed skal overveje, før de bruger AI-værktøjer på deres lagrede filer.
Hvordan AI kan bringe Deres filer i fare uden at De ved det
AI har udviklet sig og spredt sig med en eksponentiel hastighed. Mens de fleste mennesker er mest bekendte med chatbots, som ChatGPT eller Claude, har Big Tech integreret generative AI-systemer, der kan indtage, indeksere og opsummere indhold, i tjenester for regneark, dokumenter og e-mails. Denne integration bringer kraftfulde evner, men den introducerer betydelig risiko, som få mennesker er klar over.
Ifølge en AI-sikkerhedsundersøgelse fra 2025(nyt vindue) fik Microsoft Copilot — som er integreret i værktøjer som Excel, Word og SharePoint — adgang til næsten 3 millioner følsomme optegnelser pr. organisation alene i første halvdel af året. Den fandt også, at organisationer i gennemsnit havde mere end 3.000 interaktioner med Copilot, hvor følsom forretningsinformation kunne have været eksponeret. Og en Google-undersøgelse sagde, at 90 % af arbejderne(nyt vindue) i tech-industrien bruger AI til at skrive eller ændre kode. Selv hvis disse tal er oppustede, er organisationer nødt til at medregne AI-værktøjer i deres trusselsmodel.
Dette er en ny type sikkerhedsrisiko. Disse filer blev ikke delt eksternt. Faktisk er de måske slet ikke blevet delt. Men fordi de var lagret i filer, som Copilot kunne få adgang til, kunne informationen, de indeholder, være blevet indsamlet, uden at brugerne var klar over det.
Dette kan have alvorlige konsekvenser. Politiet i Schweiz(nyt vindue) (kilde på fransk) og FBI i USA(nyt vindue) er allerede blevet taget i at bruge ChatGPT-logs som en del af deres efterforskninger. Hvis Big Tech-virksomheder er et eksempel, kan De forvente, at AI-virksomheder snart vil modtage hundredtusindvis af dataanmodninger fra regeringerne i USA og EU, hvis de ikke allerede gør det.
Sikker lagerplads til data er utroligt svært, når AI-værktøjer er så dybt integreret i de applikationer, De bruger hver dag. Filer lagret i virksomhedsdrev bliver søgbare, opsummerbare og i sidste ende sårbare, hvilket udvisker de traditionelle sikkerhedskoncepter om adgang, tilladelse og tilsyn.
Hvad med Google Workspace & Gemini?
Disse risici er ikke begrænset til Microsoft Copilot. Google Workspace integrerer på samme måde sit AI-værktøj, Gemini, direkte i Drev, Ark og Docs.
Mange virksomheder vil sandsynligvis se på Google Workspace med Gemini-integration som en stærk standard. Ifølge Googles eget websted(nyt vindue): ”Deres data gennemgås ikke af mennesker eller bruges til generativ AI-modeltræning uden for Deres domæne uden tilladelse.”
Reglerne, som Google bruger til at tage information til at træne sit AI-system, er dog skitseret på en måde, der skaber en gråzone og rejser spørgsmål:
- Google bruger nu faktisk forbrugerchats og filuploads til at træne Gemini som standard, medmindre man melder sig fra.
- Google Geminis(nyt vindue) supportsider advarer om, at information delt med dets Gemini Apps vil blive gennemgået af mennesker og kan bruges som et datasæt til at træne AI.
- I sin privatlivsforklaring for Gemini, advarer Google brugere(nyt vindue) om ikke at dele fortrolig information.
- Virksomhedsdokumentation efterlader plads til fortolkning med sætninger som ”uden tilladelse”.
- Sikkerhedsleverandører har flageret betingelser, hvor forretningsdata kunne blive træningsinput, især efterhånden som AI-funktioner bliver tættere integreret i lagerplads til filer, søgning og workflow-værktøjer.
Denne mangel på klarhed er bekymrende, når Gemini er integreret i Drev, Docs og Ark. Det er ikke bare et spørgsmål om fejldeling af filer, men om hvordan disse filer utilsigtet bliver en del af AI-workflows. Hvordan vil AI’en indtage, indeksere, analysere og gemme prompter eller outputs, og vil disse logs stadig være under Deres organisations kontrol?
Selv et velreguleret system som Google Workspace er ikke-privat og lukket kildekode. Sådanne systemer kan afbøde mange risici, men for virksomheder, der ligger inde med meget følsomme data, kan det krævede tillidsniveau stadig være for højt.
Sådan finder De en privat AI til Deres virksomhed
Hver fil, De uploader til eller deler med et AI-aktiveret system, udvider Deres angrebsoverflade. Blot upload af filer til skylagerplads kunne eksponere disse filer for AI-træning, afhængigt af Deres tjeneste og abonnement. Hvis disse uploads opbevares, indekseres eller er tilgængelige på måder, De ikke er klar over eller ikke kan kontrollere, er Deres proprietære værdi i fare.
Før Deres virksomhed vælger et AI-værktøj, bør De spørge, om De kan garantere, at det eller dets system til lagerplads til filer ikke opbevarer eller eksponerer kritiske data.
Her er to konkrete krav, De bør stille til ethvert AI-værktøj til virksomheder:
- Zero‑data opbevaring: AI-systemet bør ikke logge eller gemme prompter, svar eller uploads af filer ud over forretningssessionen, medmindre det udtrykkeligt kræves — og disse logs bør være under Deres virksomheds fulde kontrol.
- Ingen ekstern træning: Deres virksomheds data (inklusive lagrede filer) må ikke bruges til at træne andre modeller uden for forretningsdomænet eller deles på tværs af lejere.
Hvad De kan gøre nu
Før De kan vælge de rigtige værktøjer, skal De vurdere Deres situation og sikre Dem, at De ikke utilsigtet eksponerer følsomme data allerede:
- Udfør en risikoaudit af AI-fillagerplads: Identificer alle delte drev, teammapper og skylagerplads, hvor AI-værktøjer forbinder, og kortlæg derefter, hvilke værktøjer der indtager eller indekserer disse filer.
- Definer en klar styringspolitik for filindtagelse i AI: Specificer hvilke AI-værktøjer der er godkendt, hvilke filtyper der er tilladt, om indeksering af filer i opbevaringssted er slået fra osv.
- Kræv en leverandør/løsning, der tilbyder privat AI med streng kontrol: Vælg en AI-assistent, der tilbyder ”ingen logs, ingen træning, ingen deling” som standard.
- Overvåg og begræns ”skygge-AI”, eller individuelle medlemmer af Deres team, der bruger AI uden for Deres sikkerhedsteams ramme, og uautoriserede uploads af filer til AI-værktøjer. Håndhæv via forebyggelse af datatab og praksis for identitets- og adgangsstyring samt logning af audit.
- Vælg en leverandør, hvis forretningsmodel ikke afhænger af salg eller udtrækning af data. Dette sikrer, at dens incitamenter altid flugter med at holde Deres data sikre.
Proton tilbyder AI’s produktivitet uden risikoen
Ingen virksomhed ønsker uforvarende at overdrage sin følsomme information. Derfor er Proton for Business-værktøjerne bygget op omkring kraftfuld kryptering, der giver Dem kontrol over, hvem der kan få adgang til Deres information.
Proton Drive bruger end-to-end kryptering på alle Deres filer, så ingen, ikke engang Proton, kan få adgang til dem, medmindre De deler dem. Dette forhindrer Deres filer i nogensinde at blive eksponeret for eller brugt til at træne AI. Proton Drive giver Dem også muligheden for at adgangskodebeskytte delingslinks eller slukke for adgang med et enkelt klik, hvilket betyder, at De bevarer kontrollen.
Vi byggede også Lumo for Business, en privat AI-assistent, der kun arbejder for Dem, ikke omvendt. Uden gemte logs og med hver chat og fil, De uploader, krypteret, holder Lumo Deres samtaler fortrolige og Deres data helt under Deres kontrol — aldrig delt, solgt eller stjålet.
Hos Proton bygger vi alle vores produkter med privatliv via design. Virksomheder bør kunne lagre filer og bruge AI med tillid, velvidende at deres mest følsomme information forbliver beskyttet.
I modsætning til Big Tech tjener Proton ikke penge på at sælge Deres data. Vi støttes udelukkende af vores fællesskab, ikke annoncører, og vores base i privatlivsvenlige Europa giver os de juridiske beskyttelser til at sikre, at vi kan leve op til vores løfter. Vigtigst af alt, ejes vi af nonprofitorganisationen Proton Foundation, hvis eneste mission er at fremme privatliv og frihed.
Ved at bruge Lumo for Business(nyt vindue) kan De nyde fordelene ved en avanceret AI-assistent uden risikoen for, at Deres data misbruges.






