AI is een blijvertje en bedrijven beginnen nog maar net te ontdekken hoe ze de kracht ervan kunnen benutten om hun bedrijf te stimuleren. Elke dag haasten bedrijven zich om AI te integreren in talloze workflows: het wordt gebruikt om documenten samen te vatten, rapporten te automatiseren, voorspellende analyses te maken en ondersteuning te bieden met chatbots. Deze veranderingen vinden snel plaats en openen nieuwe deuren voor grote en kleine bedrijven, maar deze veranderingen stellen de waardevolle bedrijfseigen gegevens van bedrijven mogelijk ook bloot aan nieuwe risico’s.

Wanneer bedrijven hun vertrouwelijke informatie toegankelijk maken voor AI, is het niet altijd duidelijk of deze informatie kan worden hergebruikt of geïndexeerd door grote taalmodellen (LLM’s) als trainingsgegevens. Er zijn ook talloze voorbeelden van gevoelige informatie die onbedoeld wordt blootgesteld door AI-tools. Dit zijn niet alleen privacyzorgen; het zijn beveiligingsrisico’s die elk bedrijf moet overwegen voordat ze AI-tools gebruiken op hun opgeslagen bestanden.

Hoe AI uw bestanden in gevaar kan brengen zonder dat u het weet

AI is geëvolueerd en verspreidt zich in een exponentieel tempo. Terwijl de meeste mensen het meest vertrouwd zijn met chatbots, zoals ChatGPT of Claude, integreert Big Tech generatieve AI-systemen die content kunnen verwerken, indexeren en samenvatten in spreadsheet-, document- en e-maildiensten. Deze integratie brengt krachtige mogelijkheden met zich mee, maar introduceert ook aanzienlijke risico’s waarvan maar weinig mensen zich bewust zijn.

Volgens een AI-beveiligingsonderzoek uit 2025(nieuw venster), kreeg Microsoft Copilot — dat is ingesloten in tools zoals Excel, Word en SharePoint — alleen al in de eerste helft van het jaar toegang tot bijna 3 miljoen gevoelige records per organisatie. Het vond ook dat organisaties gemiddeld meer dan 3.000 interacties hadden met Copilot waarbij gevoelige bedrijfsinformatie blootgesteld had kunnen worden. En een Google-studie stelde dat 90% van de werknemers(nieuw venster) in de tech-industrie AI gebruikt om code te schrijven of aan te passen. Zelfs als deze cijfers opgeblazen zijn, moeten organisaties AI-tools opnemen in hun bedreigingsmodel.

Dit is een nieuw type beveiligingsrisico. Deze bestanden werden niet extern gedeeld. Sterker nog, ze zijn misschien helemaal niet gedeeld. Maar omdat ze waren opgeslagen in bestanden waartoe Copilot toegang had, kan de informatie die ze bevatten verzameld zijn zonder dat gebruikers zich dat realiseerden.

Dit kan ernstige gevolgen hebben. De politie in Zwitserland(nieuw venster) (bron in het Frans) en de FBI in de VS(nieuw venster) zijn al betrapt op het gebruik van ChatGPT-logboeken als onderdeel van hun onderzoeken. Als Big Tech-bedrijven een voorbeeld zijn, kunt u verwachten dat AI-bedrijven binnenkort honderdduizenden gegevensverzoeken van de Amerikaanse en EU-overheid zullen ontvangen, als dat nog niet gebeurt.

Veilige gegevensopslag is ongelooflijk moeilijk wanneer AI-tools zo diep zijn ingesloten in de toepassingen die u elke dag gebruikt. Bestanden die zijn opgeslagen in enterprise-drives worden doorzoekbaar, samenvatbaar en uiteindelijk kwetsbaar, waardoor de traditionele beveiligingsconcepten van toegang, toestemming en toezicht vervagen.

Hoe zit het met Google Workspace & Gemini?

Deze risico’s beperken zich niet tot Microsoft Copilot. Google Workspace integreert op soortgelijke wijze zijn AI-tool, Gemini, rechtstreeks in Drive, Sheets en Docs.

Veel ondernemingen zullen waarschijnlijk kijken naar Google Workspace met Gemini-integratie als een sterke standaard. Volgens Google’s eigen site(nieuw venster): “Uw gegevens worden niet door mensen beoordeeld of gebruikt voor generatieve AI-modeltraining buiten uw domein zonder toestemming.”

De regels die Google hanteert om informatie te gebruiken voor het trainen van zijn AI-systeem zijn echter zo omschreven dat er een grijs gebied ontstaat en vragen worden opgeroepen:

  • Google gebruikt nu standaard wel consumentenchats en bestandsuploads om Gemini te trainen, tenzij u zich hiervoor afmeldt.
  • De ondersteuningspagina’s van Google Gemini(nieuw venster) waarschuwen dat informatie die wordt gedeeld met zijn Gemini Apps, door mensen wordt beoordeeld en gebruikt kan worden als een dataset om AI te trainen.
  • In zijn Gemini-privacyuitleg, waarschuwt Google gebruikers(nieuw venster) om geen vertrouwelijke informatie te delen.
  • Enterprise-documentatie laat ruimte voor interpretatie met zinnen als “zonder toestemming”.
  • Beveiligingsleveranciers hebben voorwaarden gesignaleerd waaronder bedrijfsgegevens trainingsinvoer zouden kunnen worden, vooral naarmate AI-functies nauwer worden geïntegreerd in tools voor bestandsopslag, zoeken en workflows.

Dit gebrek aan duidelijkheid is zorgwekkend wanneer Gemini geïntegreerd is in Drive, Docs en Sheets. Het is niet alleen een kwestie van het verkeerd delen van bestanden, maar ook van hoe deze bestanden onbedoeld onderdeel worden van AI-workflows. Hoe zal de AI prompts of outputs verwerken, indexeren, analyseren en opslaan, en vallen die logboeken dan nog onder de controle van uw organisatie?

Zelfs een goed beheerd systeem als Google Workspace is niet-privé en closed source. Dergelijke systemen kunnen veel risico’s beperken, maar voor bedrijven die zeer gevoelige gegevens beheren, kan het vereiste vertrouwensniveau nog steeds te hoog zijn.

Hoe u een privé-AI voor uw bedrijf vindt

Elk bestand dat u uploadt naar of deelt met een AI-enabled systeem vergroot uw aanvalsoppervlak. Het simpelweg uploaden van bestanden naar cloudopslag kan die bestanden blootstellen aan AI-training, afhankelijk van uw dienst en abonnement. Als die uploads worden bewaard, geïndexeerd of toegankelijk zijn op manieren waarvan u zich niet bewust bent of die u niet kunt controleren, loopt uw bedrijfseigen waarde gevaar.

Voordat uw bedrijf een AI-tool kiest, moet u vragen of u de garantie kunt krijgen dat de tool of het bestandsopslagsysteem ervan geen kritieke gegevens zal bewaren of blootstellen.

Hier zijn twee concrete eisen die u aan elke zakelijke AI-tool moet stellen:

  • Zero-data retentie: Het AI-systeem mag geen prompts, reacties of bestandsuploads loggen of opslaan na de zakelijke sessie, tenzij expliciet vereist — en die logboeken moeten onder de volledige controle van uw bedrijf staan.
  • Geen externe training: De gegevens van uw bedrijf (inclusief opgeslagen bestanden) mogen niet worden gebruikt om andere modellen buiten het bedrijfsdomein te trainen of over tenants heen te delen.

Wat u nu kunt doen

Voordat u de juiste tools kunt kiezen, moet u uw situatie beoordelen en ervoor zorgen dat u niet onbedoeld al gevoelige gegevens blootstelt:

  • Voer een risico-audit uit voor AI-bestandsopslag: Identificeer alle gedeelde drives, teammappen en cloudopslag waar AI-tools verbinding maken, en breng vervolgens in kaart welke tools die bestanden verwerken of indexeren.
  • Definieer een duidelijk governancebeleid voor bestandsopname in AI: Specificeer welke AI-tools zijn goedgekeurd, welke bestandstypes zijn toegestaan, of indexering van repositorybestanden is uitgeschakeld, enz.
  • Eis een leverancier/oplossing die privé-AI biedt met strenge controles: Kies een AI-assistent die “geen logboeken, geen training, geen delen” als basis biedt.
  • Monitor en beperk “shadow AI”, of individuele leden van uw team die AI gebruiken buiten het kader van uw beveiligingsteam, en ongeautoriseerde bestandsuploads naar AI-tools. Handhaaf dit via preventie van gegevensverlies en identiteits- en toegangsbeheerpraktijken evenals auditlogging.
  • Kies een leverancier wiens bedrijfsmodel niet afhankelijk is van het verkopen of extraheren van gegevens. Dit zorgt ervoor dat hun belangen altijd overeenkomen met het veilig houden van uw gegevens.

Proton biedt de productiviteit van AI zonder het risico

Geen enkel bedrijf wil onbedoeld zijn gevoelige informatie overdragen. Daarom zijn de Proton for Business-tools gebouwd rond krachtige versleuteling die u de controle geeft over wie toegang heeft tot uw informatie.

Proton Drive gebruikt end-to-end versleuteling op al uw bestanden, zodat niemand, zelfs Proton niet, er toegang toe heeft tenzij u ze deelt. Dit voorkomt dat uw bestanden ooit worden blootgesteld aan of gebruikt voor het trainen van AI. Proton Drive geeft u ook de mogelijkheid om koppelingen voor delen met een wachtwoord te beveiligen of de toegang met één klik uit te schakelen, wat betekent dat u de controle behoudt.

We hebben ook Lumo for Business gebouwd, een privé AI-assistent die alleen voor u werkt, niet andersom. Omdat er geen logboeken worden bijgehouden en elke chat en elk bestand dat u uploadt versleuteld is, houdt Lumo uw gesprekken vertrouwelijk en uw gegevens volledig onder uw controle — nooit gedeeld, verkocht of gestolen.

Bij Proton bouwen we al onze producten met privacy by design. Bedrijven moeten met vertrouwen bestanden kunnen opslaan en AI kunnen gebruiken, wetende dat hun meest gevoelige informatie beschermd blijft.

In tegenstelling tot Big Tech verdient Proton geen geld door uw gegevens te verkopen. We worden uitsluitend ondersteund door onze community, niet door adverteerders, en onze basis in het privacyvriendelijke Europa geeft ons de wettelijke bescherming om ervoor te zorgen dat we onze beloften kunnen nakomen. Het belangrijkste is dat we eigendom zijn van de non-profit Proton Foundation, die als enige missie heeft om privacy en vrijheid te bevorderen.

Door Lumo for Business(nieuw venster) te gebruiken, kunt u genieten van de voordelen van een geavanceerde AI-assistent zonder het risico dat uw gegevens worden misbruikt.