AI tu zůstane a společnosti teprve začínají zjišťovat, jak využít její sílu k podpoře svého podnikání. Společnosti každý den spěchají s integrací AI do bezpočtu pracovních postupů: Používá se k sumarizaci dokumentů, automatizaci zpráv, vytváření prediktivní analytiky a poskytování podpory pomocí chatbotů. Tyto změny probíhají rychle a otevírají nové dveře velkým i malým podnikům, ale tyto změny také potenciálně vystavují cenná proprietární data společností novým rizikům.
Když podniky zpřístupní své důvěrné informace AI, není vždy jasné, zda by tyto informace mohly být znovu použity nebo indexovány velkými jazykovými modely (LLM) jako trénovací data. Existuje také mnoho příkladů citlivých informací, které byly neúmyslně odhaleny nástroji AI. Nejde jen o obavy o soukromí; jsou to bezpečnostní rizika, která musí každá společnost zvážit, než použije nástroje AI na své uložené soubory.
Jak může AI ohrozit vaše soubory, aniž byste o tom věděli
AI se vyvíjela a šířila exponenciální rychlostí. Zatímco většina lidí nejlépe zná chatboty, jako jsou ChatGPT nebo Claude, Big Tech integruje systémy generativní AI, které dokážou ingestovat, indexovat a sumarizovat obsah do tabulkových, dokumentových a e-mailových služeb. Tato integrace přináší výkonné schopnosti, ale zavádí značné riziko, kterého si je vědom jen málokdo.
Podle průzkumu bezpečnosti AI z roku 2025(nové okno) přistupoval Microsoft Copilot – který je vložený do nástrojů jako Excel, Word a SharePoint – k téměř 3 milionům citlivých záznamů na organizaci jen v první polovině roku. Zjistilo se také, že organizace v průměru provedly více než 3 000 interakcí s Copilotem, při kterých mohly být odhaleny citlivé obchodní informace. A studie Google uvedla, že 90 % pracovníků(nové okno) v technologickém průmyslu používá AI k psaní nebo úpravě kódu. I když jsou tato čísla nadsazená, organizace musí zahrnout nástroje AI do svého modelu rizik.
Toto je nový typ bezpečnostního rizika. Tyto soubory nebyly sdíleny externě. Ve skutečnosti možná nebyly sdíleny vůbec. Ale protože byly uloženy v souborech, ke kterým mohl Copilot přistupovat, informace, které obsahují, mohly být shromážděny, aniž by si to uživatelé uvědomili.
To může mít vážné následky. Policie ve Švýcarsku(nové okno) (zdroj ve francouzštině) a FBI v USA(nové okno) již byly přistiženy při používání logů ChatGPT jako součásti svých vyšetřování. Pokud jsou společnosti Big Tech příkladem, můžete očekávat, že společnosti AI brzy obdrží stovky tisíc žádostí o data od vlád USA a EU, pokud se tak již nestalo.
Bezpečné ukládání dat je neuvěřitelně obtížné, když jsou nástroje AI tak hluboce vloženy do aplikací, které používáte každý den. Soubory uložené v podnikových discích se stávají prohledávatelnými, sumarizovatelnými a nakonec zranitelnými, což stírá tradiční bezpečnostní koncepty přístupu, oprávnění a dohledu.
A co Google Workspace a Gemini?
Tato rizika se neomezují pouze na Microsoft Copilot. Google Workspace podobně integruje svůj nástroj AI, Gemini, přímo do Disku, Tabulek a Dokumentů.
Mnoho podniků bude pravděpodobně považovat Google Workspace s integrací Gemini za silnou výchozí volbu. Podle vlastního webu Google(nové okno): „Vaše data nejsou kontrolována lidmi ani používána pro trénování modelů generativní AI mimo vaši doménu bez povolení.“
Pravidla, která Google používá k získávání informací pro trénování svého systému AI, jsou však nastíněna způsobem, který vytváří šedou zónu a vyvolává otázky:
- Google nyní skutečně používá spotřebitelské chaty a nahrávky souborů k trénování Gemini ve výchozím nastavení, pokud to není odhlášeno.
- Stránky podpory Google Gemini(nové okno) varují, že informace sdílené s jeho aplikacemi Gemini budou kontrolovány lidmi a mohly by být použity jako datová sada pro trénování AI.
- Ve svém vysvětlení ochrany soukromí Gemini Google varuje uživatele(nové okno), aby nesdíleli důvěrné informace.
- Podniková dokumentace ponechává prostor pro interpretaci frázemi jako „bez povolení“.
- Prodejci zabezpečení označili podmínky, za kterých by se obchodní data mohla stát vstupem pro trénování, zejména s tím, jak se funkce AI těsněji integrují do ukládání souborů, vyhledávání a nástrojů pracovních postupů.
Tento nedostatek jasnosti je znepokojující, když je Gemini integrován do Disku, Dokumentů a Tabulek. Není to jen otázka špatně sdílených souborů, ale toho, jak se tyto soubory neúmyslně stávají součástí pracovních postupů AI. Jak bude AI ingestovat, indexovat, analyzovat a ukládat výzvy nebo výstupy a budou tyto logy stále pod kontrolou vaší organizace?
Dokonce i dobře spravovaný systém jako Google Workspace není soukromý a má uzavřený zdrojový kód. Takové systémy mohou zmírnit mnoho rizik, ale pro podniky držící vysoce citlivá data může být požadovaná úroveň důvěry stále příliš vysoká.
Jak najít soukromou AI pro vaše podnikání
Každý soubor, který nahrajete nebo sdílíte se systémem s podporou AI, rozšiřuje vaši plochu útoku. Pouhé nahrání souborů do cloudového úložiště by mohlo tyto soubory vystavit trénování AI, v závislosti na vaší službě a plánu. Pokud jsou tato nahrání uchovávána, indexována nebo přístupná způsoby, o kterých nevíte nebo které nemůžete kontrolovat, je vaše proprietární hodnota ohrožena.
Než si vaše firma vybere nástroj AI, měli byste se zeptat, zda můžete zaručit, že on nebo jeho systém ukládání souborů nebudou uchovávat nebo odhalovat kritická data.
Zde jsou dva konkrétní požadavky, které byste měli mít na jakýkoli firemní nástroj AI:
- Nulové uchovávání dat: Systém AI by neměl logovat ani ukládat výzvy, odpovědi ani nahrávky souborů nad rámec obchodní relace, pokud to není výslovně vyžadováno – a tyto logy by měly být pod plnou kontrolou vaší firmy.
- Žádné externí trénování: Data vaší firmy (včetně uložených souborů) nesmí být použita k trénování jiných modelů mimo obchodní doménu ani sdílena napříč tenanty.
Co můžete udělat nyní
Než si budete moci vybrat správné nástroje, musíte zhodnotit svou situaci a ujistit se, že již neúmyslně neodhalujete citlivá data:
- Proveďte audit rizik ukládání souborů AI: Identifikujte všechny sdílené disky, týmové složky a cloudová úložiště, kde se připojují nástroje AI, a poté zmapujte, které nástroje tyto soubory ingestují nebo indexují.
- Definujte jasnou zásadu správy pro vkládání souborů do AI: Specifikujte, které nástroje AI jsou schváleny, jaké typy souborů jsou povoleny, zda je vypnuto indexování souborů úložiště atd.
- Požadujte dodavatele/řešení, které nabízí soukromou AI s přísnými kontrolami: Vyberte si asistenta AI, který nabízí „žádné logy, žádné trénování, žádné sdílení“ jako základ.
- Monitorujte a omezujte „stínovou AI“ nebo jednotlivé členy vašeho týmu používající AI mimo rámec vašeho bezpečnostního týmu a neoprávněná nahrání souborů do nástrojů AI. Vynuťte to prostřednictvím prevence ztráty dat a postupů správy identit a přístupu, jakož i logování auditu.
- Vyberte si dodavatele, jehož obchodní model nespoléhá na prodej nebo získávání dat. To zajišťuje, že jeho pobídky jsou vždy v souladu s udržováním vašich dat v bezpečí.
Proton nabízí produktivitu AI bez rizika
Žádná firma nechce nevědomky předat své citlivé informace. Proto jsou nástroje Proton for Business postaveny na silném šifrování, které vám dává kontrolu nad tím, kdo může přistupovat k vašim informacím.
Proton Drive používá koncové šifrování pro všechny vaše soubory, takže k nim nikdo, ani Proton, nemůže přistupovat, pokud je nesdílíte. To zabraňuje tomu, aby byly vaše soubory kdy vystaveny nebo použity k trénování AI. Proton Drive vám také dává možnost chránit heslem odkazy pro sdílení nebo vypnout přístup jediným kliknutím, což znamená, že si ponecháte kontrolu.
Vytvořili jsme také Lumo for Business, soukromého asistenta AI, který pracuje pouze pro vás, ne naopak. Díky tomu, že se neuchovávají žádné logy a každý chat a soubor, který nahrajete, je šifrovaný, udržuje Lumo vaše konverzace důvěrné a vaše data plně pod vaší kontrolou – nikdy nejsou sdílena, prodávána ani ukradena.
Ve společnosti Proton vytváříme všechny naše produkty s ochranou soukromí již od návrhu. Podniky by měly být schopny ukládat soubory a používat AI s důvěrou, s vědomím, že jejich nejcitlivější informace zůstávají chráněny.
Na rozdíl od Big Tech Proton nevydělává peníze prodejem vašich dat. Jsme podporováni výhradně naší komunitou, nikoli inzerenty, a naše základna v Evropě, která je přátelská k soukromí, nám poskytuje právní ochranu, která zajišťuje, že můžeme dostát svým slibům. Nejdůležitější je, že jsme vlastněni neziskovou organizací Proton Foundation, jejímž jediným posláním je prosazovat soukromí a svobodu.
Používáním Lumo for Business(nové okno) můžete využívat výhod pokročilého asistenta AI bez rizika zneužití vašich dat.

