Častou mylnou představou je, že pokud nepoužíváte velké jazykové modely (LLM) jako ChatGPT pro chatování, Midjourney pro generování obrázků nebo Sora pro generování videí, jste před umělou inteligencí (AI) v bezpečí. Ať už ji používáte nebo ne, AI se již dotýká vašeho života.
Například když fotíte na Androidu, Fotky Google automaticky skenují a označují štítky každou osobu ve vaší knihovně fotek pomocí rozpoznávání obličeje. Zveřejňování příspěvků na sociálních sítích bez změny výchozího nastavení vytváří veřejné příspěvky, které mohou být vytěženy do masivních datových sad používaných k trénování LLM. Dokonce i personalizované reklamy na webech nebo v aplikacích jsou poháněny AI trénovanou na vašich preferencích procházení a nakupování.
Toto pohodlí stojí vaše soukromí a může mít hluboký dopad na váš život. Dvacet fotografií pořízených ze sociálního kanálu vašeho dítěte stačí k vytvoření 30sekundového deepfake videa, které lze použít k vydírání, šikaně nebo krádeži identity.
Zde je to, co je v sázce, když má AI přístup k vašim osobním údajům, a co můžete udělat pro ochranu svého soukromí online.
- Jak AI riskuje vaše soukromí?
- Vaše osobní údaje mohou být shromažďovány
- Můžete být znovu identifikováni
- Vaše data mohou být sdílena s třetími stranami
- Žádosti o smazání dat nemusí fungovat
- Ostatní lidé mohou vidět vaše soukromé chaty
- Může s vámi být zacházeno nespravedlivě
- Cílení reklam je stále ostřejší
- Cloudové úložiště může odhalit vaše data
- AI může dělat chyby
- Deepfakes může vytvořit kdokoli
- Jak udržet svá data v soukromí před systémy AI
Jak AI riskuje vaše soukromí?
AI může narušit soukromí tím, že shromažďuje příliš mnoho, vyvozuje příliš mnoho a sdílí příliš mnoho.
Vaše osobní údaje mohou být shromažďovány
Systémy AI se stávají přesnějšími díky trénování na obrovském množství dat, často vytěžených z veřejně dostupných zdrojů, jako jsou vaše příspěvky na Facebooku(nové okno), fotky na Flickru(nové okno) nebo vlákna na Redditu(nové okno). Běžné příspěvky na sociálních sítích, rodinné fotografie a detaily profilu – často obsahující citlivé informace a původně sdílené z osobních nebo společenských důvodů – byly zahrnuty do datových sad používaných k trénování miliardových LLM a systémů rozpoznávání obličeje. Děje se tak proto, že Big Tech považuje online obsah za volně dostupný pro použití AI, bez výslovného souhlasu nebo ohledu na duševní vlastnictví.
Můžete být znovu identifikováni
Technologické společnosti tvrdí, že vaše osobní údaje nelze zpětně dohledat, jakmile byly deidentifikovány nebo pseudoanonymizovány, což znamená, že zjevné identifikátory jako jména nebo telefonní čísla jsou odstraněny. Tato ochrana je však křehká, protože anonymizované datové sady lze znovu identifikovat křížovým odkazováním s jinými zdroji dat, jako jsou profily na sociálních sítích nebo geolokační stopy.
Například uživatelé Netflixu byli znovu identifikováni(nové okno) porovnáním jejich anonymních hodnocení filmů s informacemi z IMDb. Jedna studie(nové okno) ukazuje, že téměř každý Američan může být v jakékoli datové sadě vyčleněn pouze pomocí 15 demografických ukazatelů. S přidáním síly AI pro porovnávání vzorů se opětovná identifikace stala rychlejší, snazší a dostupnou komukoli.
Vaše data mohou být sdílena s třetími stranami
Když používáte systémy AI, vaše data nezůstávají vždy u společnosti, u které jste se zaregistrovali. Mohou být sdílena s partnery nebo zpracovateli třetích stran – o některých jste pravděpodobně nikdy neslyšeli – kteří mohou s vašimi daty nakládat podle vlastních podmínek a bezpečnostních standardů.
V tu chvíli se soukromí stává cvičením v důvěře. Už nespoléháte jen na společnost, kterou znáte, že ochrání vaše informace, ale na celý řetězec neznámých externích aktérů, z nichž každý má svou vlastní infrastrukturu, zásady a zranitelnosti. Každá ruka, která se dotkne vašich dat, rozšiřuje plochu útoku a odpovědnost se stírá.
Například únik zahrnující partnera OpenAI vedl k odhalení uživatelských dat API, což ukazuje, jak se přístup třetích stran může stát nejslabším článkem systému.
Žádosti o smazání dat nemusí fungovat
Jakmile vaše data vytrénují model AI, vzít je zpět je téměř nemožné, protože formují celkové chování modelu. Strojové odnaučování – techniky, jak přimět model zapomenout – je stále v raných fázích, takže jedinou dnešní možností by bylo model přetrénovat. A i když společnost tvrdí, že vyhověla vaší žádosti o smazání dat, prakticky neexistuje způsob, jak to potvrdit(nové okno).
Ostatní lidé mohou vidět vaše soukromé chaty
LLM jako ChatGPT(nové okno), Meta AI(nové okno) a Grok(nové okno) odhalily soukromé konverzace prostřednictvím svých funkcí sdílení, přičemž chaty byly indexovány vyhledávači a staly se veřejně dohledatelnými. Platformy nebyly ohledně tohoto rizika dostatečně transparentní a nechaly uživatele v nevědomosti, že to, co vypadalo jako soukromá výměna, by mohlo být viditelné pro kohokoli na internetu.
Může s vámi být zacházeno nespravedlivě
Pokud data používaná systémy AI k učení vzorů obsahují skryté předsudky – například z historických nerovností nebo neúplných datových sad – AI může tyto vzory posilovat nebo zesilovat. Sázky jsou vyšší u nesoukromých systémů AI od Big Tech, které jsou uzavřené (closed-source) a fungují jako černé skříňky, které nelze nezávisle přezkoumat. Tyto systémy mohou používat citlivé atributy jako rasu, pohlaví nebo PSČ (ZIP kód) k provádění automatizovaných rozhodnutí v prediktivním policejním dozoru(nové okno), náboru(nové okno), zdravotnictví(nové okno) nebo hodnocení úvěruschopnosti(nové okno).
Cílení reklam je stále ostřejší
Zatímco nesoukromá AI dělá reklamy chytřejšími tím, že umožňuje hyper-cílení, často narušuje soukromí celé vaší rodiny. Například Publicis, zprostředkovatel dat a největší reklamní společnost na světě, tvrdí, že profiluje 2,3 miliardy lidí a sleduje detaily jako rodinné preference a příjem(nové okno), aby rozhodla, zda na ně cílit rozpočtové nebo prémiové produkty.
S AI chatboty nahrazujícími tradiční vyhledávání nás reklamy následují do tohoto nového prostoru. Například Perplexity vkládá reklamy do odpovědí generovaných AI(nové okno) a podala nabídku 34,5 miliardy dolarů na koupi Google Chrome – krok zaměřený na získání přístupu k více než 3 miliardám uživatelů prohlížeče a intimním behaviorálním datům, která s tím souvisí.
Cloudové úložiště může odhalit vaše data
Poskytovatelé cloudového úložiště bez koncového šifrování (E2EE) mohou přistupovat k fotkám, dokumentům a citlivým souborům, které nahrajete. Mohou tato data také použít k napájení nástrojů AI, generování poznatků o vás nebo zobrazování personalizovaných reklam.
Například Disk Google si ponechává přístup k vašim datům a používá je pro funkce AI, jako je kontrola pravopisu a automatické dokončování v Dokumentech Google. Pokud Gemini, asistent AI od Googlu, zůstane těsně integrován s Google Workspace, dotazy, které zadáváte o svých souborech na Disku, by se také mohly promítnout do trénování AI.
Podobně Microsoft oznámil, že Word, Excel a PowerPoint budou brzy ve výchozím nastavení automaticky ukládat na OneDrive, což je další služba bez E2EE, kde budoucí využití vašich dat pro reklamu nebo trénování AI zůstává nejisté.
AI může dělat chyby
Automatizované systémy by mohly skenovat vaši soukromou komunikaci a označit ji jako podezřelou. Navrhovaný zákon EU o kontrole chatu (Chat Control) by vyžadoval, aby služby zasílání zpráv jako WhatsApp a Signal používaly AI ke skenování každé soukromé zprávy a fotografie za účelem detekce materiálu sexuálního zneužívání dětí (CSAM).
To však znamená sledování konverzací všech, nejen těch podezřelých ze zločinu. A historie ukazuje, jak snadno může AI chybovat. Účet Google jednoho otce byl například zrušen(nové okno) a nahlášen úřadům poté, co poslal fotografii svého dítěte lékaři. To, co by mělo zůstat mezi vámi a vaším lékařem nebo vámi a vaší rodinou, by mohlo být náhle vystaveno technologickým společnostem a orgánům činným v trestním řízení.
Deepfakes může vytvořit kdokoli
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Špatní aktéři zneužívají deepfakes ke krádeži identity, podvodům, vydírání nebo poškození pověsti – a rizika se týkají i dětí. V roce 2019 zločinci použili deepfake zvuk k napodobení hlasu generálního ředitele(nové okno) a oklamali zaměstnance, aby převedl 220 000 €. Rizika se týkají i dětí. V jednom incidentu predátor vytvořil deepfake obrázek 14letého dítěte(nové okno), aby vymohl peníze vyhrožováním, že jej bude sdílet.
Jak udržet svá data v soukromí před systémy AI
S AI systémy existuje mnoho obav o soukromí, zejména u nesoukromých modelů s uzavřeným zdrojovým kódem provozovaných Big Tech. A i když nemůžete těmto systémům plně zabránit ve vytěžování nebo zneužívání vašich dat, jakmile jsou venku, můžete snížit svou stopu, požadovat odpovědnost a vybrat si AI zaměřenou na soukromí (privacy-first), která vaše data nezneužívá. Zde je to, co můžete udělat:
- Na sociálních sítích nastavte své profily a příspěvky jako soukromé, smažte staré nahrané soubory, odstraňte EXIF data z fotografií před sdílením a vyhněte se sdílení identifikovatelných detailů – jako jsou adresy, celá jména dětí nebo školy, které navštěvují. Zjistěte více o tom, jak spravovat internet pro svou rodinu.
- Zkontrolujte nastavení soukromí svých aplikací. Například Meta AI by mohla skenovat vaše fotky v galerii a videa v aplikaci Facebook pro Android a iOS.
- Chraňte se před deepfakes rozmazáním nebo začerněním tváří členů rodiny před zveřejněním fotografií online.
- Maskujte svou digitální stopu pomocí virtuální privátní sítě (VPN)(nové okno) ke skrytí vaší IP adresy a používejte aliasy k ochraně vaší e-mailové adresy při zveřejňování citlivých informací, u kterých nechcete, aby byly zpětně dohledatelné k vám.
- Používejte služby zaměřené na soukromí, které vaše data nezpeněžují, jako je Signal pro bezpečné zasílání zpráv a Brave nebo DuckDuckGo pro soukromé procházení.
- Pro bezpečné uložení vašich nejcitlivějších souborů, včetně soukromých fotografií a důvěrných dokumentů, používejte Proton Drive pro koncově šifrované cloudové úložiště. Na rozdíl od platforem, které mohou odhalit údajně soukromý obsah, Drive neskenuje, neindexuje ani nepoužívá vaše data pro trénování AI – a nemůže je vidět nikdo jiný, i když se rozhodnete je sdílet. Udržování vašich fotografií ve skutečném soukromí také znamená, že neskončí online, kde by mohly být zneužity k vytvoření deepfakes.
- Odhlaste se z trénování AI, kdykoli je to možné, například v Gemini, ChatGPT(nové okno), Claude(nové okno) nebo Meta AI. Zásady se mohou změnit přes noc s malým varováním, takže pokud chcete výhody AI i soukromí, přejděte na Lumo – našeho asistenta AI zaměřeného na soukromí(nové okno), který neuchovává logy ani netrénuje na vašich datech.
Silnější směrnice o soukromí AI, jako je Akt EU o AI(nové okno), budou zásadní pro navrácení moci zpět uživatelům internetu. Do té doby je nejlepší obranou být si vědom toho, co sdílíte online, požadovat odpovědnost od společností, které tyto systémy budují, a vybírat si transparentní nástroje AI(nové okno), které respektují soukromí od základu.






