S rostoucím využíváním umělé inteligence se AI asistenti(nové okno) stávají důvěryhodnými společníky. Miliony lidí se obracejí na chatboty jako ChatGPT, Claude, Gemini, DeepSeek a další, aby se ptali na otázky a řešili problémy. Jejich dotazy mohou být hluboce citlivé, ptát se na zdravotní obavy, sdílet data klientů nebo hledat emocionální podporu a kreativní inspiraci.
Pro mnohé tito chatboti působí lidsky, vnímavě a důvěrně. Ale nedávný vývoj (Soudní příkaz přinutil OpenAI uchovávat výstupní data ChatGPT(nové okno) na neurčito a Sam Altman, zakladatel OpenAI, říká, že ChatGPT nenabízí „právní důvěrnost(nové okno)“) vrhá světlo na riziko, že každé slovo, které napíšete, by mohlo být logováno, uloženo, analyzováno a možná zneužito nebo vyzrazeno třetím stranám.
Zde je to, co by to mohlo znamenat, a proč by nás to všechny mělo znepokojovat.
S AI jsou sázky vyšší
Vzestup AI asistentů působí jako nová hranice, ale v mnoha ohledech jsme tu už byli. Obavy týkající se logů AI chatu odrážejí ty, které se objevily v počátcích vyhledávačů, z nichž mnohé se ukázaly jako opodstatněné. Logy vyhledávání byly použity k vytvoření lukrativních profilů pro cílení reklam, byly odhaleny při únicích informací a byly vyžádány soudem.
S AI jsou sázky vyšší, protože data jsou osobnější a podrobnější. Rostoucí počet lidí přechází od vyhledávačů k AI chatbotům pro své odpovědi, přičemž se předpovídá, že objem používání vyhledávačů klesne do roku 2026 o 25 %(nové okno). Na rozdíl od vyhledávacího pole, které typicky zachycuje krátké, fragmentované dotazy, jsou otázky pro chatboty formulovány, jako by tazatelé mluvili s jinou osobou, čímž o sobě v procesu prozrazují mnohem více. Jediná konverzace může obsahovat osobní myšlenky(nové okno), emocionální problémy, zdravotní obavy(nové okno), finanční strach nebo dokonce celá jména a adresy.
Stručně řečeno, logy chatu nabízejí neuvěřitelně bohatou a intimní mapu vaší identity, více než logy vyhledávače – a s mnohem většími důsledky pro vaše soukromí. Big Tech by mohl přistupovat k vašim logům chatu a použít je k vytvoření vašeho psychologického profilu, který může být poskytnut vládě nebo použit pro cílenou reklamu. Například Meta používá data z AI chatu k vytváření personalizovaných reklam.
Vaše ‚anonymní‘ chaty takové nezůstanou navždy
Častým argumentem proti obavám o soukromí logů chatu je, že obrovský objem dat činí individuální zneužití nepravděpodobným, zejména když uživatelé nejsou přihlášeni. Nedávná historie však vypráví jiný příběh.
V červenci reportéři zjistili, že více než 100 000 konverzací v ChatGPT(nové okno) bylo indexováno Googlem a stalo se vyhledatelnými. Uživatelé klikající na tlačítko „sdílet“ pro odeslání konverzace přátelům nebo kolegům si téměř jistě neuvědomili, že jejich soukromé konverzace budou viditelné pro každého na internetu.
Tento příklad je varováním: Takzvaná „anonymní“ data jsou zřídkakdy anonymní. Ve spojení s IP adresami, časovými razítky, otisky prstů zařízení a ID relací a cookies se tyto logy stávají mnohem snáze identifikovatelnými.
Jak chaty mohou odhalit naše vnitřní životy
Populární platformy AI ChatGPT(nové okno), Gemini(nové okno) a DeepSeek(nové okno) všechny uvádějí, že logy chatu uživatelů se používají ke zlepšení výkonu modelu a nejsou používány k „prodeji“ vašich dat pro reklamu nebo profilování uživatelů. Ale zásady se mohou změnit přes noc, jak ukazuje právní bitva OpenAI.
Například Anthropic v srpnu 2025 bez varování aktualizoval své zásady ochrany osobních údajů(nové okno), aby prodloužil dobu uchovávání dat. S logy uloženými na neurčito by se osobní data, která se kdysi zdála být tabu, mohla náhle stát lukrativním zdrojem zisků.
Nebylo by to poprvé, co se to stalo. Když Google v roce 1998 začínal, spoluzakladatelé Sergey Brin a Larry Page varovali(nové okno), že vyhledávače založené na reklamě budou nevyhnutelně „přirozeně zaujaté směrem k inzerentům a pryč od potřeb spotřebitelů“. O deset let později Google začal používat historii vyhledávání k cílení reklam(nové okno).
S přímým přístupem k vnitřním životům lidí mohou logy AI posunout cílení reklam až na hranici možností. S rostoucím počtem uživatelů, kteří se obracejí na chatboty s žádostí o emocionální podporu(nové okno), se někdo může svěřit:
- „V poslední době se cítím zahlcený a sám.“
- „Myslíš, že mám depresi?“
- „Co mám dělat, když příští měsíc nemohu zaplatit nájem?“
Tyto výroky nejsou jen klíčová slova nebo sbírka interakcí, jsou to jasné emocionální a situační ukazatele. Pokud jsou uloženy a analyzovány, mohly by být použity k vytvoření psychologických profilů a manipulaci s rozhodnutími uživatelů.
Není poplašné naznačovat, že takové intimní, citlivé informace by mohly být použity ke kořistnickým účelům – protože společnosti Big Tech udělaly přesně to. V roce 2017 Facebook demonstroval, že žádná interakce není tabu, když zkoumal způsoby, jak cílit na emocionálně zranitelné teenagery(nové okno) pomocí reklam ve chvílích nejistoty.
Logy chatbotů jsou oknem do vaší duše. A tato úroveň přístupu vyvolává značné obavy o soukromí a etiku v sektoru, který ještě nemá jasné pokyny a směrnice o používání dat a aplikacích.
Právní rizika pro uživatele
Historie vyhledávání hraje dlouho roli v kriminálním vyšetřování a soudních případech. Existuje několik případů, kdy online dotazy přispěly k odsuzujícím rozsudkům, zejména Moira Akers vs State v USA.
Po prožití porodu mrtvého dítěte v roce 2018 byla Akersová obviněna z vraždy a v roce 2022 odsouzena k 30 letům vězení. Klíčovou součástí případu prokurátora byla internetová vyhledávání Akersové o potratu, provedená během jejích raných stádií těhotenství. Podle obžaloby tato vyhledávání sloužila jako důkaz úmyslu Akersové – navzdory skutečnosti, že těhotenství donosila. Nejvyšší soud v Marylandu zrušil její odsouzení v roce 2025 a rozhodl, že důkaz o vyhledávacím dotazu je nepřípustný(nové okno). Ale Akersová už strávila téměř tři roky ve vězení. Případ zdůrazňuje, jak mohou být uložené logy použity k vyprávění příběhu, který odpovídá nepříznivému narativu, i když existují důkazy, které mu odporují.
Sázky by mohly být ještě vyšší u AI uložených chatů, které mohou být předmětem právních důkazů. Na rozdíl od vyhledávacích dotazů jsou tyto interakce více konverzační a dokonce spekulativní, někdy jako způsob, jak vyvolat určitý typ reakce od LLM nebo velkého jazykového modelu. Soukromá, nevinná výměna s AI by později mohla být v právním nastavení interpretována jako usvědčující, bez ohledu na úmysl v té době.
Mocný nástroj pro manipulaci
Ti, kteří mohou vidět logy chatbotů, mohou získat přístup k podrobným plánům chování: osobním návykům, emocionálním spouštěčům, vztahové dynamice a dokonce i profesionálním zranitelnostem. V nesprávných rukou jsou tato data mocným nástrojem pro sociální inženýrství, což je běžná hackerská taktika zahrnující psychologickou manipulaci.
Toto riziko není zdaleka hypotetické. V lednu 2025 platforma AI DeepSeek ponechala masivní databázi vystavenou online(nové okno). Únik informací zahrnoval přes jeden milion logů AI chatu a klíčů API, vše veřejně přístupné komukoli, kdo věděl, kde hledat. Mezi vystavenými daty byly konverzace v prostém textu, které mohly obsahovat diskuse o rodině, financích a důvěrných projektech – informace, které by mohly být snadno zneužity k podvodu, vydírání nebo krádeži identity.
Jakmile uniknou, mohou být tato data použita jako zbraň k vydávání se za vás nebo k manipulaci s vámi. Odkazováním na osobní detaily čerpané z minulých konverzací mohou útočníci získat vaši důvěru a zneužít ji k vytvoření vážných finančních nebo bezpečnostních zranitelností.
Přízrak politického sledování
V autoritářských režimech mohou být důsledky uložených digitálních interakcí mnohem závažnější. Například několik zemí zakázalo používání platformy AI DeepSeek se sídlem v Číně na vládních zařízeních(nové okno) kvůli bezpečnostním obavám o to, jak jsou osobní informace uživatelů zpracovávány provozovatelem. Jižní Korea, Austrálie a Tchaj-wan vyjádřily obavy, že by k těmto datům mohly přistupovat čínské úřady a potenciálně je použít ke sledování.
Pro disidenty, aktivisty nebo novináře to není jen problém soukromí, je to otázka bezpečnosti. Zdánlivě nezávazný chat o protestních právech, mediálních zákonech nebo cestách k azylu by mohl být interpretován jako usvědčující důkaz v jurisdikcích s omezenou ochranou svobody projevu a občanských svobod.
Hrozba pro duševní vlastnictví
V roce 2023 inženýři Samsungu neúmyslně nahráli proprietární zdrojový kód(nové okno) do ChatGPT, když se snažili ladit problém, v mylném domnění, že jejich dotazy byly soukromé. Jakmile byla data odeslána, stala se součástí tréninkového systému OpenAI, což vyvolalo obavy o bezpečnost a vlastnictví duševního vlastnictví sdíleného s nástroji AI.
Související obava se objevila v ostře sledovaném případu autorských práv vedeném The New York Times proti OpenAI(nové okno) zmíněném na začátku tohoto článku. Případ podnítil soudní příkaz vyžadující, aby OpenAI uchovávala všechna výstupní data ChatGPT na neurčito po obviněních, že společnost použila miliony článků novin k trénování svých modelů bez svolení. Ačkoli se případ točí kolem web crawlerů OpenAI stahujících zpravodajský obsah, vyvolává širší otázky pro kreativce – spisovatele, designéry, hudebníky a další – kteří přispívají originální prací na platformy AI.
Pokud je obsah odeslaný uživatelem uchováván a znovu použit modelem, existuje reálné riziko, že proprietární nebo kreativní materiál by mohl být redistribuován jiným uživatelům bez uvedení autora nebo souhlasu. To stírá hranici mezi příspěvkem uživatele a tréninkovými daty AI a vyvolává naléhavé otázky ohledně autorství a vlastnictví v éře generativní AI.
Co se musí změnit a jak se chránit
Většina lidí chce a očekává soukromí ve svém skutečném životě. Věříme, že stejná očekávání by se měla vztahovat i na digitální životy lidí. Vytvořili jsme sadu šifrovaných služeb, které zpřístupňují online soukromí každému, ať už posíláte e-maily přátelům, streamujete své oblíbené pořady(nové okno), nebo zálohujete fotky. Není příliš pozdě napravit rané chyby internetu a vzhledem k tomu, že AI je v počátcích, je stále čas vytyčit pro tuto technologii nový kurz, který respektuje vaše soukromí.
Našeho AI asistenta(nové okno) Lumo jsme vytvořili tak, aby již od návrhu dodržoval klíčové ochrany:
- Žádné logování dat: Uživatelé by měli být schopni komunikovat s chatboty bez obav, že jejich příspěvky budou uloženy, použity pro zisk nebo použity proti nim.
- Žádné trénování modelu: Soukromé chaty by nikdy neměly být zneužívány jako tréninková data, protože hrozí riziko, že se později znovu objeví ve výstupech modelu.
- Transparentnost při zpracování dat: Mělo by být jasné, jak jsou uložená data uživatelů používána, kdo k nim může získat přístup, kde jsou uložena, jak dlouho jsou uchovávána a jak mohou být smazána.
- Šifrování s nulovým přístupem ve výchozím nastavení: Konverzace by měly být zabezpečeny pomocí šifrovacích klíčů uživatele, takže přístup nemůže získat ani poskytovatel AI.
I když jsou nebezpečí chatbotů, kteří tiše logují naše data, reálná a naléhavá, nejsme bezmocní. Výběrem nástrojů AI zaměřených na soukromí a vyžadováním transparentnosti a odpovědnosti od jejich tvůrců můžeme přesunout rovnováhu moci zpět do rukou uživatelů a potvrdit přesvědčení, že soukromí je právo, nikoli výsada.






