IA este aici pentru a rămâne, iar companiile abia încep să își dea seama cum să îi valorifice puterea pentru a-și conduce afacerea. În fiecare zi, companiile se grăbesc să integreze IA în nenumărate fluxuri de lucru: Este folosită pentru a rezuma documente, a automatiza rapoarte, a crea analize predictive și a oferi asistență cu chatbots. Aceste schimbări se întâmplă rapid și deschid uși noi pentru întreprinderile mari și mici, dar aceste schimbări expun, de asemenea, datele proprietare valoroase ale companiilor la noi riscuri.
Când companiile își fac informațiile confidențiale accesibile pentru IA, nu este întotdeauna clar dacă aceste informații ar putea fi reutilizate sau indexate de modele lingvistice mari (LLM) ca date de antrenament. Există, de asemenea, numeroase exemple de informații sensibile expuse din greșeală de instrumentele IA. Acestea nu sunt doar preocupări legate de confidențialitate; sunt riscuri de securitate pe care orice companie trebuie să le ia în considerare înainte de a utiliza instrumente IA pe fișierele stocate.
Cum poate IA să vă pună fișierele în pericol fără să știți
IA a evoluat și s-a răspândit într-un ritm exponențial. În timp ce majoritatea oamenilor sunt cei mai familiarizați cu chatboții, precum ChatGPT sau Claude, Big Tech a integrat sisteme generative de IA care pot ingera, indexa și rezuma conținut în servicii de foi de calcul, documente și e-mail. Această integrare aduce capacități puternice, dar introduce un risc semnificativ de care puțini oameni sunt conștienți.
Conform unui sondaj de securitate IA din 2025(fereastră nouă), Microsoft Copilot — care este încorporat în instrumente precum Excel, Word și SharePoint — a accesat aproape 3 milioane de înregistrări sensibile per organizație numai în prima jumătate a anului. De asemenea, a constatat că organizațiile au avut în medie peste 3.000 de interacțiuni cu Copilot în care informații de afaceri sensibile ar fi putut fi expuse. Și un studiu Google a spus că 90% dintre lucrătorii(fereastră nouă) din industria tehnologică folosesc IA pentru a scrie sau modifica cod. Chiar dacă aceste numere sunt umflate, organizațiile trebuie să ia în calcul instrumentele IA în modelul lor de amenințare.
Acesta este un nou tip de risc de securitate. Aceste fișiere nu au fost partajate extern. De fapt, este posibil să nu fi fost partajate deloc. Dar, deoarece au fost stocate în fișiere pe care Copilot le putea accesa, informațiile pe care le conțin ar fi putut fi colectate fără ca utilizatorii să își dea seama.
Acest lucru poate avea ramificații grave. Poliția din Elveția(fereastră nouă) (sursă în franceză) și FBI din SUA(fereastră nouă) au fost deja găsite folosind jurnale ChatGPT ca parte a investigațiilor lor. Dacă companiile Big Tech sunt un exemplu, vă puteți aștepta ca companiile de IA să primească în curând sute de mii de solicitări de date de la guvernul SUA și UE, dacă nu o fac deja.
Stocarea sigură a datelor este incredibil de dificilă atunci când instrumentele IA sunt atât de adânc încorporate în aplicațiile pe care le utilizați în fiecare zi. Fișierele stocate în unitățile enterprise devin căutabile, rezumabile și, în cele din urmă, vulnerabile, estompând conceptele tradiționale de securitate privind accesul, permisiunea și supravegherea.
Cum rămâne cu Google Workspace și Gemini?
Aceste riscuri nu se limitează la Microsoft Copilot. Google Workspace își integrează în mod similar instrumentul IA, Gemini, direct în Drive, Sheets și Docs.
Multe întreprinderi vor privi probabil Google Workspace cu integrarea Gemini ca un implicit puternic. Conform propriului site Google(fereastră nouă): „Datele dvs. nu sunt revizuite de oameni sau utilizate pentru antrenarea modelelor generative de IA în afara domeniului dvs. fără permisiune”.
Cu toate acestea, regulile pe care Google le folosește pentru a prelua informații pentru a-și antrena sistemul IA sunt subliniate într-un mod care creează o zonă gri și ridică întrebări:
- Google utilizează acum chat-urile consumatorilor și încărcările de fișiere pentru a antrena Gemini în mod implicit, cu excepția cazului în care s-a optat pentru excludere.
- Paginile de asistență ale Google Gemini(fereastră nouă) avertizează că informațiile partajate cu aplicațiile sale Gemini vor fi revizuite de oameni și ar putea fi utilizate ca set de date pentru antrenarea IA.
- În explicația sa privind confidențialitatea Gemini, Google avertizează utilizatorii(fereastră nouă) să nu partajeze informații confidențiale.
- Documentația enterprise lasă loc de interpretare cu fraze precum „fără permisiune”.
- Furnizorii de securitate au semnalat condiții în care datele de afaceri ar putea deveni date de antrenament, mai ales pe măsură ce caracteristicile IA devin mai strâns integrate în instrumentele de stocare a fișierelor, căutare și flux de lucru.
Această lipsă de claritate este îngrijorătoare atunci când Gemini este integrat în Drive, Docs și Sheets. Nu este vorba doar despre partajarea greșită a fișierelor, ci despre modul în care aceste fișiere devin din greșeală parte a fluxurilor de lucru IA. Cum va ingera, indexa, analiza și stoca IA solicitările sau rezultatele și vor fi acele jurnale încă sub controlul organizației dvs.?
Chiar și un sistem bine guvernat precum Google Workspace este non-privat și cu sursă închisă. Astfel de sisteme pot atenua multe riscuri, dar pentru companiile care dețin date extrem de sensibile, nivelul de încredere necesar ar putea fi totuși prea mare.
Cum să găsiți o IA privată pentru afacerea dvs.
Fiecare fișier pe care îl încărcați sau îl partajați cu un sistem activat pentru IA vă extinde suprafața de atac. Simpla încărcare a fișierelor în stocarea cloud ar putea expune acele fișiere la antrenarea IA, în funcție de serviciul și planul dvs. Dacă acele încărcări sunt păstrate, indexate sau accesibile în moduri de care nu sunteți conștient sau pe care nu le puteți controla, valoarea proprietății dvs. este în pericol.
Înainte ca afacerea dvs. să aleagă un instrument IA, ar trebui să întrebați dacă puteți garanta că acesta sau sistemul său de stocare a fișierelor nu va păstra sau expune date critice.
Iată două cerințe concrete pe care ar trebui să le solicitați oricărui instrument IA de afaceri:
- Păstrare zero a datelor: Sistemul IA nu ar trebui să jurnalizeze sau să stocheze solicitări, răspunsuri sau încărcări de fișiere dincolo de sesiunea de afaceri, cu excepția cazului în care este necesar în mod explicit — iar acele jurnale ar trebui să fie sub controlul deplin al afacerii dvs.
- Fără antrenare externă: Datele afacerii dvs. (inclusiv fișierele stocate) nu trebuie utilizate pentru a antrena alte modele în afara domeniului afacerii sau partajate între chiriași.
Ce puteți face acum
Înainte de a putea alege instrumentele potrivite, trebuie să vă evaluați situația și să vă asigurați că nu expuneți deja din greșeală date sensibile:
- Efectuați un audit de risc pentru stocarea fișierelor IA: Identificați toate unitățile partajate, folderele de echipă și stocarea în cloud unde se conectează instrumentele IA, apoi mapați ce instrumente ingerează sau indexează acele fișiere.
- Definiți o politică clară de guvernanță pentru ingerarea fișierelor în IA: Specificați ce instrumente IA sunt aprobate, ce tipuri de fișiere sunt permise, dacă indexarea fișierelor din depozit este dezactivată etc.
- Cereți un furnizor/soluție care oferă IA privată cu controale stricte: Alegeți un asistent IA care oferă „fără jurnale, fără antrenare, fără partajare” ca bază.
- Monitorizați și restricționați „shadow AI”, sau membrii individuali ai echipei dvs. care utilizează IA în afara cadrului echipei dvs. de securitate, și încărcările neautorizate de fișiere în instrumentele IA. Impuneți prin prevenirea pierderii datelor și practici de gestionare a identității și accesului, precum și prin jurnalizarea auditului.
- Alegeți un furnizor al cărui model de afaceri nu se bazează pe vânzarea sau extragerea datelor. Acest lucru asigură că stimulentele sale se aliniază întotdeauna cu păstrarea datelor dvs. în siguranță.
Proton oferă productivitatea IA fără risc
Nicio afacere nu vrea să predea fără să știe informațiile sale sensibile. De aceea, instrumentele Proton for Business sunt construite în jurul unei criptări puternice care vă pune în control asupra cine vă poate accesa informațiile.
Proton Drive utilizează criptare de la un capăt la altul pentru toate fișierele dvs., astfel încât nimeni, nici măcar Proton, nu le poate accesa decât dacă le partajați. Acest lucru împiedică fișierele dvs. să fie expuse vreodată sau utilizate pentru a antrena IA. Proton Drive vă oferă, de asemenea, posibilitatea de a proteja cu parolă linkurile de partajare sau de a opri accesul cu un singur clic, ceea ce înseamnă că păstrați controlul.
Am construit, de asemenea, Lumo for Business, un asistent IA privat care lucrează doar pentru dvs., nu invers. Fără jurnale păstrate și cu fiecare chat și fișier pe care îl încărcați criptat, Lumo vă păstrează conversațiile confidențiale și datele pe deplin sub controlul dvs. — niciodată partajate, vândute sau furate.
La Proton, construim toate produsele noastre cu confidențialitate prin design. Companiile ar trebui să poată stoca fișiere și să utilizeze IA cu încredere, știind că cele mai sensibile informații ale lor rămân protejate.
Spre deosebire de Big Tech, Proton nu face bani vânzându-vă datele. Suntem susținuți exclusiv de comunitatea noastră, nu de agenți de publicitate, iar baza noastră din Europa prietenoasă cu confidențialitatea ne oferă protecțiile legale pentru a ne asigura că ne putem respecta promisiunile. Cel mai important, suntem deținuți de organizația nonprofit Proton Foundation, a cărei singură misiune este să promoveze confidențialitatea și libertatea.
Utilizând Lumo for Business(fereastră nouă), vă puteți bucura de beneficiile unui asistent IA avansat fără riscul ca datele dvs. să fie utilizate abuziv.






