Yaygın bir yanılgı, sohbetler için ChatGPT, görüntü oluşturmak için Midjourney veya video oluşturmak için Sora gibi büyük dil modellerini (LLM’ler) kullanmıyorsanız, yapay zekadan (AI) güvende olduğunuzdur. Kullansanız da kullanmasanız da, yapay zeka hayatınıza zaten dokunuyor.
Örneğin, Android’de fotoğraf çektiğinizde, Google Fotoğraflar yüz tanıma kullanarak fotoğraf kitaplığınızdaki her kişiyi otomatik olarak tarar ve etiketler. Varsayılan ayarlarınızı değiştirmeden sosyal medyada paylaşım yapmak, LLM’leri eğitmek için kullanılan devasa veri kümelerine kazınabilecek herkese açık gönderiler oluşturur. Web sitelerindeki veya uygulamalardaki kişiselleştirilmiş reklamlar bile tarama ve alışveriş tercihlerinize göre eğitilmiş yapay zeka tarafından desteklenmektedir.
Bu kolaylık gizliliğinize mal olur ve hayatınız üzerinde derin bir etkiye sahip olabilir. Çocuğunuzun sosyal akışından alınan yirmi fotoğraf, şantaj, zorbalık veya kimlik hırsızlığı için kullanılabilecek 30 saniyelik bir deepfake videosu oluşturmak için yeterlidir.
Yapay zekanın kişisel verilerinize erişimi olduğunda nelerin tehlikede olduğu ve çevrim içi gizliliğinizi korumak için neler yapabileceğiniz aşağıda açıklanmıştır.
- Yapay zeka gizliliğinizi nasıl riske atıyor?
- Kişisel verileriniz toplanabilir
- Kimliğiniz yeniden belirlenebilir
- Verileriniz üçüncü taraflarla paylaşılabilir
- Veri silme talepleri işe yaramayabilir
- Başkaları güvenli sohbetlerinizi görebilir
- Haksız muamele görebilirsiniz
- Reklam hedefleme daha keskin hale geliyor
- Bulut depolama verilerinizi açığa çıkarabilir
- Yapay zeka hatalar yapabilir
- Herkes deepfake yapabilir
- Verilerinizi yapay zeka sistemlerinden nasıl güvenli tutarsınız
Yapay zeka gizliliğinizi nasıl riske atıyor?
Yapay zeka; çok fazla şey toplayarak, çok fazla çıkarım yaparak ve çok fazla paylaşarak gizliliği aşındırabilir.
Kişisel verileriniz toplanabilir
Yapay zeka sistemleri, genellikle Facebook gönderileriniz(yeni pencere), Flickr fotoğraflarınız(yeni pencere) veya Reddit konularınız(yeni pencere) gibi herkese açık kaynaklardan kazınan büyük miktarda veriyle eğitilerek daha doğru hale gelir. Sıradan sosyal medya gönderileri, aile fotoğrafları ve genellikle hassas bilgiler içeren ve başlangıçta kişisel veya sosyal nedenlerle paylaşılan profil ayrıntıları, milyar dolarlık LLM’leri ve yüz tanıma sistemlerini eğitmek için kullanılan veri kümelerine dahil edilmiştir. Bu, Büyük Teknoloji’nin çevrim içi içeriği açık bir rıza veya fikri mülkiyet haklarına saygı duymadan yapay zeka kullanımı için serbestçe kullanılabilir olarak görmesi nedeniyle gerçekleşmektedir.
Kimliğiniz yeniden belirlenebilir
Teknoloji şirketleri, kişisel verilerinizin kimliksizleştirildikten veya sahte isimlerle anonimleştirildikten sonra size geri izlenemeyeceğini iddia eder; bu da isimler veya telefon numaraları gibi bariz tanımlayıcıların çıkarıldığı anlamına gelir. Ancak bu koruma kırılgandır, çünkü anonimleştirilmiş veri kümeleri sosyal medya profilleri veya coğrafi konum izleri gibi diğer veri kaynaklarıyla çapraz referanslanarak yeniden kimliklendirilebilir.
Örneğin, Netflix kullanıcılarının(yeni pencere) anonim film puanları IMDb bilgileriyle karşılaştırılarak kimlikleri yeniden belirlendi. Bir çalışma(yeni pencere), sadece 15 demografik işaretle herhangi bir veri setinde neredeyse her Amerikalının ayırt edilebileceğini gösteriyor. Yapay zekanın kalıp eşleştirme gücü de eklendiğinde, yeniden kimlik tespiti daha hızlı, daha kolay ve herkes tarafından erişilebilir hale geldi.
Verileriniz üçüncü taraflarla paylaşılabilir
Yapay zeka sistemlerini kullandığınızda, verileriniz her zaman kaydolduğunuz şirkette kalmaz. Verilerinizi kendi şartları ve güvenlik standartları altında işleyebilecek ortaklarla veya üçüncü taraf işlemcilerle (muhtemelen adını hiç duymadıklarınızla) paylaşılabilir.
O noktada gizlilik bir güven meselesi haline gelir. Bilgilerinizi korumak için artık sadece bildiğiniz şirkete değil, her biri kendi altyapısına, ilkelerine ve güvenlik açıklarına sahip bilinmeyen dış aktörlerden oluşan bir zincire güveniyorsunuz. Verilerinize dokunan her el saldırı yüzeyini genişletir ve hesap verebilirlik bulanıklaşır.
Örneğin, bir OpenAI ortağının dahil olduğu ihlal, API kullanıcı verilerinin açığa çıkmasına yol açarak üçüncü taraf erişiminin sistemdeki en zayıf halka haline gelebileceğini gösterdi.
Veri silme talepleri işe yaramayabilir
Verileriniz bir yapay zeka modelini eğittiğinde, onu geri almak neredeyse imkansızdır çünkü modelin genel davranışını şekillendirir. Makine unutması (bir modele unutturma teknikleri) hala erken aşamalarındadır, bu nedenle bugünkü tek seçenek modeli yeniden eğitmektir. Ve bir şirket veri silme talebinizi yerine getirdiğini iddia etse bile, bunu doğrulamanın pratik olarak hiçbir yolu yoktur(yeni pencere).
Başkaları güvenli sohbetlerinizi görebilir
ChatGPT(yeni pencere), Meta AI(yeni pencere) ve Grok(yeni pencere) gibi LLM’ler, paylaşma özellikleri aracılığıyla güvenli yazışmaları ifşa etti; sohbetler arama motorları tarafından dizine eklendi ve kamuya açık hale getirildi. Platformlar bu risk konusunda yeterince şeffaf değildi ve kullanıcıları, güvenli bir değiş tokuş gibi hissettiren şeyin internetteki herkes tarafından görülebilir hale gelebileceğinden habersiz bıraktı.
Haksız muamele görebilirsiniz
Yapay zeka sistemlerinin kalıpları öğrenmek için kullandığı veriler, tarihsel eşitsizliklerden veya eksik veri kümelerinden kaynaklanan gizli önyargılar içeriyorsa, yapay zeka bu kalıpları pekiştirebilir veya büyütebilir. Büyük Teknoloji’nin kapalı kaynaklı ve bağımsız olarak incelenemeyen kara kutular olarak çalışan güvenli olmayan yapay zeka sistemlerinde riskler daha yüksektir. Bu sistemler, öngörücü polislik(yeni pencere), işe alma(yeni pencere), sağlık hizmetleri(yeni pencere) veya kredi puanlamasında(yeni pencere) otomatik kararlar almak için ırk, cinsiyet veya posta kodu gibi hassas özellikleri kullanabilir.
Reklam hedefleme daha keskin hale geliyor
Güvenli olmayan yapay zeka, hiper hedeflemeyi mümkün kılarak reklamları daha akıllı hale getirirken, genellikle tüm ailenizin gizliliğini ihlal eder. Örneğin, bir veri simsarı ve dünyanın en büyük reklam şirketi olan Publicis, 2,3 milyar kişinin profilini çıkardığını ve onları bütçe veya premium ürünlerle hedefleyip hedeflemeyeceğine karar vermek için aile tercihleri ve gelir(yeni pencere) gibi ayrıntıları izlediğini iddia ediyor.
Yapay zeka sohbet robotları geleneksel aramanın yerini alırken, reklamlar da bizi bu yeni alana kadar takip ediyor. Örneğin Perplexity, yapay zeka tarafından oluşturulan yanıtlara reklam yerleştiriyor(yeni pencere) ve tarayıcının 3 milyardan fazla kullanıcısına ve onunla birlikte gelen samimi davranışsal verilere erişim sağlamayı amaçlayan bir hamleyle Google Chrome’u satın almak için 34,5 milyar dolarlık bir teklif verdi.
Bulut depolama verilerinizi açığa çıkarabilir
Uçtan uca şifrelemesi (E2EE) olmayan bulut depolama sağlayıcıları yüklediğiniz fotoğraflara, belgelere ve hassas dosyalara erişebilir. Ayrıca bu verileri yapay zeka araçlarını güçlendirmek, hakkınızda içgörüler oluşturmak veya kişiselleştirilmiş reklamlar göstermek için de kullanabilirler.
Örneğin Google Drive, verilerinize erişimi elinde tutar ve bunu Google Dokümanlar’da yazım denetimi ve otomatik tamamlama gibi yapay zeka özellikleri için kullanır. Google’ın yapay zeka asistanı Gemini, Google Workspace ile sıkı bir şekilde entegre kalırsa, Drive dosyalarınız hakkında yaptığınız sorgular da yapay zeka eğitimini besleyebilir.
Benzer şekilde Microsoft, Word, Excel ve PowerPoint’in yakında varsayılan olarak OneDrive’a otomatik kaydedileceğini duyurdu; bu, verilerinizin reklam veya yapay zeka eğitimi için gelecekteki kullanımının belirsiz olduğu başka bir E2EE olmayan hizmettir.
Yapay zeka hatalar yapabilir
Otomatik sistemler güvenli iletişimlerinizi tarayabilir ve şüpheli olarak işaretleyebilir. AB’nin önerdiği Chat Control yasası, WhatsApp ve Signal gibi mesajlaşma hizmetlerinin çocuk cinsel istismarı materyallerini (CSAM) tespit etmek için her güvenli iletiyi ve fotoğrafı taramak üzere yapay zeka kullanmasını gerektirecektir.
Ancak bu, sadece şüpheli suçluların değil, herkesin konuşmalarının izlenmesi anlamına gelir. Ve tarih, yapay zekanın ne kadar kolay hata yapabileceğini gösteriyor. Örneğin bir babanın Google hesabı, çocuğunun bir fotoğrafını doktora gönderdikten sonra kapatıldı(yeni pencere) ve yetkililere bildirildi. Sizinle doktorunuz veya sizinle aileniz arasında kalması gereken şeyler aniden teknoloji şirketlerine ve kolluk kuvvetlerine ifşa edilebilir.
Herkes deepfake yapabilir
AI can be used to create deepfakes — highly realistic fake photos, videos, or audio. For example, someone could take your social media photos and create a video of you saying or doing things you never did.
Kötü niyetli kişiler deepfake’leri kimlik hırsızlığı, dolandırıcılık, şantaj veya itibar zedeleme amacıyla kullanır ve riskler çocuklara kadar uzanır. 2019’da suçlular, bir CEO’nun sesini taklit etmek için deepfake ses(yeni pencere) kullandı ve bir çalışanı 220.000 € transfer etmesi için kandırdı. Riskler çocuklara da uzanıyor. Bir olayda, bir avcı para sızdırmak için 14 yaşındaki bir çocuğun deepfake görüntüsünü(yeni pencere) oluşturarak onu paylaşmakla tehdit etti.
Verilerinizi yapay zeka sistemlerinden nasıl güvenli tutarsınız
Yapay zeka sistemleriyle ilgili, özellikle de Büyük Teknoloji tarafından yürütülen güvenli olmayan, kapalı kaynaklı modellerle ilgili birçok gizlilik endişesi vardır. Ve bu sistemlerin verilerinizi bir kez dışarı çıktıktan sonra kazımasını veya kötüye kullanmasını tamamen engelleyemeseniz de, ayak izinizi azaltabilir, hesap verebilirlik talep edebilir ve verilerinizi sömürmeyen gizlilik öncelikli yapay zekayı seçebilirsiniz. İşte yapabilecekleriniz:
- Sosyal medyada profillerinizi ve gönderilerinizi güvenli yapın, eski yüklemeleri silin, paylaşmadan önce fotoğraflardan EXIF verilerini temizleyin ve adresler, çocukların tam adları veya gittikleri okullar gibi tanımlanabilir ayrıntıları paylaşmaktan kaçının. Aileniz için interneti nasıl yöneteceğiniz hakkında daha fazla bilgi edinin.
- Uygulamalarınızın gizlilik ayarlarını kontrol edin. Örneğin Meta AI, Android ve iOS için Facebook uygulamasında film rulosu fotoğraflarınızı ve videolarınızı tarıyor olabilir.
- Fotoğrafları çevrim içi yayınlamadan önce ailenizin yüzlerini bulanıklaştırarak veya sansürleyerek deepfake’lere karşı koruma sağlayın.
- IP adresinizi gizlemek için bir sanal özel ağ (VPN)(yeni pencere) kullanarak dijital ayak izinizi maskeleyin ve size geri izlenmesini istemediğiniz hassas bilgileri yayınlarken e-posta adresinizi korumak için takma adlar kullanın.
- Güvenli mesajlaşma için Signal ve gizli gezinme için Brave veya DuckDuckGo gibi verilerinizden para kazanmayan gizlilik öncelikli hizmetleri kullanın.
- Güvenli fotoğraflar ve gizli belgeler dahil olmak üzere en hassas dosyalarınızı güvenli bir şekilde depolamak için uçtan uca şifrelenmiş bulut depolama sağlayan Proton Drive kullanın. Güvenli olduğu varsayılan içeriği ifşa edebilecek platformların aksine, Drive verilerinizi taramaz, dizine eklemez veya yapay zeka eğitimi için kullanmaz – ve paylaşmayı seçtiğinizde bile başka hiç kimse tarafından görülemez. Fotoğraflarınızı gerçekten güvenli tutmak, deepfake oluşturmak için kötüye kullanılabilecekleri şekilde internete düşmeyecekleri anlamına da gelir.
- Mümkün olduğunda, Gemini, ChatGPT(yeni pencere), Claude(yeni pencere) veya Meta AI gibi platformlarda yapay zeka eğitiminin dışında kalmayı tercih edin. İlkeler çok az uyarı yapılarak bir gecede değişebilir, bu nedenle hem yapay zekanın hem de gizliliğin avantajlarından yararlanmak istiyorsanız, günlük tutmayan veya verileriniz üzerinde eğitim yapmayan gizlilik öncelikli yapay zeka asistanımız(yeni pencere) Lumo’ya geçin.
AB Yapay Zeka Yasası(yeni pencere) gibi yapay zeka gizliliği konusunda daha güçlü düzenlemeler, gücü internet kullanıcılarına geri vermek için kritik olacaktır. O zamana kadar en iyi savunma, çevrim içi ne paylaştığınıza dikkat etmek, bu sistemleri kuran şirketlerden hesap verebilirlik talep etmek ve gizliliğe temelden saygı duyan şeffaf yapay zeka araçlarını(yeni pencere) seçmektir.






