Yapay zeka kullanımı arttıkça, yapay zeka asistanları(yeni pencere) güvenilir yoldaşlar haline geliyor. Milyonlarca insan soru sormak ve sorunları çözmek için ChatGPT, Claude, Gemini, DeepSeek ve diğerleri gibi sohbet robotlarına yöneliyor. Sorguları son derece hassas olabilir; sağlık endişeleri hakkında soru sormak, müşteri verilerini paylaşmak veya duygusal destek ve yaratıcı ilham aramak gibi.
Birçokları için bu sohbet robotları insani, duyarlı ve gizli hissettiriyor. Ancak son gelişmeler (Yasal bir emir OpenAI’ı tüm ChatGPT çıktı verilerini süresiz olarak saklamaya zorladı(yeni pencere) ve OpenAI’ın kurucusu Sam Altman, ChatGPT’nin “yasal gizlilik” sunmadığını söylüyor(yeni pencere)) yazdığınız her kelimenin günlüğe kaydedilebileceği, depolanabileceği, analiz edilebileceği ve muhtemelen kötüye kullanılabileceği veya üçüncü taraflara sızdırılabileceği riskine ışık tutuyor.
İşte bunun ne anlama gelebileceği ve neden hepimizi endişelendirmesi gerektiği.
Yapay zeka ile riskler daha yüksek
Yapay zeka asistanlarının yükselişi yeni bir sınır gibi hissettiriyor, ancak birçok yönden daha önce buradaydık. Yapay zeka sohbet günlüklerini çevreleyen endişeler, çoğu temelli olduğu kanıtlanmış arama motorlarının ilk günlerinde ortaya çıkan endişeleri yansıtıyor. Arama günlükleri kazançlı reklam hedefleme profilleri oluşturmak için kullanıldı, veri ele geçirilme olaylarında (breaches) ifşa edildi ve mahkemede celp edildi.
Yapay zeka ile riskler daha yüksektir çünkü veriler daha kişisel ve ayrıntılıdır. Giderek artan sayıda insan yanıtları için arama motorlarından yapay zeka sohbet robotlarına dönüyor ve arama motoru hacminin 2026 yılına kadar yüzde 25 düşeceği tahmin ediliyor(yeni pencere). Genellikle kısa, parçalı sorguları yakalayan bir arama çubuğunun aksine, sohbet robotlarına sorulan sorular, sanki soranlar başka bir kişiyle konuşuyormuş gibi çerçevelenir ve bu süreçte kendileri hakkında çok daha fazlasını ortaya çıkarır. Tek bir yazışma kişisel düşünceler(yeni pencere), duygusal mücadeleler, sağlık endişeleri(yeni pencere), finansal korkular ve hatta tam adlar ve adresler içerebilir.
Kısacası, sohbet günlükleri kimliğinizin inanılmaz derecede zengin ve samimi bir haritasını sunar, arama motoru günlüklerinden daha fazla — ve gizliliğiniz için çok daha büyük etkileri vardır. Büyük Teknoloji sohbet günlüklerinize erişebilir ve bunları, devlete ifşa edilebilecek veya hedeflenmiş reklamcılık için kullanılabilecek sizinle ilgili psikolojik bir profil oluşturmak için kullanabilir. Örneğin, Meta, kişiselleştirilmiş reklamlar oluşturmak için yapay zeka sohbet verilerini kullanıyor.
‘Anonim’ sohbetleriniz her zaman öyle kalmaz
Sohbet günlüğü gizliliği konusunda endişelenmeye karşı yaygın bir argüman, özellikle kullanıcılar oturum açmadığında, verilerin büyük hacminin bireysel istismarı olası kılmamasıdır. Ancak yakın tarih farklı bir hikaye anlatıyor.
Temmuz ayında, muhabirler ChatGPT’deki 100.000’den fazla yazışmanın(yeni pencere) Google tarafından dizine eklendiğini ve aranabilir hale getirildiğini buldular. Bir yazışmayı arkadaşlarına veya iş arkadaşlarına göndermek için “paylaş” düğmesine tıklayan kullanıcılar, güvenli (private) yazışmalarının internetteki herkes tarafından görülebileceğinin neredeyse kesinlikle farkında değildi.
Bu örnek bir uyarıdır: Sözde “anonim” veriler nadiren anonimdir. IP adresleri, zaman damgaları, aygıt parmak izleri ve oturum ve tanımlama bilgisi kimlikleriyle eşleştirildiğinde, bu günlükler çok daha tanımlanabilir hale gelir.
Sohbetler iç dünyamızı nasıl ifşa edebilir
Popüler yapay zeka platformları ChatGPT(yeni pencere), Gemini(yeni pencere) ve DeepSeek(yeni pencere); kullanıcı sohbet günlüklerinin model performansını iyileştirmeye yardımcı olmak için kullanıldığını ve verilerinizi reklam veya kullanıcı profili oluşturma amacıyla “satmak” için kullanılmadığını belirtiyor. Ancak OpenAI’ın yasal mücadelesinin gösterdiği gibi, ilkeler bir gecede değişebilir.
Örneğin Anthropic, verileri tutma süresini uzatmak için Ağustos 2025’te uyarı yapmadan gizlilik ilkesini güncelledi(yeni pencere). Süresiz olarak kaydedilmiş günlüklerle, bir zamanlar sınır dışı görünen kişisel veriler aniden kârlı bir kazanç kaynağı haline gelebilir.
Bu yaşanan ilk olay olmazdı. Google 1998’de kurulduğunda, kurucu ortaklar Sergey Brin ve Larry Page, reklam tabanlı arama motorlarının kaçınılmaz olarak “doğası gereği reklamverenlere karşı önyargılı olacağı ve tüketicilerin ihtiyaçlarından uzaklaşacağı” konusunda uyarıda bulunmuştu(yeni pencere). On yıl sonra, Google reklamları size göre hedeflemek için arama geçmişlerini kullanmaya başladı(yeni pencere).
İnsanların iç dünyasına doğrudan erişimi olan yapay zeka günlükleri, reklam hedeflemesini sınırlarına kadar zorlayabilir. Sayıları giderek artan kullanıcıların duygusal destek için sohbet robotlarına yönelmesiyle(yeni pencere), birileri şunları itiraf edebilir:
- “Son zamanlarda bunalmış ve yalnız hissediyorum.”
- “Sence depresyonda mıyım?”
- “Gelecek ay kirayı ödeyemezsem ne yapabilirim?”
Bu ifadeler sadece anahtar kelimeler veya etkileşimlerin bir koleksiyonu değil, açık duygusal ve durumsal göstergelerdir. Eğer kaydedilmiş ve analiz edilmişse, psikolojik profiller oluşturmak ve kullanıcı kararlarını manipüle etmek için kullanılabilirler.
Bu tür samimi, hassas bilgilerin istismar amaçlı kullanılabileceğini öne sürmek felaket tellallığı değildir; çünkü Büyük Teknoloji şirketleri tam olarak bunu yaptı. 2017’de Facebook, güvensizlik anlarında reklamlarla duygusal olarak savunmasız gençleri hedeflemenin(yeni pencere) yollarını araştırarak hiçbir etkileşimin sınır dışı olmadığını gösterdi.
Sohbet robotu günlükleri ruh halinize açılan bir penceredir. Ve bu erişim seviyesi, veri kullanımı ve uygulaması konusunda henüz net yönergelere ve yönetmeliklere sahip olmayan bir sektörde önemli gizlilik ve etik endişeleri doğurmaktadır.
Kullanıcılar için yasal riskler
Arama geçmişi, cezai soruşturmalarda ve mahkeme davalarında uzun süredir bir rol oynamaktadır. Çevrim içi sorguların suçlu kararlarına katkıda bulunduğu birden fazla örnek vardır, özellikle ABD’deki Moira Akers – Eyalet davası.
2018’de ölü doğum yaptıktan sonra Akers cinayetle suçlandı ve 2022’de 30 yıl hapis cezasına çarptırıldı. Savcının davasının önemli bir parçası, Akers’ın hamileliğinin erken evrelerinde kürtaj hakkında yaptığı internet aramalarıydı. Savcılığa göre, bu aramalar Akers’ın niyetinin kanıtıydı; hamileliği tam süresine kadar taşımasına rağmen. Maryland Yüksek Mahkemesi 2025’te mahkumiyeti bozarak, arama sorgusu kanıtının kabul edilemez olduğuna karar verdi(yeni pencere). Ancak Akers neredeyse üç yılını hapiste geçirmişti. Dava, kaydedilmiş günlüklerin, çelişen kanıtlar olsa bile olumsuz bir anlatıya uyması için bir hikaye anlatmak amacıyla nasıl kullanılabileceğini vurguluyor.
Yasal kanıt olabilecek kaydedilmiş yapay zeka sohbetleri ile riskler daha da yüksek olabilir. Arama sorgularının aksine, bu etkileşimler daha çok sohbete dayalıdır ve hatta spekülatiftir; bazen YZM’den veya büyük dil modelinden belirli bir tür yanıt almak için bir yol olarak kullanılır. Bir yapay zeka ile yapılan güvenli, masum bir fikir alışverişi, o andaki niyet ne olursa olsun daha sonra yasal bir ortamda suçlayıcı olarak yorumlanabilir.
Manipülasyon için güçlü bir araç
Sohbet robotu günlüklerini görebilenler ayrıntılı davranışsal planlara erişim sağlayabilir: kişisel alışkanlıklar, duygusal tetikleyiciler, ilişki dinamikleri ve hatta mesleki zayıflıklar. Yanlış ellerde bu veriler, psikolojik manipülasyonu içeren yaygın bir bilgisayar korsanlığı taktiği olan sosyal mühendislik için güçlü bir araçtır.
Bu risk varsayımsal olmaktan çok uzaktır. Ocak 2025’te yapay zeka platformu DeepSeek büyük bir veritabanını çevrim içi olarak açıkta bıraktı(yeni pencere). Ele geçirilme, nereye bakacağını bilen herkesin kamuya açık erişimine sunulan bir milyondan fazla yapay zeka sohbet günlüğünü ve API anahtarını içeriyordu. Açığa çıkan veriler arasında aile, finans ve gizli projeler hakkında tartışmalar içerebilecek düz metin yazışmalar da vardı; bu bilgiler dolandırıcılık, şantaj veya kimlik hırsızlığı için kolayca istismar edilebilirdi.
Sızdırıldıktan sonra bu veriler, kimliğinize bürünmek veya sizi manipüle etmek için silah haline getirilebilir. Saldırganlar geçmiş yazışmalardan elde edilen kişisel ayrıntılara atıfta bulunarak güveninizi kazanabilir ve bunu ciddi finansal veya güvenlik açıkları yaratmak için kullanabilir.
Siyasi gözetim hayaleti
Otoriter rejimlerde, kaydedilmiş dijital etkileşimlerin sonuçları çok daha ağır olabilir. Örneğin, kullanıcıların kişisel bilgilerinin operatör tarafından nasıl işlendiğine dair güvenlik endişeleri nedeniyle birçok ülke Çin merkezli yapay zeka platformu DeepSeek’in devlet aygıtlarında kullanımını yasakladı(yeni pencere). Güney Kore, Avustralya ve Tayvan, bu verilere Çinli yetkililer tarafından erişilebileceği ve potansiyel olarak gözetim için kullanılabileceği konusundaki endişelerini dile getirdi.
Muhalifler, aktivistler veya gazeteciler için bu sadece bir gizlilik sorunu değil, bir güvenlik meselesidir. Protesto hakları, medya yasaları veya sığınma yolları hakkında görünüşte sıradan bir sohbet, ifade özgürlüğü ve sivil özgürlükler için sınırlı korumalara sahip yargı bölgelerinde suçlayıcı kanıt olarak yorumlanabilir.
Fikri mülkiyete yönelik bir tehdit
2023 yılında Samsung mühendisleri, sorgularının güvenli olduğu inancıyla bir sorunu ayıklamaya çalışırken tesadüfen özel kaynak kodunu ChatGPT’ye yüklediler(yeni pencere). Gönderildikten sonra bu veriler OpenAI’ın eğitim sisteminin bir parçası haline geldi ve yapay zeka araçlarıyla paylaşılan fikri mülkiyetin güvenliği ve sahipliği konusunda endişelere yol açtı.
Bu makalenin başında bahsedilen, The New York Times’ın OpenAI’a karşı açtığı(yeni pencere) yüksek profilli telif hakkı davasında da ilgili bir endişe ortaya çıktı. Dava, şirketin izinsiz olarak modellerini eğitmek için gazetenin milyonlarca makalesini kullandığı iddialarının ardından mahkemenin OpenAI’ın tüm ChatGPT çıktı verilerini süresiz olarak korumasını emretmesine yol açtı. Dava OpenAI’ın haber içeriğini kazıyan web tarayıcılarına odaklansa da, yapay zeka platformlarına özgün çalışmalarla katkıda bulunan yaratıcılar (yazarlar, tasarımcılar, müzisyenler ve diğerleri) için daha geniş soruları gündeme getiriyor.
Kullanıcı tarafından gönderilen içerik model tarafından tutulur ve yeniden kullanılırsa, tescilli veya yaratıcı materyalin atıf veya rıza olmaksızın diğer kullanıcılara yeniden dağıtılması riski vardır. Bu durum, kullanıcı katkısı ile yapay zeka eğitim verileri arasındaki çizgiyi bulanıklaştırır ve üretken yapay zeka çağında yazarlık ve mülkiyet hakkında acil sorular ortaya çıkarır.
Nelerin değişmesi gerekiyor ve kendinizi nasıl korursunuz
Çoğu insan gerçek hayatlarında gizlilik ister ve bekler. Aynı beklentilerin insanların dijital hayatlarına da uzanması gerektiğine inanıyoruz. İster arkadaşlarınıza e-posta gönderiyor, ister en sevdiğiniz programları yayın akışı olarak izliyor(yeni pencere) veya fotoğrafları yedekliyor olun, çevrim içi gizliliği herkes için erişilebilir kılan bir şifrelenmiş hizmetler paketi oluşturduk. İnternetin erken dönem hatalarını düzeltmek için çok geç değil ve yapay zekanın ilk günlerinde, gizliliğinize saygı duyan bu teknoloji için yeni bir yol çizmek adına hala zaman var.
Yapay zeka asistanımız(yeni pencere) Lumo’yu, tasarım gereği temel korumaları sürdürecek şekilde oluşturduk:
- Veri günlüğü tutma yok: Kullanıcılar, gönderilerinin kaydedileceği, kâr amacıyla kullanılacağı veya kendilerine karşı kullanılacağı endişesi taşımadan sohbet robotlarıyla etkileşime girebilmelidir.
- Model eğitimi yok: Güvenli sohbetler asla eğitim verisi olarak kullanılmamalıdır, çünkü daha sonra modelin çıktılarında yeniden görünme riski taşır.
- Veri işlemede şeffaflık: Kaydedilmiş kullanıcı verilerinin nasıl kullanıldığı, bunlara kimlerin erişebileceği, nerede saklandığı, ne kadar süreyle tutulduğu ve nasıl silinebileceği açık olmalıdır.
- Varsayılan olarak sıfır erişimli şifreleme: Yazışmalar kullanıcının şifreleme anahtarları kullanılarak güvence altına alınmalıdır, böylece yapay zeka sağlayıcısı bile erişim sağlayamaz.
Verilerimizi sessizce günlüğe kaydeden sohbet robotlarının tehlikeleri gerçek ve acil olsa da, güçsüz değiliz. Önce gizlilik ilkesini benimseyen yapay zeka araçlarını seçerek ve yaratıcılarından şeffaflık ve hesap verebilirlik talep ederek, güç dengesini tekrar kullanıcıların eline geçirebilir ve gizliliğin bir ayrıcalık değil, bir hak olduğu inancını doğrulayabiliriz.






