Adamlar çevrim içi gördükleri şeye inanmışlardı: Başkasının vücudunda yüzünün yer aldığı açık seçik, yapay zeka tarafından oluşturulmuş görüntülerle dolu bir site ve yanında gerçek ev adresi. Site evinin bir genelev olduğunu iddia ediyordu.
Twitch’in en tanınan yayıncılarından biri olan Sweet Anita, çevrim içi bir kadın olmanın risklerini anladı ve önlemler aldı. Gerçek adını gizledi, sınırlar koydu ve bir ekip tuttu. Bunların hiçbiri birinin onu deepfake kurbanı yapmasını engellemedi.
Hiçbir şey onu bundan sonra olacaklara hazırlamadı.
Sweet Anita’nın hikayesi
İsimsiz bir adam onun yapay zeka ile oluşturulmuş pornografisini sipariş etti, ardından onu bir seks işçisi gibi gösteren sahte bir site kurdu ve ev adresini listeledi. Tüm düzenek, erkekleri cinsel ilişkiye zorlayabilecekleri yanlış beklentisiyle evine çekmek için tasarlanmıştı. “Bunu yaptıktan sonra, özellikle canlı yayın yaparken ve evden uzaktayken evime gelen erkekler olmaya başladı,” dedi. “Kendi evimde güvende hissetmiyorum.”
Spor çantalı yabancılar içeri girmeye çalıştı. Postacıdan posta almaktan korkuyordu. Kapısını açmayı ve evi gözetimsiz bırakmayı bırakmak zorunda kaldı. Daha önce taşınmıştı ama onu bulmaya devam ettiler.
Ve istismar sadece ön kapısıyla sınırlı değildi. Kızının işiyle gurur duyan merhum annesi, Anita’nın sosyal medyasını kontrol ediyor ve yapay zeka ile oluşturulmuş açık seçik görüntüleri kaydırarak geçmek zorunda kalıyordu. Arkadaşları ve iş arkadaşları da bunları gördü. “YouTube, Twitch, tüm sosyal medyalarımdan her şeyi silebilirdim ve yine de videolarımda referans olarak kullanılabilecek yüzümün bir sürü görüntüsü olurdu,” dedi.
Deepfake yeni zorbalık türü
Deepfakes use AI to generate hyper-realistic photos and videos of people without their consent. They are often created for sexual abuse, harassment, or intimidation. Most of the victims are women and girls.
Girlguiding tarafından yapılan araştırmaya göre(yeni pencere), dört gençten biri tanıdığı birinin (bir sınıf arkadaşı, öğretmen, arkadaş veya hatta kendilerinin) açık seçik bir deepfake görüntüsünü gördüğünü söylüyor. CNN(yeni pencere), öğrencilerin yüzde 40’ının ve öğretmenlerin yüzde 29’unun geçen yıl okullarıyla bağlantılı birinin deepfake görüntüsünden haberdar olduğunu ve öğrencilerin yüzde 15’inin açık seçik versiyonlarını gördüğünü bildirdi. Çoğu okulun bu tür istismarla başa çıkmak için ilkeleri yoktur.
Zararlar ciddidir. Kurbanlar anksiyete, depresyon ve hatta TSSB yaşayabilir. Sosyal olarak geri çekilebilir, arkadaşlarını kaybedebilir veya iş ya da üniversite başvurusu yapmaktan kaçınabilirler çünkü açık seçik sahte görüntüler bir arama sırasında ortaya çıkabilir. Bazıları içeriği internetten temizlemeye çalışmak için para harcamak zorunda bile kalır.
Dünya Ekonomik Forumu, deepfake’lerin birçok kişinin korktuğu gibi seçimleri istikrarsızlaştırmadığını ancak taciz ve dolandırıcılık için bir araç haline geldiğini belirtiyor(yeni pencere). Rızaya dayalı olmayan pornografi en uç formdur, ancak saldırganlar dolandırıcılık yapmak için klonlanmış sesler ve sahte görüntülü aramalar da kullanır. 2024’te Hong Kong’daki bir finans çalışanı, CFO da dahil olmak üzere her katılımcının bir deepfake olduğu(yeni pencere) bir Zoom görüşmesine katıldıktan sonra 25 milyon dolar ödemesi için kandırıldı.
“Hayatımın geri kalanında, bundan kişisel olarak kaçınabileceğim bir yol görmüyorum,” dedi Anita. “Ve bundan sorumlu olmam gerektiğini de düşünmüyorum. Bu benim sorunum değil ve benim hatam değil.”
Bu herkesin başına gelebilir
Sadece bir avuç görüntü yeterli. Herkese açık bir Instagram hesabı. Bir okul fotoğrafı. Paylaşılan bir albüm. Bir yüz çevrim içi olduğunda kopyalanabilir, kazınabilir ve kötüye kullanılabilir.
Warwick Üniversitesi Siber Güvenlik Merkezi’nden Profesör Carsten Maple’a göre, günümüzün yapay zeka araçlarıyla, birinin gerçekçi bir profilini oluşturmak için 20 fotoğraf veya hatta 30 saniyelik bir video yeterli, bu da potansiyel tehlikelerin kapsamını genişletiyor; yakın zamanda ankete katılan ebeveynlerin yüzde 53’ünün bilmediği bir gerçek.
The New York Times, yapay zeka kullanarak fotoğraflardan kıyafetleri çıkarabilen sözde “çıplaklaştırıcı uygulamaların” yükselişini bildirdi(yeni pencere). Bu uygulamalar ucuz, kullanımı kolay ve yaygın olarak mevcut. Araştırmacılar sektörün yılda yaklaşık 36 milyon dolar getirdiğini tahmin ediyor. Rızaya dayalı olmayan sahte çıplak görüntüleri yayınlamayı yasa dışı kılan yeni bir ABD yasasına rağmen, uygulamaların kendisi yasal kalmaya devam ediyor. 85 siteyi araştıran ekibin başındaki Alexios Mantzarlis, The New York Times’a “İnternete erişimi olan her çocuk hem kurban hem de fail olabilir,” dedi.
Güvenli hesaplar güvenliğin garantisi değildir. İstismarcılar genellikle kurbanın tanıdığı kişilerdir. Doğum günü partileri gibi görünüşte zararsız gönderiler bile, 2024’te tahminen 1,1 milyon çocuğu etkileyen kimlik hırsızlığını körükleyen ayrıntıları ortaya çıkarabilir.
“İnsanlar [deepfake yapanlar] bunun ürkütücü olduğunu, uygunsuz olduğunu sık sık unutuyor; örneğin iş arkadaşları ve arkadaşları bilseydi kovulur ve dışlanırlardı. Tanıdıkları herkesi kaybederlerdi, ebeveynleri onlardan hayal kırıklığına uğrardı, değil mi?” dedi. “Ama çevrim içi olduğunuzda ve bu materyali benzer düşünen bir grup sapıkla birbiriniz için yaptığınızda, bu onlar için sadece bir hobi ve eğlence oluyor. İnsanların hayatları üzerindeki etkisini tamamen görmezden gelip unutabiliyor ve bu konuda kendilerini kandırabiliyorlar.”
Deepfake riski sosyal medyanın çok ötesine geçiyor
Bugün en büyük risk sosyal medyada paylaşılanlardan gelebilir. Peki ya hiç paylaşmadığınız fotoğraflar?
Google, Apple, Amazon, Meta ve diğerleri, fotoğraflarınız için bazen ücretsiz bulut depolama alanı sunar. Ancak bu kolaylığın yine de bir bedeli vardır. Google, Siyahi bir çifti “goril” olarak sınıflandırdığı için özür dilemek(yeni pencere) zorunda kaldığı 2015 yılından bu yana yapay zekayı eğitmek için fotoğraflarınızı kullanıyor. O zamandan beri tüm büyük depolama alanı sağlayıcıları yüz tanıma konusunda çok daha iyi hale geldi. Bunun nasıl olduğunu sanıyorsunuz? Yapay zekayı sürekli besleyen daha fazla fotoğraf sayesinde.
Büyük Teknoloji ile depolanan milyarlarca fotoğraf ve video, bir gün inanılmaz derecede ayrıntılı ve gerçeğe yakın deepfake’ler oluşturmak için malzeme olabilecek devasa bir hazinedir.
Tek gereken hizmet şartlarında sessiz bir değişiklik.
Parolalarınızı koruduğunuz gibi anılarınızı da koruyun
Başkalarının görüntünüzle ne yapacağını kontrol edemezsiniz. Ancak görüntülerinizin nerede yaşadığını ve bunlara kimin erişebileceğini kontrol edebilirsiniz. Proton Drive, en önemli fotoğrafları ve dosyaları depolamak için size güvenli, şifrelenmiş bir yol sunar.
- Uçtan uca şifreleme: Dosyalarınız aygıtınızdan çıkmadan önce şifrelenir. Büyük Teknoloji şirketlerinin aksine Proton bile onları göremez.
- Varsayılan olarak güvenli: Verileriniz asla satılmaz, paylaşılmaz veya yapay zekayı eğitmek için kullanılmaz.
- Güvenli paylaşım: Parolalar ekleyin, geçerlilik süreleri belirleyin veya erişimi istediğiniz zaman geçersiz kılın.
- Otomatik yedekleme: Telefonunuz kaybolsa veya çalınsa bile anılarınız güvende kalır.
Proton Drive ile verileriniz her zaman size ait kalır.






