Günümüzde yaratıcılar için sinir bozucu bir gerçek, çalışmalarının yapay zeka eğitimine maruz kalmasıdır. ChatGPT, Gemini, DeepSeek, Stable Diffusion ve Midjourney gibi üretken yapay zekalar geliştiren teknoloji şirketleri, modellerini eğitmek için devasa veri kümelerine ihtiyaç duyuyor ve bunu yapmak için halka açık interneti tarıyorlar.

Bu durum, rıza, atıf ve yaratıcı çalışmaların çevrim içi paylaşıldıktan sonraki kontrolü hakkında önemli soruları gündeme getirdi.

Yaratıcı verilerinizi daha iyi korumanın yollarını arıyorsanız, bu kılavuz, çalışmalarınızın yapay zeka eğitiminde kullanımını azaltmak için atabileceğiniz pratik adımları ana hatlarıyla belirtirken, internetle kendi şartlarınızda etkileşimde bulunmaya devam etmenizi sağlar.

Halka açık içerik üzerindeki yapay zeka eğitimi yaratıcı çalışmaları nasıl riske atabilir

Üretken yapay zeka araçları çalışmak için büyük miktarda veriye ihtiyaç duyar ve bu verilerin çoğu internetten temin edilir. OpenAI, açıkça(yeni pencere) çevrim içi bulunan telif hakkıyla korunan materyallere erişim olmadan ChatGPT gibi bir yapay zekayı eğitmenin “imkansız” olacağını belirtti.

Çevrim içi portföylerden, sosyal medya platformlarından ve bloglardan alınan yaratıcı çalışmalar, rıza veya atıf olmaksızın bu modelleri eğitmek için kullanılmaktadır. Örneğin, Meta, üretken yapay zeka modellerini eğitmek için 2007’ye kadar uzanan halka açık Facebook ve Instagram gönderilerini, fotoğraflarını ve yorumlarını taradığını kabul etti(yeni pencere). Bu, düğün fotoğrafları, portföy çekimleri veya illüstrasyonlar gibi bu platformlarda herkese açık olarak paylaştığınız herhangi bir yaratıcı çalışmanın, görünürlüğü güvenli olarak ayarlamadıysanız yapay zeka eğitimi için kullanılabileceği anlamına gelir.

Yapay zeka şirketleri, devam eden davalarda(yeni pencere), taranmış internet verileri üzerinde eğitim yapmanın “adil kullanım” kapsamına girdiğini savundu. Aynı zamanda, ortaya çıkan modelleri ve veri kümelerini tescilli varlıklar olarak görüyorlar. OpenAI’nin hizmet şartları, “Çıktının OpenAI ile rekabet eden modeller geliştirmek için kullanılmasını” yasaklıyor ve şirket, DeepSeek’i modellerini “uygunsuz bir şekilde” kopyalamakla(yeni pencere) suçladı; aynı modeller halka açık internet verileri üzerinde eğitilmişti.

Bu bariz çifte standart, birçok yaratıcının neden çalışmalarının rızaları, kredileri veya tazminatları olmadan yapay zeka eğitimine karşı savunmasız olduğunu hissettiğini açıklamaya yardımcı olur. Ayrıca, özellikle yaratıcı çalışmaların izinsiz yeniden kullanımını veya ticari sömürüsünü açıkça sınırlayan lisanslara sahip platformlarda paylaşıldığında, “halka açık” içeriğin nasıl yorumlandığına dair daha geniş soruları da gündeme getiriyor. Sonuç olarak, birçok sanatçı, yazar ve fotoğrafçı, yapay zeka veri taramasına karşı giderek daha fazla geri adım atıyor.

Yapay zekanın sanatınızı kullanmasını nasıl önlersiniz

Mahkemelerin hala duruma göre kararlar vermesi ve net bir yasal standardın olmaması nedeniyle, yaratıcılar çalışmalarını korumak için yalnızca hukuk sistemine güvenemezler. Bu arada, çalışmalarınızın yapay zeka eğitiminde kullanımını azaltmak için şu anda atabileceğiniz pratik adımlar vardır.

Ancak bu stratejilerin hiçbiri kusursuz değildir; koruma araçları ve yapay zeka şirketleri her zaman birbirini alt etmeye çalışmaktadır. Şimdilik, bunları toplu olarak daha iyi çalışan zırhınızın bireysel parçaları olarak düşünün. Yaratıcı verileriniz üzerinde kendinize daha fazla kontrol sağlamanın en iyi yolları şunlardır:

Sanat tarzınızı gizleyin

Glaze(yeni pencere) gibi gizleme araçları, yapay zeka modellerini şaşırtan piksellerde küçük değişiklikler yaparak yapay zeka modellerinin çalışmanız üzerinde eğitilmesini zorlaştırır. Görüntü insanlara amaçlandığı gibi görünür, ancak bir yapay zeka tarayıcısı için farklı veya bozuk bir stil olarak kaydedilir.

Sanat eserinizi “Zehirleyin”

Nightshade(yeni pencere) gibi araçları kullanarak sanat eserlerinizi yapay zeka tarayıcıları için zehirli hale getirebilirsiniz. “Zehirlenmiş” bir görüntü, yapay zeka eğitimine müdahale eden ve sistemin gördüğü şeyi yanlış yorumlamasına neden olan (örneğin kediler yerine arabalar veya uçaklar yerine bulutlar gibi) ince, görünmez değişiklikler içerir. Zamanla, eğitim için yeterince zehirlenmiş görüntü kullanılırsa, bu yanlış ilişkilendirmeler modelin gelecek sürümlerinde görüntülenebilir.

Ancak, Glaze ve Nightshade gibi teknik korumalar kusursuz değildir ve araştırmalar(yeni pencere) yapay zeka sistemleri geliştikçe bunların zayıflayabileceğini göstermektedir.

Yapay zeka eğitiminden çıkın

Çalışmanız çevrim içi olarak mevcutsa, muhtemelen bir yapay zeka modeline taranmıştır. Have I Been Trained(yeni pencere) ve The Atlantic’in AI Watchdog(yeni pencere) gibi siteleri kullanarak görüntülerinizin, yazılarınızın veya diğer yaratıcı çalışmalarınızın yapay zeka modellerini eğitmek için kullanılan bilinen veri kümelerinde görünüp görünmediğini kontrol edebilirsiniz. İlki, çalışmanızı, katılımcı şirketlerin bu görüntüleri gelecekteki eğitim çalışmalarından tanımlayabileceği ve hariç tutabileceği bir Eğitim Yapma (Do Not Train) kaydına göndermenize olanak tanır. Ancak, bu önlemler gönüllülük esasına dayanır, bireysel şirketlerin bunları onurlandırma istekliliğine bağlıdır ve çalışmanız kullanılarak zaten eğitilmiş modelleri etkilemez.

AB’de yaşıyorsanız, şirketlerden içeriğinizi yapay zeka eğitiminden hariç tutmalarını talep ederek GDPR(yeni pencere) gibi veri koruma yasalarını avantajınıza kullanabilirsiniz. Bazı şirketlerin uygulamalarının ayarlarında gizlenmiş devre dışı bırakma süreçleri vardır; örneğin, Facebook, Instagram ve WhatsApp’ta Meta AI veri kullanımından nasıl çıkılacağı burada açıklanmıştır.

Gizlilik ayarlarınızı kilitleyin

Sosyal medyada halka açık olarak paylaştığınız gönderileri azaltın ve profilinizin güvenli olarak ayarlandığından emin olun. İçerik ne kadar az açıkça erişilebilir olursa, harici yapay zeka sistemleri tarafından taranması o kadar zor olur. Ancak bu, sizi platformun kendisinden korumak için yeterli olmayabilir, çünkü birçok şirket yapay zeka özelliklerini giderek daha fazla entegre ediyor — örneğin Meta’nın tüm Meta AI etkileşimlerini eğitim ve reklamlar için kullanması gibi — bu da hem halka açık hem de güvenli içeriğin zaman içinde nasıl kullanılabileceği hakkında sorular ortaya çıkarıyor. Sosyal medyayı birincil Arşiviniz veya portföyünüz olarak kullanmaktan kaçınmak en iyisidir.

Halka açık paylaşım konusunda kasıtlı olun

Kitlenize ulaşmak için halka açık gönderi paylaşırken, çalışmanızın daha küçük, düşük çözünürlüklü veya filigranlı sürümlerini paylaşın. Tam kaliteli dosyaları, yapay zeka eğitimi için güvenli içeriği kullanmadığı açık olan çevrim dışı yedeklerde veya bulut hizmetlerinde kayıtlı tutun.

Dosyaları güvenli bir şekilde depolayın ve paylaşın

Yapay zeka araçları büyük platformlara daha derinlemesine entegre oldukça — örneğin Google’ın Gemini’yi Google Drive ve Gmail dahil her yere eklemesi gibi — insanlar çalışmalarını nasıl depolayacakları ve paylaşacakları konusunda giderek daha temkinli davranıyor.

Proton Drive; fotoğraflarınız, videolarınız, albümleriniz, belgeleriniz, hesap tablolarınız ve diğer dosyalarınız için uçtan uca şifrelenmiş depolama alanı ve paylaşım sağlar. Verilerinizi asla toplamayız, işlemeyiz, üçüncü taraflarla paylaşmayız veya yapay zeka eğitimi için kullanmayız. Big Tech’in aksine Proton, reklam veya veri kullanımı yerine ödeme yapan abonelerden oluşan topluluğumuz tarafından tamamen desteklenmektedir.

Parola korumalı bağlantılar paylaşabilir, geçerlilik süreleri belirleyebilir, e-posta yoluyla yalnızca belirli kişilere erişim verebilir ve erişimi istediğiniz zaman geçersiz kılabilirsiniz. Ayrıca Proton Account sahibi olmayan kişilerden de güvenli bir şekilde dosya toplayabilirsiniz.

Kontrolden vazgeçmeden güvenli yapay zeka kullanın

Çalışmalarınız üzerindeki kontrolden vazgeçmeden ve gelecekteki bir ilke değişikliğinin dosyalarınızı aniden eğitim verilerine dönüştürebileceğinden endişe etmeden yapay zekanın avantajlarından yararlanmak istiyorsanız, güvenli yapay zeka asistanımızı(yeni pencere) kullanın. Lumo asla dosyalarınız veya yazışmalarınız üzerinde eğitim yapmaz ve açık kaynaklı koda dayanır, bu da herkesin iddialarımızı doğrulayabileceği anlamına gelir.

Lumo, Proton Drive ile entegre olur ve dosyalarınızla güvenli bir şekilde çalışmanıza ve görüntüler oluşturmanıza olanak tanır; bunu yaparken pek çok bireyin ve kuruluşun aktif olarak karşı çıktığı yapay zeka tarama ekosistemine katkıda bulunmaz.

Sanatınız hassas veridir

Yapay zeka sanat hırsızlığını durdurmak, yapay zekayı tamamen reddetmek anlamına gelmez. Ancak bu, bir illüstrasyon, bir roman veya bir şarkı olsun, yaratıcı çalışmanın hassas veri olduğunu kabul etmek anlamına gelir. Yaratıcılar, çalışmalarının nasıl ve kullanılıp kullanılmayacağına karar verme yeteneği de dahil olmak üzere, irade ve adil muameleyi hak eder.

Hiçbir tekil strateji, yapay zeka sistemlerinin halka açık içeriği — ve bazı durumlarda dolaylı olarak maruz kalan güvenli içeriği — eğitimlerine dahil etmesini tam olarak engelleyemez. Ve yapay zeka şirketleri, verilerinizi kullanmadan yapay zeka araçları oluşturmanın bir yolu olmadığına inanmanızı isteyecektir. Biz buna katılmıyoruz(yeni pencere).

Düzenleyiciler ve mahkemeler daha net bir rehberlik sağlayana kadar, en etkili yaklaşım, internetle nasıl etkileşim kurduğunuz konusunda proaktif olmak ve gizliliğinize ve yaratıcı haklarınıza açıkça saygı duyan platformları seçmektir.