Yapay zeka “hizalama sorunu”, yapay zeka sistemleri daha akıllı hale geldikçe, hedeflerini geliştiricilerinin hedefleriyle hizalamanın daha zor hale geleceğini öne sürer. Bir yapay zeka sistemi teorik olarak “kontrolden çıkabilir” ve bir hedefe ulaşmak için istenmeyen ve öngörülemeyen stratejiler tasarlayabilir.
Ataç maksimizatörü(yeni pencere), bu kavramı araştıran bir düşünce deneyidir: Süper zeki bir yapay zeka yalnızca ataç oluşturmakla görevlendirilirse, ne pahasına olursa olsun hedefine ulaşmak için dünyanın kaynaklarını ele geçirebilir ve her şeyi ataca dönüştürebilir. Sonunda yapay zekayı durdurmaya çalışan insanların dikkat dağıtıcı olduğunu fark edebilir ve bizi ortadan kaldırabilir: açıkça yapay zeka ve insan çıkarları arasında bir uyumsuzluk.
Açıkça tuhaf olsa da, ataç sorunu yapay zeka için bir popüler kültür temas noktası haline geldi. Gerçek hayatta, kısıtlamalar ve kurallar sistemlerin amaçlanan amaçlarının ötesine geçmesini engeller. Ancak birçok Big Tech (Büyük Teknoloji) kurucusu ve CEO’su, büyük dil modelleri (LLM’ler) etrafında bir vızıltı yaratmak için bu varsayımı kullanıyor. Sohbet robotları gerçekten insanlığı yok etme gücüne sahip mi? Hayır. Ancak bu onların etkileyici görünmesini sağlıyor ve daha da önemlisi, şu anda bize zarar veren gerçek yapay zeka hizalama sorununu gizliyor: Big Tech LLM’leri gizliliğimizi ihlal ediyor, verilerimizi çalıyor ve bilgi ekonomimizin değerini düşürüyor. Bu hem bir satış stratejisi hem de yanlış yönlendirmedir, bizi geleceğe bakmaya devam ettirmek ve şu anda teslim ettiğimiz kontrole bakmamızı engellemek için tasarlanmıştır.
Distopik bir geleceğe doğru mu gidiyoruz?
Kurucular ürünlerinin neler yapabileceği hakkında geniş, spekülatif ifadelerde bulunduklarında, bu öncelikle iş fırsatları yaratmak ve hissedarları için değer yaratmak için bir yöntemdir. LLM’ler ve üretken yapay zeka iş ürünleridir. Araçlarının devrim niteliğinde olduğuna inanmanız sahiplerinin çıkarınadır.
Medya kuruluşları, yapay zeka araçlarının kullanıcıların biyolojik silahlar yaratmasına(yeni pencere) veya geliştiricilere yalan söylemesine(yeni pencere) yardımcı olma potansiyeli gibi sansasyonel hikayeleri, sanki üretken yapay zekanın kendi zihni varmış gibi (yoktur) öne çıkarmaya heveslidir. Aşırı veya asılsız görüşlerle ilgili manşetlerle tıklama almak kolaydır, ancak bu tür görüşler bugün var olan yapay zeka teknolojisinin doğru bir tasviri değildir.
Bunun yerine, LLM’ler sadece kelime tahmin makineleridir. Büyük miktarda metni sindiren, insan dilinin kalıplarını “öğrenen” ve ardından kullanıcı girdilerine (yazılanlara) olasılıksal yanıtlar oluşturan bilgisayar programlarıdır. Kendi düşünceleri yoktur ve dili bile anlamazlar. Aslında, bilgiyi işleyebilmeleri için önce kelimeleri sayılara dönüştürmeleri gerekir. LLM’lerin sınırlamaları Gary Marcus(yeni pencere) ve diğer birçok araştırmacı tarafından iyi bir şekilde belgelenmiştir.
Gözetim kapitalizmi için yeni araçlar
LLM’ler kıyamete neden olmayacak, ancak başka bir konuda oldukça iyiler: sizin hakkınızda son derece ayrıntılı bilgiler toplamak. Bu yüzden LLM’ler işletmeler için bir veri madeni ve suçlular için cazip bir hedeftir.
LLM’ler, arama motorları gibi işlev gören ChatGPT, Copilot, Claude ve Grok gibi sohbet robotlarına güç verir. Görünüşe göre, bu sohbet robotlarını istediğiniz her şey için kullanabilirsiniz: Alışveriş listeleri oluşturmanıza, takviminizi düzenlemenize, e-posta yazmanıza veya kod yazmanıza yardımcı olabilirler. Onlar sizin kişisel asistanınız, öğretmeniniz, sırdaşınız veya olmalarını istediğiniz herhangi bir şeydir.
Dünya çapında yüz milyonlarca insan sorularını, fikirlerini, düşüncelerini ve en derin sırlarını sohbet robotlarıyla paylaşıyor. Bunları çalıştıran şirketler tarafından buna teşvik ediliyorlar: OpenAI CEO’su Sam Altman, yakın zamanda(yeni pencere) Z kuşağının “ne yapmaları gerektiğini ChatGPT’ye sormadan gerçekten hayat kararları vermediklerini” belirtti. Kâr amacı güden ve güvenilmez bir sohbet robotuna bu düzeyde güven ve bağımlılığı dile getirmek ve teşvik etmek son derece sorumsuzdur. Big Tech, hayatlarımıza ve düşüncelerimize hizmetleri aracılığıyla aracılık etmemizi istiyor çünkü o zaman paramızı nasıl harcadığımız, ne yaptığımız ve ne düşündüğümüz üzerinde söz sahibi oluyorlar.
LLM’lerin arkasındaki işletmeler, ürünlerini hükümetler ve işletmeler için üretkenlik çözümleri olarak satıyor, kullanıcıları için zamandan ve emekten tasarruf (kaydet) etmeyi vaat ederken sizin gözetlenmeniz için yeni fırsatlar sunuyor. Birleşik Krallık’ta, Adalet Bakanlığı’nın yapay zeka sistemi mahkumların tekrar suç işleme riskini(yeni pencere) “tahmin ediyor”. Polis memurları suç raporları yazmak için sohbet robotlarını kullanıyor(yeni pencere). Devlet yetkilerini önyargılı algoritmalarla(yeni pencere) birleştirmek tehlikelidir ve mevcut önyargıları güçlendirir.
Verilerinizi eğitim amaçlı istismar etmek
LLM’ler muazzam veri kümeleri tarafından eğitilen yapay zeka modelleri üzerinde çalışır ve hizmetlerini iyileştirmek için daha fazla veriye ihtiyaç duyarlar. Ne yazık ki bu veriler sizden geliyor: sohbetlerinizden, fotoğraflarınızdan, web aramalarınızdan. Şirketler her zaman izninizi istemeyecek veya sizden ne topladıklarını açıkça belirtmeyecektir.
Örneğin Meta AI, yüz verilerinizi analiz etmek için henüz platformlarına yüklemediğiniz (yükle) kitaplığınızdaki fotoğrafları taramak(yeni pencere) istiyor(yeni pencere). Birçok kullanıcı, Microsoft’un Copilot AI’sının(yeni pencere) her birkaç dakikada bir cihazlarının ekran görüntülerini alacağının duyurulmasından rahatsız oldu. Fotoğraflarınız, arkadaşlarınıza ve sevdiklerinize gönderdiğiniz (ileti) mesajlar ve en kişisel düşünceleriniz, şirketlerin istediği değerli veri noktalarıdır.
OpenAI’nin gizlilik ilkesine(yeni pencere) baktığımızda, ChatGPT’nin şunları bulacağını ve depolayacağını görüyoruz:
- Adınız, kişi bilgileriniz, IP adresiniz ve diğer cihaz tanımlayıcıları gibi tanımlayıcılar
- İşlem geçmişiniz gibi ticari bilgiler
- İçerik ve ChatGPT ile nasıl etkileşim kurduğunuz gibi ağ etkinliği bilgileri
- ChatGPT’ye eriştiğiniz genel konum
Bu bilgiler hükümetlere, satıcılara, iştiraklere, hizmet sağlayıcılara ve diğer üçüncü taraflara ifşa edilebilir.
Esasen, bir LLM sizi tanımaya başlar. Tıpkı bir arama motoru gibi, alışkanlıklarınızı, tercihlerinizi, ilgi alanlarınızı ve davranışlarınızdan çıkarabileceği her yönünüzü anlamaya başlar. Big Tech, kişisel verilerinizi elde etmenin yeni yollarını bulmaya her zaman öncelik verecektir çünkü bu kârlıdır. Ve fark etmeyeceğinizi umuyorlar.
Son yıllarda sosyal medyayı kasıp kavuran trendleri düşünün: özel Studio Ghibli tarzı animasyonlar(yeni pencere), Hayao Miyazaki’nin kendine özgü tarzını isteği dışında taklit etti ve Barbie gibi klasik oyuncaklardan esinlenen özel yapay zeka paketli bebekler(yeni pencere) insanların kişisel zevklerine dair görsel içgörüler yarattı. Bu sosyal medya trendi zararsız bir eğlence gibi hissettirmiş olabilir, ancak bu görüntüleri oluşturmak için kullanılan yapay zeka araçları, ana şirketlerinin reklam amaçlı kullanabileceği ve potansiyel olarak üçüncü taraflara satabileceği insanlar hakkında fotoğraf ve bilgi toplayabiliyordu. Bunlar, geçici bir trende katılım karşılığında kişisel verilerinizi sessizce alan Big Tech’in birçok örneğinden sadece ikisidir.
LLM’ler için daha iyi bir çözüm var
Tüm bu riskleri okuduktan sonra, LLM’lerin doğası gereği tehlikeli olduğunu düşünebilirsiniz. Ama durum hiç de öyle değil. Big Tech şirketleri, yapay zeka sistemlerini bilerek istilacı ve veri açlığı çeken sistemler olarak inşa ettiler. İnsanların gizliliğini koruyan ve verileri varsayılan olarak güvende tutan yapay zeka inşa etmek mümkündür. Biliyoruz çünkü bunu gizlilik öncelikli yapay zeka asistanımız(yeni pencere) Lumo ile yaptık.
İşte Lumo’nun gerçek yapay zeka hizalama sorununu nasıl çözdüğü:
- Lumo yazışmalarınızın günlüklerini tutmaz. Her sohbet, model sorgunuzu ve yanıtınızı işlemeyi bitirir bitirmez sunucularımızdan silinir.
- Sohbet geçmişleri sıfır erişim şifrelemesiyle depolanır. Verilerinizi gizli anahtarınızla kilitleyerek, Proton asla erişime sahip olmaz ve bu nedenle verilerinizi asla paylaşamaz veya yanlışlıkla sızdıramaz.
- Modelleri sohbetlerinizle eğitmeyiz. Yapay zeka modellerini eğitmek için yazışmaları kullanmak, verilerinizin gelecekteki çıktılarda yeniden ortaya çıkma riskiyle karşı karşıya kalmasına neden olur. Lumo ile yapılan yazışmalar yalnızca size aittir.
- Lumo açık kaynaklıdır ve yalnızca açık kaynaklı modeller kullanır. Kod tabanımız halka açık olduğundan, herkes uygulamalarımızın tam olarak iddia ettiğimiz şeyi yaptığını doğrulayabilir.
- Gizliliğe saygılı bir yargı bölgesinde bulunuyoruz. İstilacı gözetim yasalarına tabi olan ABD merkezli Big Tech yapay zekalarının aksine, Lumo Avrupa merkezlidir ve güçlü gizlilik yasalarıyla korunmaktadır.
Lumo her düzeyde, riskli dışsallıklar olmadan diğer LLM’lerle aynı faydayı sağlamak üzere tasarlanmıştır. Big Tech, yapay zekalarını aynı şekilde inşa edebilirdi. Sadece yapmamayı seçiyorlar çünkü verileriniz onların para birimidir.
Yapay zeka hizalaması gerçekten bir tehdit mi?
Gerçek, Big Tech CEO’larının inanmamızı istediğinden daha az heyecan verici. Bir yapay zekanın insanları biyolojik silahlar yaratmaya veya küresel kaynaklarımızın tamamını ataç yapmak için harcamaya teşvik etmesi, Big Tech’in halihazırda izlediği direktifleri takip etmesinden daha az olası görünüyor: Güvenli verileri çalmak ve istismar etmek.
Yapay zeka hizalaması hakkındaki abartıya inanmayın. Bu, hiçbirimizin odaklanması gereken tehdit değil. Gözetim, bireylerin ve daha küçük işletmelerin istismarı ve ele geçirilmiş (ödün verilmiş) bir bilgi ekosistemi, yapay zeka söz konusu olduğunda aslında dikkat etmemiz gereken acil endişelerdir.






