- OpenAI, Department of War ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin dağıtımına yönelik bir sözleşme imzaladığını ve bunun tüm yapay zeka şirketlerine eşit şekilde uygulanmasını istediğini belirtti
- Bu sözleşmenin mevcut gizli yapay zeka dağıtımlarına kıyasla daha fazla güvenlik korkuluğu içerdiğini açıkladı
- OpenAI teknolojisinin geniş çaplı yurt içi gözetim, otonom silah komutası, yüksek riskli otomatik karar alma için kullanılmamasının kırmızı çizgi olduğunu açıkça belirtti
- Güvenlik yığını üzerinde tam takdir yetkisinin korunması, bulut tabanlı dağıtım, güvenlik iznine sahip personelin müdahalesi ve güçlü sözleşmesel korumaların uygulanması vurgulandı
- Anthropic’in tedarik zinciri riski olarak tanımlanmaması gerektiği yönündeki tutumunu Department of War’a açıkça iletti
Department of War ile sözleşme imzalanması
- OpenAI, Department of War ile gelişmiş yapay zeka sistemlerini gizli ortamlara dağıtmaya yönelik bir sözleşme imzaladı
- Bu dağıtımın tüm yapay zeka şirketlerine eşit şekilde sunulmasını talep etti
- Bu sözleşmenin mevcut gizli yapay zeka dağıtım sözleşmelerine göre daha fazla güvenlik önlemi içerdiği belirtildi
Kırmızı çizgilerin korunması
- OpenAI teknolojisi geniş çaplı yurt içi gözetim için kullanılmayacak
- OpenAI teknolojisi otonom silah sistemlerinin komutası için kullanılmayacak
- OpenAI teknolojisi yüksek riskli otomatik karar alma sistemleri (ör. social credit) için kullanılmayacak
Çok katmanlı güvenlik koruma yapısı
- Bazı yapay zeka laboratuvarlarının ulusal güvenlik dağıtımlarında kullanım politikası merkezli korumalara indirgeme veya bunları kaldırma yaklaşımıyla karşılaştırıldı
- OpenAI ise genişletilmiş çok katmanlı bir yaklaşım uyguluyor
- Güvenlik yığını üzerinde tam takdir yetkisini koruyor
- Bulut tabanlı dağıtım modelini sürdürüyor
- Güvenlik iznine sahip OpenAI personelinin müdahil olduğu bir yapı kullanıyor
- Güçlü sözleşmesel koruma mekanizmaları içeriyor
- Mevcut ABD yasalarındaki korumalarla birlikte uygulanıyor
Anthropic hakkındaki tutum
- Anthropic’in tedarik zinciri riski olarak tanımlanmasına karşı olduğunu ifade etti
- Bu tutumu Department of War’a açıkça iletti
5 yorum
Bununla ilgili içeriğin zaman çizelgesi şeklinde düzenlenmesi gerekiyor gibi görünüyor. OpenAI tarafında sözleşme görüşmelerinin sürdüğüne dair iddialar da var, değil mi?
"İçerik yok" şeklindeki özet hatasıyla ilk kez karşılaşıyorum..
Görünüşe göre x'in taraması biraz zorlaştığı için böyle durumlar yaşanabiliyor. İyileştirmeye çalışacağız.
Her zaman ilgiyle takip ediyorum, teşekkür ederim.
Hacker News görüşleri
Asıl mesele, OpenAI sözleşmesindeki gerçek ifade ile Altman’ın söyledikleri arasındaki fark
Sözleşmede, “yasa veya politika insan denetimi gerektiriyorsa otonom silah kullanımında kullanılmaz” deniyor
Yani Savunma Bakanlığı “insan denetimi gerekmez” derse bunun önü açılıyor
Anthropic, “geniş çaplı gözetim kesinlikle yasak” şeklinde mutlak bir kırmızı çizgi koymuştu; OpenAI ise bunu “yasa izin veriyorsa olabilir” noktasına kadar yumuşattı
Böyle bir sözleşme imzalayıp sonra da Anthropic’i savunuyormuş gibi yapmak, sektörde ender görülen bir PR şovu gibi duruyor
X floodunda OpenAI, Savunma Bakanlığı ile yaptığı sözleşmenin kendi redline’larını koruduğunu savundu
Ancak NPR haberine göre Anthropic aynı standardı koruduğu için sözleşme dışında bırakıldı, OpenAI ise parayı aldı
Bu yüzden ihaleyi kazandı
Ama bu guardrail’lerin sivil gözetimi engelleyip engelleyemeyeceği şüpheli
“Any Lawful Use” maddesinin sorunu, Savunma Bakanlığı’nın ‘yasal’ın tanımını istediği gibi yapabilmesi
Kurum içinden bir avukatın tek bir not yazması, onu bir anda yasal hale getirebilir
Devlet yetkisinin kötüye kullanımını ancak oy verme ve kurumsal reform ile düzeltebilirsiniz
Sistem teoride böyle tasarlanmamış olabilir ama pratikte durum farklı
Sonuçta yeni adıyla “Department of War”, sadece vergileri boşa harcayıp işe yaramaz teknolojileri fahiş fiyatlara satın alacak
Vatandaşlar adına üzücü
Anthropic ile OpenAI arasındaki fark şu: Anthropic bu kısıtları teknik olarak zorunlu kılmaya çalıştı, OpenAI ise “hükümetin bunları ihlal etmemesini umuyoruz” diye sözlü güvence vermekle yetindi
Hükümetin ikincisini seçmesi şaşırtıcı değil
Yani “yasalsa, kitlesel gözetim ya da otonom öldürücü silahlar da olabilir” kapısını açık bırakıyor
Otonom ölümcül kararlar veren yapay zeka, son derece tehlikeli bir fikir
Mesele sadece süperzekâ değil; küçük modellerle bile herkesin izlenemez silahlar üretebilmesi
Bugünkü modeller insan hayatına olumlu yaklaşım gösterecek şekilde eğitildi, ama bu çıkarılırsa ortaya canavar gibi sistemler çıkar
Onlar sadece olasılıksal token tahminleyicileri
Örneğin yazılım öldürülecek hedef listesini çıkarıyor, insan da drone’u kullanıyordu
İnsanlar galiba Anthropic’in Palantir ile çalıştığını unuttu
Bu ortaya çıkınca işi PR ile örtmeye çalıştılar
OpenAI bu tartışma yüzünden müşteri kaybediyor gibi görünüyor; bu yüzden imaj düzeltmeye yönelik bir gönderi paylaşmış olabilir
Anthropic, hükümetin AI düzenlemelerini sıkılaştırmasını istiyordu; şimdi bir bakıma bunun sonuçları kendisini vurmuş oldu
Bu olay, OpenAI’nin etik standartlarının zayıf olduğu eleştirilerine PR ile cevap vermeye çalıştığını düşündürüyor
Yurt dışında ise etik dışı kullanım hâlâ mümkün