- Google içindeki çalışanlar, askeri yapay zekâ (AI) projeleri için açık etik sınırlar (kırmızı çizgiler) belirlenmesini talep ediyor
- Çalışanlar, Pentagon (ABD Savunma Bakanlığı) ile iş birliğinin genişlemesinden endişe duyduklarını belirtirken, yapay zekânın askeri kullanım alanının sınırlandırılması gerektiğini savunuyor
- Bu talep, kısa süre önce Anthropic’in askeri yapay zekâ için kendi kısıtlamalarını belirleme kararıyla benzer bir eğilim olarak değerlendiriliyor
- Çalışanlar, DeepMind başta olmak üzere Google bünyesindeki yapay zekâ birimlerinin silah geliştirme veya muharebe desteğine dahil olmaması için net yönergeler hazırlanması gerektiğini söylüyor
- Teknoloji şirketlerinde yapay zekâ etiği ile güvenlik iş birliklerinin sınırı etrafındaki iç tartışmalar yeniden gündeme geliyor
Google çalışanlarının askeri AI endişesi
- Google çalışanları, şirketin AI teknolojisinin askeri amaçlarla kullanılma ihtimali konusunda endişelerini dile getiriyor
- Özellikle Pentagon ile iş birliğinin büyüdüğü bir dönemde, AI’nin öldürücü silahlara veya muharebe sistemlerine uygulanmasını engelleyecek şirket içi kurallara ihtiyaç olduğunu vurguluyorlar
- Çalışanlar, etik yönergelerin güçlendirilmesi ve yapay zekâ geliştirmenin askeri olmayan amaçlarının netleştirilmesi gerektiğini savunuyor
Anthropic ile karşılaştırma
- Kısa süre önce Anthropic, askeri yapay zekâ için kendi kısıtlama önlemlerini açıkladı
- Google çalışanlarının talepleri, Anthropic’in bu kararıyla benzer bir yönelim gösteriyor
- Her iki örnek de, yapay zekânın askeri alanda kötüye kullanımını önlemeye yönelik teknoloji sektöründeki iç denetim çabaları olarak yorumlanıyor
DeepMind’in rolü ve şirket içi tartışma
- Google bünyesindeki DeepMind’in Pentagon bağlantılı projelere katılma ihtimali tartışma konusu olmuş durumda
- Bazı çalışanlar, DeepMind’in silah geliştirme veya muharebe destek sistemlerine dahil olmaması için net kırmızı çizgiler belirlenmesi gerektiğini savunuyor
Teknoloji şirketlerinde etik gerilim
- Google içindeki bu tartışma, yapay zekâ etiği ile ulusal güvenlik iş birlikleri arasındaki gerilimi yeniden öne çıkarıyor
- Çalışanların talepleri, aynı anda hem şirketlerin toplumsal sorumluluğu hem de teknolojinin askeri kullanımının sınırlandırılması konularını gündeme getiriyor
Sektör genelindeki anlamı
- Anthropic ve Google örnekleri, yapay zekâ şirketlerinin askeri iş birliklerine dair iç standartlarını yeniden tanımladığı bir eğilime işaret ediyor
- İleride diğer teknoloji şirketlerinin de yapay zekânın askeri kullanımına ilişkin açık politikalar oluşturması yönünde baskı görmesi mümkün
1 yorum
Hacker News görüşleri
Niyeti anlıyorum, ancak bunun küresel ölçekte nasıl işleyeceğini merak ediyorum
Örneğin ABD'deki çalışanlar bu tür silah geliştirmeyi reddedebilir, ama Çin'deki çalışanlar etmeyebilir
Bireysel savaş karşıtı duygular ile dünyanın gerçekleri, özellikle de yapay zeka silahlanma yarışı içinde nasıl bir denge kurulabileceğini düşünüyorum
Ne pahasına olursa olsun kapasite yarışına girmek tehlikeli bir mantık
Bireysel savaş karşıtı duygular ile gerçeklik arasındaki denge, bilginin açıklığı, gönüllü rıza vermeyi reddetme ve tüm kararlar için meşruiyet talebi ile kurulmalı
Bu arada Anthropic tüm askeri projeleri reddetmedi; bunun yerine koşullu katılım yaklaşımını benimsedi
ama ABD silahlandırırsa 'bu yıl içinde' gerçekten insanları öldürmek için kullanma ihtimali daha yüksek
Yani ABD'li geliştiriciler bunun hemen yaşanabilecek bir gerçeklik olduğunu hesaba katmalı
Yine de siyasi liderler ahlaki sınırları aşmadan önce müzakerelere başlansaydı daha iyi olurdu
Yani çok iyi mühendisler etik dışı projeleri reddederse, daha az yetkin insanların kötü şeyler yapma fırsatı da azalır
Tıpkı white-hat geliştiricilerin black-hat hackerlarla işbirliği yapmaması gibi, etik gerekçeyle katılmama caydırıcı bir etki yaratır
Eğer böyle bir mesele sadece öz denetime bırakılacaksa, zaten umut kalmamış demektir diye düşünüyorum
Yine de bu tür ahlaki tereddütlerin açıkça dile getirilmesi bir ilerlemedir
Bu tür konuşmalar birikmeli ki toplumsal uzlaşı oluşsun ve değişim talebine dönüşsün
Delirmiş iktidar sahiplerine boyun eğmekten çok daha iyidir
Niyet iyi ama yapay zekanın silahlandırılmasına dair Pandora'nın kutusu zaten çok uzun zaman önce açıldı
Ama öyle olsaydı insanlık zaten defalarca yok olmuş olurdu
Ölçülülüğün mümkün olduğuna dair inancı kaybetmemek gerekir
Çünkü ABD ordusu sayısız bilişim projesini finanse etti
Alt sınır “yalnızca yurt içinde kullanım” değil, doğrudan “yapmıyoruz” olmalı
“Google çalışanlarından 100'ü protesto etti” haberi etkileyici
Muhtemelen 2027 civarında sessizce kapatılır diye düşünüyorum
Jeff Dean'in siyasi açıklamalarına bakılırsa direniş tarafına daha yakın gibi görünüyor
Ama tüm yönetimin bu tutumu izleyip izlemeyeceği şüpheli
Bunun yaşanmaması için şimdi olabildiğince önlem almak gerekiyor
New York Times yazısı: Ukrayna savaşı ve AI drone'ların rolü
Google'ın ilkeli duruşunu sonuna kadar koruyacağına neredeyse hiç inanmıyorum
İlginç olan, Savunma Bakanlığı'nın Anthropic'i tedarik zinciri riski taşıyan bir şirket olarak sınıflandırmasına rağmen
OpenAI'a sözleşme vermiş olması
İki şirketin yasaklayıcı politikaları neredeyse aynıyken neden böyle bir ayrım yapıldığı merak konusu
Bu tartışmaların şimdiden unutulmuş olması şaşırtıcı
The Guardian haberi'ne göre
Google ve OpenAI zaten savunma sözleşmeleri imzalamış durumda
Buna katılmıyorsanız şirketten ayrılmanız gerekir, ama gerçekte bunu yapacak insan çok az olacaktır