1 puan yazan GN⁺ 2026-03-01 | 1 yorum | WhatsApp'ta paylaş
  • Google içindeki çalışanlar, askeri yapay zekâ (AI) projeleri için açık etik sınırlar (kırmızı çizgiler) belirlenmesini talep ediyor
  • Çalışanlar, Pentagon (ABD Savunma Bakanlığı) ile iş birliğinin genişlemesinden endişe duyduklarını belirtirken, yapay zekânın askeri kullanım alanının sınırlandırılması gerektiğini savunuyor
  • Bu talep, kısa süre önce Anthropic’in askeri yapay zekâ için kendi kısıtlamalarını belirleme kararıyla benzer bir eğilim olarak değerlendiriliyor
  • Çalışanlar, DeepMind başta olmak üzere Google bünyesindeki yapay zekâ birimlerinin silah geliştirme veya muharebe desteğine dahil olmaması için net yönergeler hazırlanması gerektiğini söylüyor
  • Teknoloji şirketlerinde yapay zekâ etiği ile güvenlik iş birliklerinin sınırı etrafındaki iç tartışmalar yeniden gündeme geliyor

Google çalışanlarının askeri AI endişesi

  • Google çalışanları, şirketin AI teknolojisinin askeri amaçlarla kullanılma ihtimali konusunda endişelerini dile getiriyor
    • Özellikle Pentagon ile iş birliğinin büyüdüğü bir dönemde, AI’nin öldürücü silahlara veya muharebe sistemlerine uygulanmasını engelleyecek şirket içi kurallara ihtiyaç olduğunu vurguluyorlar
  • Çalışanlar, etik yönergelerin güçlendirilmesi ve yapay zekâ geliştirmenin askeri olmayan amaçlarının netleştirilmesi gerektiğini savunuyor

Anthropic ile karşılaştırma

  • Kısa süre önce Anthropic, askeri yapay zekâ için kendi kısıtlama önlemlerini açıkladı
    • Google çalışanlarının talepleri, Anthropic’in bu kararıyla benzer bir yönelim gösteriyor
  • Her iki örnek de, yapay zekânın askeri alanda kötüye kullanımını önlemeye yönelik teknoloji sektöründeki iç denetim çabaları olarak yorumlanıyor

DeepMind’in rolü ve şirket içi tartışma

  • Google bünyesindeki DeepMind’in Pentagon bağlantılı projelere katılma ihtimali tartışma konusu olmuş durumda
  • Bazı çalışanlar, DeepMind’in silah geliştirme veya muharebe destek sistemlerine dahil olmaması için net kırmızı çizgiler belirlenmesi gerektiğini savunuyor

Teknoloji şirketlerinde etik gerilim

  • Google içindeki bu tartışma, yapay zekâ etiği ile ulusal güvenlik iş birlikleri arasındaki gerilimi yeniden öne çıkarıyor
  • Çalışanların talepleri, aynı anda hem şirketlerin toplumsal sorumluluğu hem de teknolojinin askeri kullanımının sınırlandırılması konularını gündeme getiriyor

Sektör genelindeki anlamı

  • Anthropic ve Google örnekleri, yapay zekâ şirketlerinin askeri iş birliklerine dair iç standartlarını yeniden tanımladığı bir eğilime işaret ediyor
  • İleride diğer teknoloji şirketlerinin de yapay zekânın askeri kullanımına ilişkin açık politikalar oluşturması yönünde baskı görmesi mümkün

1 yorum

 
GN⁺ 2026-03-01
Hacker News görüşleri
  • Niyeti anlıyorum, ancak bunun küresel ölçekte nasıl işleyeceğini merak ediyorum
    Örneğin ABD'deki çalışanlar bu tür silah geliştirmeyi reddedebilir, ama Çin'deki çalışanlar etmeyebilir
    Bireysel savaş karşıtı duygular ile dünyanın gerçekleri, özellikle de yapay zeka silahlanma yarışı içinde nasıl bir denge kurulabileceğini düşünüyorum

    • Çin'in yapay zekayı silahlandırdığında dış dünya için ne tür bir tehdit oluşturduğunu açıkça anlatmak ve buna verilecek karşılıkları tartışmak gerekir
      Ne pahasına olursa olsun kapasite yarışına girmek tehlikeli bir mantık
      Bireysel savaş karşıtı duygular ile gerçeklik arasındaki denge, bilginin açıklığı, gönüllü rıza vermeyi reddetme ve tüm kararlar için meşruiyet talebi ile kurulmalı
    • Endişelenmeye gerek yok. Google yapmasa xAI yapar
      Bu arada Anthropic tüm askeri projeleri reddetmedi; bunun yerine koşullu katılım yaklaşımını benimsedi
    • Oyun teorisini bir kenara bırakıp pratik açıdan bakarsak, Çin yapay zekayı silahlandırırsa bunu 'bir gün' kullanma ihtimali var
      ama ABD silahlandırırsa 'bu yıl içinde' gerçekten insanları öldürmek için kullanma ihtimali daha yüksek
      Yani ABD'li geliştiriciler bunun hemen yaşanabilecek bir gerçeklik olduğunu hesaba katmalı
    • Nükleer silah yarışında olduğu gibi anlaşmalarla sınırlandırılıp denetlenmeli
      Yine de siyasi liderler ahlaki sınırları aşmadan önce müzakerelere başlansaydı daha iyi olurdu
    • Katılımcı sayısı azalırsa ilerleme hızı yavaşlar
      Yani çok iyi mühendisler etik dışı projeleri reddederse, daha az yetkin insanların kötü şeyler yapma fırsatı da azalır
      Tıpkı white-hat geliştiricilerin black-hat hackerlarla işbirliği yapmaması gibi, etik gerekçeyle katılmama caydırıcı bir etki yaratır
  • Eğer böyle bir mesele sadece öz denetime bırakılacaksa, zaten umut kalmamış demektir diye düşünüyorum

    • Son tahlilde en üst düzeyde her şey öz denetime dayanıyor
      Yine de bu tür ahlaki tereddütlerin açıkça dile getirilmesi bir ilerlemedir
      Bu tür konuşmalar birikmeli ki toplumsal uzlaşı oluşsun ve değişim talebine dönüşsün
    • Durum şu anda o kadar ciddi ki, öz denetim bile hiç olmamasından iyidir diye düşünüyorum
      Delirmiş iktidar sahiplerine boyun eğmekten çok daha iyidir
  • Niyet iyi ama yapay zekanın silahlandırılmasına dair Pandora'nın kutusu zaten çok uzun zaman önce açıldı

    • Hep aynı şey söyleniyor — “artık kontrol etmek imkansız”
      Ama öyle olsaydı insanlık zaten defalarca yok olmuş olurdu
      Ölçülülüğün mümkün olduğuna dair inancı kaybetmemek gerekir
    • Aslında bu eğilim en başından beri vardı
      Çünkü ABD ordusu sayısız bilişim projesini finanse etti
  • Alt sınır “yalnızca yurt içinde kullanım” değil, doğrudan “yapmıyoruz” olmalı

  • “Google çalışanlarından 100'ü protesto etti” haberi etkileyici

    • Ama bu tür işler sık sık gizli projelere dönüştürülüyor ve ilgili kişilerin sonunda işten çıkarılması ihtimali yüksek
      Muhtemelen 2027 civarında sessizce kapatılır diye düşünüyorum
    • Aslında sayının 200 civarında olduğunu duydum
    • Yine de bütün değişimler cesur azınlıkların içinden başlar
  • Jeff Dean'in siyasi açıklamalarına bakılırsa direniş tarafına daha yakın gibi görünüyor
    Ama tüm yönetimin bu tutumu izleyip izlemeyeceği şüpheli

    • Yine de bir Amerikalı otonom silahlar yüzünden hayatını kaybettiği anda bu direniş ortadan kalkacaktır
      Bunun yaşanmaması için şimdi olabildiğince önlem almak gerekiyor
  • New York Times yazısı: Ukrayna savaşı ve AI drone'ların rolü

  • Google'ın ilkeli duruşunu sonuna kadar koruyacağına neredeyse hiç inanmıyorum

  • İlginç olan, Savunma Bakanlığı'nın Anthropic'i tedarik zinciri riski taşıyan bir şirket olarak sınıflandırmasına rağmen
    OpenAI'a sözleşme vermiş olması
    İki şirketin yasaklayıcı politikaları neredeyse aynıyken neden böyle bir ayrım yapıldığı merak konusu

  • Bu tartışmaların şimdiden unutulmuş olması şaşırtıcı
    The Guardian haberi'ne göre
    Google ve OpenAI zaten savunma sözleşmeleri imzalamış durumda
    Buna katılmıyorsanız şirketten ayrılmanız gerekir, ama gerçekte bunu yapacak insan çok az olacaktır

    • Bence kalıp üstü kapalı biçimde verimsiz çalışarak direnmek daha iyi olabilir