- ABD Savunma Bakanlığı (DoD), Anthropic'e karşı Savunma Üretim Yasası'nı (Defense Production Act) devreye sokmakla tehdit ediyor ve şirketi askeri amaçlı model sağlamaya ve ordunun taleplerine göre ayarlamalar yapmaya zorlamaya çalışıyor
- Anthropic, modellerinin yurt içi geniş çaplı gözetim veya insan denetimi olmadan otonom öldürme için kullanılmasını reddediyor; buna misilleme olarak Savunma Bakanlığı şirketi tedarik zinciri riski (supply chain risk) olarak tanımlamaya hazırlanıyor
- Savunma Bakanlığı, Anthropic'in reddettiği koşulları kabul ettirebilmek için Google ve OpenAI ile de görüşmeler yürütüyor ve şirketleri birbirine karşı yarıştırmaya çalışıyor
- Buna karşı Google ve OpenAI'den 709 mevcut çalışan (Google 614, OpenAI 95) ortak imzalı bir açık mektupla, iki şirketi de birlik içinde Savunma Bakanlığı'nın taleplerini reddetmeye çağırıyor
- Bu mektup, yapay zekanın askeri amaçlarla kötüye kullanılmasına karşı şirket içi direncin ve sektör dayanışmasının sembolik bir eylemi niteliğinde
Açık mektubun ana içeriği
- Savunma Bakanlığı, Anthropic'e karşı Savunma Üretim Yasası'nın uygulanması ve tedarik zinciri riski olarak sınıflandırma tehdidinde bulunuyor
- Talep edilen şey, Anthropic'in yapay zeka modellerini orduya sunmasının ve bunları ordunun ihtiyaçlarına göre uyarlamasının zorlanması
- Anthropic, yurt içi gözetim ve otonom öldürücü silahlarda kullanım yasağı yönündeki iç ilkesini koruyor
- Savunma Bakanlığı, Anthropic'in reddinin ardından Google ve OpenAI ile görüşmeler yürütüyor
- Bu, her şirketin diğerinden önce taviz vereceği yönünde korku yaratmayı amaçlayan bir strateji olarak tanımlanıyor
- Mektup, bu bölme girişimini engellemek için ortak bir tutum beyanı anlamı taşıyor
- “Bu strateji ancak birbirimizin pozisyonunu bilmediğimizde işe yarar” ifadesiyle dayanışma ihtiyacı vurgulanıyor
İmzacıların ve katılımın durumu
- Google'dan 614 çalışan, OpenAI'den 95 çalışan imza attı
- Hepsinin mevcut çalışan olduğu doğrulandı
- Bir kısmı gerçek isimleriyle, çoğu ise anonim (Anonymous) olarak katıldı
- İmzalar için anonim veya gerçek isim seçeneği sunuldu ve tüm imzalar istihdam doğrulama süreciyle teyit edildi
- Doğrulama yöntemleri: şirket e-postası doğrulaması, Google Form oturumu veya kimlik fotoğrafı gönderimi
- Anonim imzacıların kişisel verileri doğrulamadan sonraki 24 saat içinde otomatik olarak siliniyor
Mektubun önemi
- Yapay zeka şirketleri içinde askeri kullanıma ilişkin etik sınırların belirgin biçimde çizildiği bir örnek
- Google ve OpenAI çalışanları, şirketler arası rekabetten çok ortak ilkeleri öncelediklerini açıkça ortaya koyuyor
- Yapay zekanın otonom öldürme ve gözetim teknolojilerinde kötüye kullanılmasına karşı sektör içi bir denge unsuru olarak önemli anlam taşıyor
3 yorum
ABD istihbarat kurumları söz konusu olunca bunu doğrudan kendileri geliştirseler de olurdu.... Üstelik eğitim verisi toplayacak materyalleri daha iyi derlerlerdi
Vay be
Hacker News görüşleri
Bu meselenin ABD ekonomisi ve genel olarak hukukun üstünlüğü üzerinde çok daha büyük etkileri olacak gibi görünüyor
Hükümet, ulusal güvenlik bahanesiyle oluşturduğu tedarik kurallarını kullanarak Anthropic’i ‘yeterince sadık olmadığı’ için cezalandırabiliyorsa, gelecekte Apple veya Amazon gibi diğer şirketler de aynı riskle karşı karşıya kalabilir
Bu, ABD için önemli bir dönüm noktası anı
Anthropic’in, modelinin ABD Savunma Bakanlığı’nın ‘büyük ölçekli otomatik öldürme’ amacıyla uyumlu olmadığını açıkça belirtmesi bence akıllıcaydı
LLM ile silah işletmek tarihsel açıdan da korkunç bir hata
Eğer Anthropic çökerse, bu ABD’ye duyulan güvenin tabutuna çakılan bir çivi daha olur
Abonelik şirketleri, başkanın tek bir sözü yüzünden önemli araçlarını kaybeder ve diğer ABD şirketlerine güvenmenin güvenli olup olmadığını sorgulamaya başlar
Artık bir Truth Social gönderisiyle, normalde yıllar sürecek şeyler bir günde oluyor
Sonunda birileri Savunma Bakanlığı’nın taleplerini yerine getirecektir ve Anthropic dayansa bile sonuç değişmeyecektir
Savunma Bakanlığı’nın onları ‘tedarik zinciri zafiyeti’ olarak nitelemesi hataydı. Sadece DPA kullanılsaydı çok daha ucuz ve sessiz olurdu
Geçmişte bilim insanlarının Nazi Almanyası’ndan ABD’ye kaçıp Manhattan Projesi’ne katılması gibi, bu kez de yapay zeka yetenekleri ABD’den ayrılacak
Kendi ülkesindeki kitlesel gözetim, vatandaşları için katlanılabilir görünebilir ama başka bir ülke aynısını yaptığında Amerikalılar ne hissederdi
Bu tür politikalar sonuçta tüm dünyanın birbirini gözetlemesine izin vermek anlamına geliyor
Sanki ABD vatandaşlarının hayatını tehdit etmediği sürece yabancı gözetim veya otonom silahlar kabul edilebilirmiş gibi bir ton vardı
Bunun bazı Amerikalıların gerçek düşüncesi mi yoksa aşırı vatanseverlere hitap etmeye yönelik bir ifade mi olduğunu merak ediyorum
Hükümetin son dönemdeki davranışlarını görünce, böyle insanlara nasıl davranılacağı konusunda endişeleniyorum
ABD, çok uzun süre süper güç olarak hüküm sürdüğü için “biz her zaman haklıyız” şeklinde bir güç bağımlılığına kapılmış gibi görünüyor
Şirketler nihayetinde bireylerden oluşur; bu yüzden hükümet politika dayattığında inovasyonun öldüğünü düşünüyorum
Harika bilim insanlarını ve mühendisleri zorla boyun eğdirmeye çalışmak israftır
Ancak hükümetin tüm işlemleri durdurması aşırı olabilir
Örneğin bir konserve domates şirketi “teröre karşı savaşta kullanılmasın” diyorsa, hükümetin o şirketten uzak durması makul olabilir
Gücü kaybetse bile bu tekel ortadan kalkmaz. Özellikle de lider, toplumdaki etkili kişileri zaafları üzerinden kontrol ediyorsa
Anthropic’in açıklamasında geçen “yurt içi kitlesel gözetim ve otonom öldürme”yi reddetme ifadesi bir tuzak
‘Yurt içi’ kelimesi anlamsız.
Eyes anlaşmalarına göre ülkeler, birbirlerinin vatandaş verilerini paylaşarak kendi vatandaşlarını gözetleme yasağını dolanıyor
Sonuçta bütün devletler birbirini gözetliyor ve yasalar sadece kamuoyunu yatıştıran süsler haline geliyor
Casus botlar vatandaşlık diye bir kavram tanımaz ve tüm dijital faaliyetler gözetimin hedefidir
Google veya TikTok yapabiliyorsa, hükümetin ya da ChatGPT gibi ajan tabanlı yapay zekanın da yapabilmesi doğaldır
Şu anda olan şey bir yapay zeka meselesi değil, bir sadakat testi
Hükümet fonu ile sadakat arasındaki takas ve herkesin önüne gelecek tercih anı söz konusu
Sonunda suç ortaklığı yapmak, sadakatin kanıtı haline gelen bir dünyaya gidiyoruz
Bu yüzden umut etmeyin, talep edin ve direnin
EmbeddingGemma veya Qwen3 gibi modellerle bile yeterli veri kümeleme yapılabilir
ABD zaten komuta ekonomisi gibi işliyor
COVID döneminde de ‘özel şirket’ görüntüsü altında sadece kamu harcamalarıyla büyüdü
Eğer Savunma Bakanlığı’nın elinde özel sektörden daha iyi bir yapay zeka yoksa, bu bir beceriksizlik itirafıdır
Artık askeri organizasyonu reforme etmek ve yetersiz liderliği değiştirmek gerekiyor
Ayrıca hükümetin Anthropic’ten daha iyi üretken yapay zekaya sahip olmaması da bence gayet normal
İktidar değişse bile savunma harcamaları artmaya devam edecek ve bu para insan öldürme konusunda çekincesi olmayan şirketlere akacak
Eisenhower’ın uyarısı gerçeğe dönüşmüş olacak
Fark, kapitalizmin elitleri sonuçlara göre seçmesiydi; fakat o bile 2011’den sonra bulanıklaştı
Şimdiye kadar olanları bir zaman çizelgesi halinde derledim
Anthropic’i tedarik zinciri güvenlik riski olarak sınıflandırma tartışmalarıyla birlikte, şirketin ulusal güvenlik gerekçesiyle devralınabileceği tehdidi de vardı
Sonunda OpenAI’ın da benzer şekilde kârların özelleştirildiği, zararların toplumsallaştırıldığı bir yapıya sürükleneceği öngörülüyor
Bir site, OpenAI veya Google’ın eski ve mevcut çalışanları arasında belirli siyasi eğilimlere sahip kişilerin kimlik bilgilerini topluyor
Şirket e-postası, personel kartı fotoğrafı gibi şeylerle doğrulama istiyor ve bunları ABD merkezli bulutta sakladığını söylüyor
İşletmecisi anonim ve bu veriler farklı gruplar tarafından çeşitli amaçlarla kullanılabilecek gibi görünüyor
“Liderlerin farklılıklarını bir kenara bırakıp birlikte reddetmesini umut ediyoruz” sözü güzel, ama bu umudun boşa çıkması ihtimalini de düşünmek gerek
Gerçekçi olmasa da, böyle bir kararlılık olursa saygı duyarım