- Pete Hegseth, Savunma Bakanlığı’na Anthropic’i ulusal güvenlik tedarik zinciri riski şirketi olarak tanımlama talimatı verdi ve ABD ordusuyla iş yapan tüm şirketlerin Anthropic kullanmasını yasakladı
- Tüm yasal savunma amaçları için sınırsız model erişimi talep ettiğini, ancak Anthropic’in buna uymadığını söyleyerek eleştirdi
- Başkan Trump, Truth Social üzerinden tüm federal kurumlarda Anthropic teknolojisinin kullanımının derhal durdurulmasını emretti ve 6 aylık geçiş süresi tanıdı
- Aylar süren müzakerelerde Anthropic, modellerinin geniş çaplı iç gözetim ve insan müdahalesi olmadan otonom silah geliştirme için kullanılmasına karşı güvenlik önlemleri talep etmişti, ancak Savunma Bakanlığı bunu reddetti
- Claude şu anda ABD ordusunun gizli sistemlerinde kullanılan tek yapay zeka modeli ve Maduro’yu yakalama operasyonunda da kullanıldığı için geçişin oldukça zor olması bekleniyor
- Bu adım, bir ABD şirketine tedarik zinciri riski tanımının uygulanmasındaki ilk örnek oldu ve yapay zeka şirketleri ile ulusal güvenlik arasındaki ilişki açısından önemli bir emsal oluşturacak
Savunma Bakanı Pete Hegseth’in resmi açıklaması
- Anthropic ve CEO’su Dario Amodei’yi, "etkili özgecilik (effective altruism)" söyleminin arkasına saklanarak ABD ordusu üzerinde veto hakkı kullanmaya çalışmakla eleştirdi
- Savunma Bakanlığı’nın Anthropic modelleri için tüm yasal amaçlara tam ve sınırsız erişim hakkı talep ettiğini ve bu tutumun değişmeyeceğini vurguladı
- Anthropic’in kullanım şartlarının, ABD askerlerinin güvenliği, savaşa hazırlık durumu ve hayatlarından daha öncelikli olamayacağını ilan etti
- Derhal yürürlüğe girmek üzere, ABD ordusuyla iş yapan hiçbir yüklenici, tedarikçi veya partner Anthropic ile ticari faaliyette bulunamayacak
- Anthropic’in, sorunsuz geçiş için en fazla 6 ay boyunca Savunma Bakanlığı’na hizmet vermeyi sürdürmesine izin verildi
- "Amerika’nın savaşçıları asla Big Tech’in ideolojik kaprislerine rehin olmayacak" diyerek bunun nihai karar olduğunu belirtti
Anlaşmazlığın arka planı: Aylar süren müzakereler
- Anthropic ile Savunma Bakanlığı, ordunun Claude kullanımı koşulları konusunda aylar süren gergin görüşmeler yürüttü
- Anthropic, kullanım politikasında ayarlamalara açık olduğunu söylese de, modellerinin Amerikalılara yönelik geniş çaplı gözetimde ve insan müdahalesi olmadan ateşlenen silahların geliştirilmesinde kullanılmamasını sağlayacak iki güvenlik önleminde ısrar etti
- Savunma Bakanlığı bunları aşırı kısıtlama olarak gördü ve geniş çaplı gözetim ile otonom silah tanımlarında çok fazla gri alan bulunduğu için bunun pratikte uygulanamayacağını savundu
- Savunma Bakanlığı yalnızca Anthropic ile değil, OpenAI, Google ve xAI ile de modellerin tüm yasal amaçlar (all lawful purposes) doğrultusunda kullanılması için müzakereler yürütüyor
- Haberlere göre üst düzey Savunma Bakanlığı yetkilileri uzun süredir Anthropic’ten rahatsızdı ve kamuya açık bir çatışma fırsatını aktif biçimde değerlendirdi
Hegseth-Amodei doğrudan görüşmesi (24 Şubat)
- Hegseth, Amodei’ye Savunma Bakanlığı’nın tedarik zinciri riski tanımı veya Defense Production Act’in devreye sokulması seçeneklerinden birini seçeceğini bildirdi
- Defense Production Act, 1950’lerden kalma bir yasa olup ulusal acil durumlarda şirketleri belirli ürünleri üretmeye zorlayabilme yetkisi veriyor
- Toplantının havası için bir yetkili "sıcak bir ortam değildi" derken, başka bir kaynak seslerin yükselmediğini ve toplantının "nazik" geçtiğini söyledi
- Hegseth, Amodei’ye Claude’u övdüğünü ancak hiçbir şirketin Savunma Bakanlığı’nın operasyonel kararlarına şart koyamayacağını veya tekil kullanım senaryolarına itiraz edemeyeceğini belirtti
- Hegseth, Maduro operasyonu sırasında Anthropic’in Palantir’e Claude kullanımıyla ilgili kaygı ilettiğine dair Savunma Bakanlığı iddiasına özel olarak değindi, ancak Amodei bunu reddetti
- Toplantıya Savunma Bakan Yardımcısı Steve Feinberg, araştırma ve mühendislikten sorumlu bakan yardımcısı Emil Michael, tedarikten sorumlu bakan yardımcısı Michael Duffey dahil çok sayıda üst düzey isim katıldı
Amodei’nin nihai reddi ve Savunma Bakanlığı’nın tepkisi
- Savunma Bakanlığı’nın "en iyi ve nihai teklifi" Amodei tarafından perşembe günü reddedildi; Amodei, "vicdanen taleplerini kabul edemem" dedi
- Emil Michael, Amodei’yi "yalancı" ve "tanrı kompleksi" olan biri diye nitelendirerek bunun "ulusal güvenliği tehlikeye atmayı kabul etmek" anlamına geldiğini savundu
- Anthropic cephesi toplantıdan sonra da uzlaşmacı bir ton korudu ve "Anthropic’in hükümetin ulusal güvenlik misyonunu desteklemeyi sürdürebilmesi için kullanım politikaları hakkında iyi niyetli diyaloğu sürdürdüklerini" açıkladı
Claude’un stratejik önemi ve geçiş zorluğu
- Claude şu anda ABD ordusunun gizli sistemlerinde kullanılan tek yapay zeka modeli
- Maduro’yu yakalama operasyonunda Palantir ortaklığıyla kullanıldı ve olası İran askeri operasyonlarında da kullanılabilir
- Savunma Bakanlığı yetkilileri de Claude’un yeteneklerini kabul ediyor ve geçişin "muazzam bir acı" olacağını söylüyor
- Bir yetkili, "Hâlâ konuşuyor olmamızın tek nedeni onlara ihtiyaç duymamız ve buna şu anda ihtiyaç duymamız; sorun şu ki gerçekten bu kadar iyiler" dedi
- Anthropic’in Savunma Bakanlığı sözleşmesinin değeri 200 milyon dolara kadar çıkıyor, ancak bu şirketin yıllık 14 milyar dolarlık gelirinin çok küçük bir kısmı
- Ancak Anthropic, ABD’deki ilk 10 şirketin 8’inin Claude kullandığını söylediği için, tedarik zinciri riski tanımının etki alanının geniş olması bekleniyor
Alternatif modeller ve rakiplerin durumu
- Elon Musk’ın xAI şirketi yakın zamanda gizli ortamlarda Grok’un kullanımı için sözleşme imzaladı, ancak bunun Claude’un yerini tamamen alıp alamayacağı belirsiz
- Savunma Bakanlığı, OpenAI ve Google modellerinin gizli olmayan ortamlardan gizli sistemlere taşınmasına yönelik görüşmeleri hızlandırıyor
- Üst düzey bir yönetim yetkilisi, rakip modellerin devletin özel uygulamalarında "biraz geride kaldığını" kabul etti; bu da hızlı geçişi zorlaştırıyor
- OpenAI, Google ve xAI gizli olmayan sistemlerdeki güvenlik önlemlerini kaldırmayı zaten kabul etti, ancak gizli çalışmalarda henüz kullanılmıyorlar
OpenAI’nin tepkisi
- OpenAI CEO’su Sam Altman, cuma günkü notunda Anthropic ile aynı kırmızı çizgilere sahip olduklarını açıkladı
- "Yapay zeka geniş çaplı gözetim veya otonom öldürücü silahlar için kullanılmamalı ve yüksek riskli otomatik kararlarda insan devrede olmalı" dedi
- OpenAI’nin de Savunma Bakanlığı ile ayrı bir 200 milyon dolarlık sözleşmesi var, ancak bu sözleşme gizli olmayan işler için
Başkan Trump’ın açıklaması
- Truth Social’da "tüm federal kurumlarda Anthropic teknolojisinin kullanımının derhal durdurulmasını" emretti
- "Ona ihtiyacımız yok, istemiyoruz ve bir daha asla iş yapmayacağız" dedi
- Anthropic’i "solcu deliler" diye nitelendirerek, Savunma Bakanlığı’nı kullanım şartları yerine Anayasa’ya uymaya zorlamaya çalışmasının "felaket niteliğinde bir hata" olduğunu savundu
Siyasi tepkiler ve endişeler
- Senato İstihbarat Komitesi Başkan Yardımcısı Mark Warner, Trump’ın adımını eleştirdi
- Ulusal güvenlik kararlarının dikkatli analiz yerine siyasi hesaplarla alınıp alınmadığına dair ciddi endişelerini dile getirdi
- ABD şirketlerini, tercih edilen tedarikçilere sözleşme yönlendirmek için bir bahane olarak tehdit etmenin ve aşağılamanın ülke için büyük risk yarattığı uyarısında bulundu
- Bazı federal kurumların zaten güvenilirlik, emniyet ve güvenlik tehdidi olarak tanımladığı modellere geçiş olasılığı konusunda da endişeler dile getirildi
Anthropic’in tutumu ve bundan sonrası
- Dario Amodei, ocak ayındaki makalesinde temel kaygı olarak "düğmenin üstündeki parmak sayısının fazla azalması" ifadesini kullandı; az sayıda insanın başkalarının iş birliği olmadan drone ordularını yönetebileceği bir duruma karşı uyardı
- Anthropic bu yıl halka arzı (IPO) planlıyor ve yönetimle yaşanan çatışmanın yatırımcılar üzerindeki etkisi belirsiz
- Amodei, Trump yönetimine karşı çıktıktan sonra bile Anthropic’in değerlemesi ve gelirlerinin büyümeye devam ettiğini söyledi
- Bu tedarik zinciri riski tanımı, daha önce yalnızca Rusya, Çin gibi hasım ülkelerin şirketlerine uygulanan bir önlem olarak biliniyordu; bir ABD şirketine uygulanması ise ilk kez görülüyor
- Palantir de gizli çalışmalarda Claude kullandığı için rakip modellere geçmesi gereken taraflardan biri olacak
3 yorum
ABD “Çin”
Can sıkıcı, özür dilerim
Hacker News yorumları
Bence DoW(Department of War) ile Anthropic zaten bir sözleşme imzalamıştı ve içinde neye açıkça izin verildiği ya da yasaklandığı yazıyordu
Ama şimdi DoW bu sözleşme şartlarını tersine çevirmeye çalışıyor. Dario’nun resmi açıklamasını tekrar okuyunca, DoW’un öne sürdüğü kullanım senaryolarının en başta sözleşmeye dahil edilmediği görülüyor
Sonuçta Anthropic ilk sözleşmeye sadık kalıyor ve DoW da sözleşmeyi kötü niyetle değiştirmeye çalışma çabası içinde gibi görünüyor
İlk sözleşme şartlarını Pentagon kabul etmişti, şimdi ise Pentagon bunları tek taraflı olarak değiştirmeye çalışıyor
Kurşun içeren boruların içme suyu için kullanılmaması gerektiğini söylemekle aynı mantık
Ulusal güvenliği tehdit edecek kadar tehlikeli bir şirket denirken, önümüzdeki 6 ay boyunca kullanmaya devam edileceğinin söylenmesi çelişkili görünüyor
Anthropic’in ilkelerine bağlı duruşu etkileyici. Birlikte çalışmak isteyeceğim türden şirket tam da bu
Anthropic’in öldürme ya da gözetim işlerine karışmama duruşunu destekliyorum
ABD’li vatansever bir gazi olarak, Anthropic’in gerekirse Avrupa’ya taşınmasının daha iyi olacağını düşünüyorum
Rutger Bregman’ın dediği gibi Avrupa, ASML sayesinde AI donanımı darboğazını kontrol ediyor ve Anthropic de katılırsa bir yapay zeka süper gücünün temeli oluşabilir (tweet bağlantısı)
Bu adım Anthropic için ölümcül bir darbe olabilir
DoD ile çalışan tüm şirketlerin Anthropic ile ticari faaliyet yürütmesi yasaklanırsa, AWS·Google·Microsoft gibi bulut platformlarından Claude’un çıkarılması riski doğabilir
Anthropic’in talep ettiği kısıtlamalar sadece iki taneydi
(1) ülke içinde kitlesel gözetimin yasaklanması, (2) öldürme kararlarında insan müdahalesinin zorunlu olması
Bu kadarı bile aslında fazla ılımlı şartlar (resmi açıklama)
Böyle konuların HN’de ele alınması zor geliyor
Siyasi tartışmalardan kaçınmak gerek ama bu olay ideoloji ve politikanın teknolojiye doğrudan etki ettiği bir örnek
Ama HN yönergelerinde “iyi niyet varsayın” dendiği için, bu tür başlıkları doğaları gereği ele almak zor
Teknoloji ile politikanın ilişkisini tartışmak her zaman hoş karşılandı
“ABD ordusuyla iş yapan tüm şirketlerin Anthropic ile ticari faaliyet yürütmesi yasaktır” ifadesi sarsıcı
AWS ya da GCP’nin artık Claude’u yeniden satamayacağı anlamına mı geliyor diye merak ediyorum
MIT, Stanford, Caltech gibi devlet araştırma fonu alan üniversitelerin de Claude kullanımını durdurması gerekebilir
Latin Amerikalı biri olarak, eskiden ABD’yi desteklerdim ama artık öyle değil
ABD’nin Latin Amerika’ya karşı zorlayıcı bir tavrı var ve Çin’in liderlik ettiği bir dünya bana daha az saldırgan görünüyor
Truman dönemindeki 1947 McCarthycilik hareketi sadakat testleriyle başlayıp kara listelere ve hapse kadar uzanmıştı (wiki bağlantısı)
Bugünkü durum da onun yeniden sahnelenmesi gibi görünüyor. Hükümetin dediğini yapmazsan kara listeye alınma ya da yaptırıma uğrama düzeni oluşuyor