4 puan yazan GN⁺ 2026-02-27 | 1 yorum | WhatsApp'ta paylaş
  • Geniş çaplı iç gözetim ve tam otonom silahlar olmak üzere iki alan sözleşme kapsamı dışında tutuldu
  • Anthropic, ABD’nin ve demokratik ülkelerin savunması için yapay zekanın kullanımını temel misyonlarından biri olarak görüyor ve bu amaçla Savunma Bakanlığı ile istihbarat kurumlarıyla iş birliği yapıyor
  • Claude modeli, gizli ağlar, ulusal laboratuvarlar ve ulusal güvenlik kurumları gibi ortamlarda istihbarat analizi, operasyon planlama ve siber operasyonlar gibi görevlerde kullanılıyor
  • Şirket, Çin Komünist Partisi bağlantılı şirketlerle ticareti durdurma, yapay zekanın kötüye kullanıldığı siber saldırıları engelleme, yarı iletken ihracat kontrollerinin sıkılaştırılmasını destekleme gibi adımlarla ABD’nin yapay zeka üstünlüğünü koruduğunu belirtiyor
  • Ancak geniş çaplı iç gözetim ve tam otonom silahlar olmak üzere bu iki alanı, demokratik değerler ve teknolojik güvenilirlik sorunları nedeniyle kullanıma açıkça kapalı tutuyor
  • Anthropic, Savunma Bakanlığı’nın baskısına rağmen bu iki güvenlik önlemini koruma tutumunu sürdürürken iş birliğinin devamını umuyor

Anthropic’in savunma iş birliği ve yapay zeka konuşlandırmaları

  • Anthropic, yapay zeka modelini ABD hükümetinin gizli ağlarına ilk kez konuşlandıran öncü şirket olduğunu söylüyor
    • Ulusal laboratuvarlar ve ulusal güvenlik müşterileri için özelleştirilmiş modelleri de ilk sunan şirket olduğunu belirtiyor
    • Claude modeli, Savunma Bakanlığı ve çeşitli güvenlik kurumlarında istihbarat analizi, modelleme ve simülasyon, operasyon planlama, siber operasyonlar gibi alanlarda kullanılıyor
  • Şirket, ABD’nin yapay zeka alanındaki teknolojik üstünlüğünü korumak için kısa vadeli kazançlardan vazgeçtiği örnekler veriyor
    • Çin Komünist Partisi bağlantılı şirketlerle ticareti keserek yüz milyonlarca dolarlık gelirden vazgeçtiğini söylüyor
    • Claude’un kötüye kullanıldığı Çin kaynaklı siber saldırıları engellediğini belirtiyor
    • Yarı iletken ihracat kontrollerinin sıkılaştırılmasını destekleyerek demokratik blok için teknolojik üstünlüğün korunmasına katkı sunduğunu ifade ediyor

Demokratik değerler ve teknolojik güvenilirlik nedeniyle iki istisna

  • Anthropic, yapay zekanın demokratik değerleri zedeleyebileceği iki kullanım senaryosunu açıkça kapsam dışında bırakıyor
    • Geniş çaplı iç gözetim: Yasal denizaşırı istihbarat faaliyetlerini desteklediğini, ancak ülke içindeki kitlesel gözetimin demokratik ilkelere aykırı olduğunu söylüyor
      • Yapay zeka tabanlı gözetim, kişilerin hareketleri, web kullanımı ve sosyal ilişki verilerini otomatik olarak birleştirerek geniş çaplı kişisel profilleme yapılmasını mümkün kılıyor
      • Mevcut yasaların teknolojik gelişme hızına yetişememesi nedeniyle bazı gözetim faaliyetleri hâlâ yasal kalabiliyor
    • Tam otonom silahlar: İnsan müdahalesi olmadan hedef tespit edip saldıran silahların mevcut teknolojiyle yeterince güvenilir olmadığını söylüyor
      • Anthropic, bu tür silahlar için ürün sağlamıyor
      • Savunma Bakanlığı’na güvenilirliği artırmaya yönelik ortak araştırma önerdiğini, ancak bunun kabul edilmediğini belirtiyor
      • Uygun denetim ve güvenlik önlemleri eksikliği nedeniyle şu anda konuşlandırılamayacağını açıkça ifade ediyor

Savunma Bakanlığı’nın talepleri ve Anthropic’in yanıtı

  • Savunma Bakanlığı’nın yapay zeka şirketlerinden “tüm yasal kullanımları kabul etmelerini” ve bu iki güvenlik önlemini kaldırmalarını istediği belirtiliyor
    • Bunun reddedilmesi hâlinde Anthropic’in supply chain risk olarak tanımlanabileceği veya Defense Production Act devreye sokularak zorlanabileceği uyarısında bulunulduğu söyleniyor
    • Bu iki önlemin birbiriyle çelişen nitelikte olduğu; birinde şirketin güvenlik tehdidi, diğerinde ise ulusal güvenlik için kritik teknoloji sağlayıcısı olarak görüldüğü vurgulanıyor
  • Anthropic, bu baskılara rağmen vicdani nedenlerle bu talepleri kabul edemeyeceğini açıkça beyan ettiğini söylüyor
    • Savunma Bakanlığı’nın başka yükleniciler seçme hakkını kabul ederken, iki güvenlik önlemini koruyarak iş birliğini sürdürmeyi umduğunu belirtiyor
    • Sözleşme sona erse bile sorunsuz bir geçişi destekleme sözü vererek askeri operasyonlar veya planlamada aksama yaşanmaması için yardımcı olacağını ifade ediyor

Gelecekteki tutum

  • Anthropic, ABD’nin ulusal güvenliğini destekleme iradesini yeniden teyit ediyor
  • Şirket, Savunma Bakanlığı ile iş birliğini sürdürmek istiyor; ancak demokratik değerler ve teknolojik güvenlik ilkeleri konusunda taviz vermeyeceğini vurguluyor

1 yorum

 
GN⁺ 2026-02-27
Hacker News yorumları
  • Yazıdaki en güçlü bölüm, hükümetin Anthropic'in güvenlik önlemlerini kaldırmasını zorlaması ve aynı anda onları ‘tedarik zinciri riski’ ilan etmekle tehdit etmesi Bir yandan ulusal güvenlik için vazgeçilmez olduklarını söylerken, öte yandan onları risk unsuru diye nitelemeleri çelişkili bir tutum Anthropic'in buna “öyleyse hükümet hizmetimizi kullanmak zorunda değil” diye karşılık vermesi etkileyiciydi. Bu bir mesaj stratejisi ama topu yönetimin sahasına atmış oldular

  • Eskiden Anthropic'te çalışıyordum; bu RSP güncellemesiyle ilgili yazdığım bir yorum var Anthropic liderlerinin değerlerini korumak için makam ya da fırsat kaybetmeyi göze alması etkileyici Dario, Jared ve Sam gibi isimler, inançlarına aykırı bir şey söz konusuysa bunun bedelini ödemeyi göze alacak kadar samimi Elbette kusursuz bir şirket değil ama önemli kararları veren kişiler çoğunlukla iyi niyet ve değerlere dayalı motivasyonlarla hareket ediyor

  • Yazıyı okurken “mevcut AI tamamen otonom silahları çalıştıracak kadar güvenilir değil” cümlesinde duraksadım Yani yeterince güvenilir hale gelirse otonom silahların mümkün olabileceği kapısını açık bırakıyor gibi geliyor Ayrıca sadece ‘yurt içi geniş çaplı gözetimi’ eleştirip ‘kısmi otonom gözetim’ ya da ‘yurt dışı gözetim’i reddetmemesi hayal kırıklığı yarattı ‘Anthropic’ adının tüm insanlık için anlamına geldiğini düşünmüştüm ama sonuçta ‘bizim insanlar vs sizin insanlar’ çerçevesi gibi duruyor

    • “Anthropic insanlık için” söyleminin gerçekten samimi olup olmadığını düşündürüyor Tıpkı OpenAI'nin ‘açık’, Kuzey Kore'nin ‘halk cumhuriyeti’ diye adlandırılması gibi, isimle gerçeklik farklı olabilir Bununla ilgili People’s Republic of Tyranny adlı hiciv sayfası aklıma geliyor
    • Bence ifade yerindeydi. Dario'nun gelecek hakkında kesin konuşacak bir konumda olduğunu sanmıyorum
    • Bir gün sistemler yeterince güvenilir hale gelirse tam otonom silahların savaş alanına çıkacağını düşünüyorum Anthropic'in söylediği sadece “şu anda bu mümkün değil” demek. İleride kısıtların gevşemesi çok olası
    • Bunu “eğitim verisi yeterince olursa mümkün olur”dan çok güvenilirlik standardı karşılanırsa mümkün olur şeklinde okuyorum Donanımın ve genel amaçlı yazılımın da güvenilirlik sınırları var; bu yüzden başlı başına mantıksız değil
    • Ama ilginç olan şu: Otonom silahlar için henüz güvenilir değil denirken beyaz yaka işlerin yerini almak için yeterince güvenilir denmesi çelişkili hissettiriyor
  • Bir kurumun gerçek karakteri, değerlerle çıkarlar çatıştığında ortaya çıkar Anthropic'in ilkelerini korumaya çalışması etkileyici. Çoğu şirket böyle bir seçim yapamazdı

    • Ama bu tür kararlar sonuçta maliyetli işler Ahlaki nedenlerle kötü sistemlere bağımlı olmak uzun vadede başarısız olmaya mahkûm Kötü davranışlara karşı güçlü caydırıcı mekanizmalar gerekiyor ama sanki artık çok geç
  • Bu yazıyı okuyunca gerçekten moralim bozuldu. ABD'nin nereye gittiğini bilmiyorum Bir sonraki seçimde aklıselim sahibi bir liderlik çıkmasını umuyorum

    • Ama bu tek bir seçimle çözülecek bir mesele değil. Nesiller boyu sürecek bir çaba gerekiyor
    • Sadece umut yetmez. Somut bir plan yoksa gelecek de yok
    • Bu gidişat yeni değil. 11 Eylül'den sonra polisin militarizasyonu, demokrasiye saldırılar, tek taraflı dış politika sürüp gidiyor
    • AI'nin kontrolsüz yayılmasının toplumsal yapıyı daha da bozmasından endişeliyim. Sosyal medya çağından da daha kaotik bir dönem gelebilir
    • Demokratlar ana meseleler yerine tali gündemlere odaklandığı sürece bir sonraki seçimi kazanmaları zor San Francisco'da yaşıyorum; öğretmenler kırtasiye malzemelerini GoFundMe ile almak zorunda kalırken şehir RV'leri kaldırmak için 36 milyon dolar harcıyor İlgili haber gerçekliğin ne kadar çarpıldığını gösteriyor
  • Tüm sorunların kökü, Kongre'nin yetkilerini yürütmeye devretmesi Ordu yasa ile denetlenmeli ve bunu ancak yurttaş eylemi değiştirebilir Şirketlerin ordunun davranışlarını belirlemesi saçmalık. Teknoloji her zaman kamulaştırılabilir / zorla alınabilir, şirketler bunu engelleyemez CEO'ların bu yüzden kahramanlaştırılması, gerçeklik algısının ne kadar bozulduğunu gösteriyor

    • Savaş zamanı seferberliği olsa başka ama barış zamanındaki bir demokraside böyle zorlayıcı önlemler kabul edilemez
  • Anthropic'in “insanlık için AI” söylemine rağmen Pentagon'a öncelikli erişim satması ilk başta beni hayal kırıklığına uğrattı Yine de biri askeri-endüstriyel kompleksle çalışmak zorundaysa, bunu en yüksek ahlaki standartlara sahip tarafın yapmasının daha iyi olduğu argümanını anlayabiliyorum

    • AI zaten doğası gereği askeri ve gözetim amaçlı kullanıma çok uygun bir teknoloji. Büyük veri yığınlarını analiz edip faydalı bilgi çıkarıyor Sonuçta şirketler kâr için var
    • Şirketlerin ayakta kalmak için gelire ihtiyacı var. Kullanıcılar yeterince ödeme yapmazsa başka gelir kaynakları aramak zorundalar Yatırımcılar ve hissedarlar olduğu sürece ahlaktan önce hayatta kalma gelebilir Gerçek bağımsızlık ancak kâra bağımlı olmayan bir yapıda mümkün
  • Ben bir Claude Max abonesiyim; bu olaydan sonra Anthropic'in güce boyun eğmemiş olmasıyla gurur duydum Umarım diğer şirketler de cesaret alır

    • Ama aslında bir ölçüde zaten güce boyun eğmiş durumdalar. Sadece en azından biraz özsaygı kalmış
  • ‘Department of War’ ifadesinin aynen kullanılması, sadece Kongre'nin adı değiştirmemiş olmasından kaynaklanıyor Onun dışında uygun bir ifade

    • İsim meselesi üzerinden tartışmaya gerek yok. Gerçekte iktidarı elinde tutanlar kendileri bu ifadeyi kullanıyor
    • Hatta bence asıl adı olan ‘Department of War’, işlevi daha açık gösterdiği için daha iyi Her şeyi fazla yumuşatarak anlattığımız için gerçeği düzgün göremez hale geliyoruz
    • Ben de bu adın daha dürüst olduğunu düşünüyorum. Gerçekte ne yaptığını iyi anlatıyor ve insanları bunun anlamı üzerine düşünmeye zorluyor
    • Görünüşe göre bu ifade Hegseth'in ısrarla kullandığı terim olduğu için aynen alınmış. ‘DoD’ yazılsaydı muhtemelen daha da kışkırtıcı olurdu
    • Yine de böyle bir adlandırma tercihinin yazının tonunu belirleme açısından anlamı var
  • Dario ve Anthropic'in ahlaki bir duruş sergilemesini takdir ediyorum. Bugünlerde teknoloji sektöründe pek rastlanmıyor

    • LLM konusunda iyimser ya da karamsar olmasanız bile, gözetim ve otonom silahların tehlikesi açık Dario'nun Sam Altman ya da Sundar Pichai gibi davranmamış olması kayda değer
    • Ama bazıları bunu sadece bir gösteri olarak görüyor. Zaten canavarı yaratmış olanların sonradan yaptığı bir vitrin hareketi diyorlar
    • Başka bir bakış açısına göre, açıklamanın ilk cümlesinden itibaren “AI ile ABD'yi ve demokrasiyi savunacağız” denmesi mide bulandırıcı Nitekim Anthropic halihazırda savunma ve istihbarat kurumları için modeller dağıtıyor
    • Bazıları da “Kanada'yı ya da Almanya'yı gözetlemek sorun değil mi demek istiyorlar?” diyerek ahlaki temelin zayıf olduğunu eleştiriyor
    • “Bugün ahlaklı görünseler bile, IPO'dan sonra eninde sonunda Wall Street ve fonların çıkar mantığına boyun eğecekler” şeklinde alaycı bir bakış da var Sonuçta milyarlarca dolarlık devlet sözleşmeleri söz konusu olduğunda hiçbir şirket tamamen saf kalamaz deniyor