- Geniş çaplı iç gözetim ve tam otonom silahlar olmak üzere iki alan sözleşme kapsamı dışında tutuldu
- Anthropic, ABD’nin ve demokratik ülkelerin savunması için yapay zekanın kullanımını temel misyonlarından biri olarak görüyor ve bu amaçla Savunma Bakanlığı ile istihbarat kurumlarıyla iş birliği yapıyor
- Claude modeli, gizli ağlar, ulusal laboratuvarlar ve ulusal güvenlik kurumları gibi ortamlarda istihbarat analizi, operasyon planlama ve siber operasyonlar gibi görevlerde kullanılıyor
- Şirket, Çin Komünist Partisi bağlantılı şirketlerle ticareti durdurma, yapay zekanın kötüye kullanıldığı siber saldırıları engelleme, yarı iletken ihracat kontrollerinin sıkılaştırılmasını destekleme gibi adımlarla ABD’nin yapay zeka üstünlüğünü koruduğunu belirtiyor
- Ancak geniş çaplı iç gözetim ve tam otonom silahlar olmak üzere bu iki alanı, demokratik değerler ve teknolojik güvenilirlik sorunları nedeniyle kullanıma açıkça kapalı tutuyor
- Anthropic, Savunma Bakanlığı’nın baskısına rağmen bu iki güvenlik önlemini koruma tutumunu sürdürürken iş birliğinin devamını umuyor
Anthropic’in savunma iş birliği ve yapay zeka konuşlandırmaları
- Anthropic, yapay zeka modelini ABD hükümetinin gizli ağlarına ilk kez konuşlandıran öncü şirket olduğunu söylüyor
- Ulusal laboratuvarlar ve ulusal güvenlik müşterileri için özelleştirilmiş modelleri de ilk sunan şirket olduğunu belirtiyor
- Claude modeli, Savunma Bakanlığı ve çeşitli güvenlik kurumlarında istihbarat analizi, modelleme ve simülasyon, operasyon planlama, siber operasyonlar gibi alanlarda kullanılıyor
- Şirket, ABD’nin yapay zeka alanındaki teknolojik üstünlüğünü korumak için kısa vadeli kazançlardan vazgeçtiği örnekler veriyor
- Çin Komünist Partisi bağlantılı şirketlerle ticareti keserek yüz milyonlarca dolarlık gelirden vazgeçtiğini söylüyor
- Claude’un kötüye kullanıldığı Çin kaynaklı siber saldırıları engellediğini belirtiyor
- Yarı iletken ihracat kontrollerinin sıkılaştırılmasını destekleyerek demokratik blok için teknolojik üstünlüğün korunmasına katkı sunduğunu ifade ediyor
Demokratik değerler ve teknolojik güvenilirlik nedeniyle iki istisna
- Anthropic, yapay zekanın demokratik değerleri zedeleyebileceği iki kullanım senaryosunu açıkça kapsam dışında bırakıyor
- Geniş çaplı iç gözetim: Yasal denizaşırı istihbarat faaliyetlerini desteklediğini, ancak ülke içindeki kitlesel gözetimin demokratik ilkelere aykırı olduğunu söylüyor
- Yapay zeka tabanlı gözetim, kişilerin hareketleri, web kullanımı ve sosyal ilişki verilerini otomatik olarak birleştirerek geniş çaplı kişisel profilleme yapılmasını mümkün kılıyor
- Mevcut yasaların teknolojik gelişme hızına yetişememesi nedeniyle bazı gözetim faaliyetleri hâlâ yasal kalabiliyor
- Tam otonom silahlar: İnsan müdahalesi olmadan hedef tespit edip saldıran silahların mevcut teknolojiyle yeterince güvenilir olmadığını söylüyor
- Anthropic, bu tür silahlar için ürün sağlamıyor
- Savunma Bakanlığı’na güvenilirliği artırmaya yönelik ortak araştırma önerdiğini, ancak bunun kabul edilmediğini belirtiyor
- Uygun denetim ve güvenlik önlemleri eksikliği nedeniyle şu anda konuşlandırılamayacağını açıkça ifade ediyor
Savunma Bakanlığı’nın talepleri ve Anthropic’in yanıtı
- Savunma Bakanlığı’nın yapay zeka şirketlerinden “tüm yasal kullanımları kabul etmelerini” ve bu iki güvenlik önlemini kaldırmalarını istediği belirtiliyor
- Bunun reddedilmesi hâlinde Anthropic’in supply chain risk olarak tanımlanabileceği veya Defense Production Act devreye sokularak zorlanabileceği uyarısında bulunulduğu söyleniyor
- Bu iki önlemin birbiriyle çelişen nitelikte olduğu; birinde şirketin güvenlik tehdidi, diğerinde ise ulusal güvenlik için kritik teknoloji sağlayıcısı olarak görüldüğü vurgulanıyor
- Anthropic, bu baskılara rağmen vicdani nedenlerle bu talepleri kabul edemeyeceğini açıkça beyan ettiğini söylüyor
- Savunma Bakanlığı’nın başka yükleniciler seçme hakkını kabul ederken, iki güvenlik önlemini koruyarak iş birliğini sürdürmeyi umduğunu belirtiyor
- Sözleşme sona erse bile sorunsuz bir geçişi destekleme sözü vererek askeri operasyonlar veya planlamada aksama yaşanmaması için yardımcı olacağını ifade ediyor
Gelecekteki tutum
- Anthropic, ABD’nin ulusal güvenliğini destekleme iradesini yeniden teyit ediyor
- Şirket, Savunma Bakanlığı ile iş birliğini sürdürmek istiyor; ancak demokratik değerler ve teknolojik güvenlik ilkeleri konusunda taviz vermeyeceğini vurguluyor
1 yorum
Hacker News yorumları
Yazıdaki en güçlü bölüm, hükümetin Anthropic'in güvenlik önlemlerini kaldırmasını zorlaması ve aynı anda onları ‘tedarik zinciri riski’ ilan etmekle tehdit etmesi Bir yandan ulusal güvenlik için vazgeçilmez olduklarını söylerken, öte yandan onları risk unsuru diye nitelemeleri çelişkili bir tutum Anthropic'in buna “öyleyse hükümet hizmetimizi kullanmak zorunda değil” diye karşılık vermesi etkileyiciydi. Bu bir mesaj stratejisi ama topu yönetimin sahasına atmış oldular
Eskiden Anthropic'te çalışıyordum; bu RSP güncellemesiyle ilgili yazdığım bir yorum var Anthropic liderlerinin değerlerini korumak için makam ya da fırsat kaybetmeyi göze alması etkileyici Dario, Jared ve Sam gibi isimler, inançlarına aykırı bir şey söz konusuysa bunun bedelini ödemeyi göze alacak kadar samimi Elbette kusursuz bir şirket değil ama önemli kararları veren kişiler çoğunlukla iyi niyet ve değerlere dayalı motivasyonlarla hareket ediyor
Yazıyı okurken “mevcut AI tamamen otonom silahları çalıştıracak kadar güvenilir değil” cümlesinde duraksadım Yani yeterince güvenilir hale gelirse otonom silahların mümkün olabileceği kapısını açık bırakıyor gibi geliyor Ayrıca sadece ‘yurt içi geniş çaplı gözetimi’ eleştirip ‘kısmi otonom gözetim’ ya da ‘yurt dışı gözetim’i reddetmemesi hayal kırıklığı yarattı ‘Anthropic’ adının tüm insanlık için anlamına geldiğini düşünmüştüm ama sonuçta ‘bizim insanlar vs sizin insanlar’ çerçevesi gibi duruyor
Bir kurumun gerçek karakteri, değerlerle çıkarlar çatıştığında ortaya çıkar Anthropic'in ilkelerini korumaya çalışması etkileyici. Çoğu şirket böyle bir seçim yapamazdı
Bu yazıyı okuyunca gerçekten moralim bozuldu. ABD'nin nereye gittiğini bilmiyorum Bir sonraki seçimde aklıselim sahibi bir liderlik çıkmasını umuyorum
Tüm sorunların kökü, Kongre'nin yetkilerini yürütmeye devretmesi Ordu yasa ile denetlenmeli ve bunu ancak yurttaş eylemi değiştirebilir Şirketlerin ordunun davranışlarını belirlemesi saçmalık. Teknoloji her zaman kamulaştırılabilir / zorla alınabilir, şirketler bunu engelleyemez CEO'ların bu yüzden kahramanlaştırılması, gerçeklik algısının ne kadar bozulduğunu gösteriyor
Anthropic'in “insanlık için AI” söylemine rağmen Pentagon'a öncelikli erişim satması ilk başta beni hayal kırıklığına uğrattı Yine de biri askeri-endüstriyel kompleksle çalışmak zorundaysa, bunu en yüksek ahlaki standartlara sahip tarafın yapmasının daha iyi olduğu argümanını anlayabiliyorum
Ben bir Claude Max abonesiyim; bu olaydan sonra Anthropic'in güce boyun eğmemiş olmasıyla gurur duydum Umarım diğer şirketler de cesaret alır
‘Department of War’ ifadesinin aynen kullanılması, sadece Kongre'nin adı değiştirmemiş olmasından kaynaklanıyor Onun dışında uygun bir ifade
Dario ve Anthropic'in ahlaki bir duruş sergilemesini takdir ediyorum. Bugünlerde teknoloji sektöründe pek rastlanmıyor