- ABD Savaş Bakanlığı, Anthropic'i ulusal güvenlik açısından tedarik zinciri riski unsuru olarak tanımladı; şirket ise bu adımın hukuken meşru olmadığını düşünüyor ve yasal sürece hazırlanıyor
- Savaş Bakanlığı'nın mektubuna göre Claude modeline getirilen kullanım kısıtlamasının kapsamı çok dar ve yalnızca bakanlık sözleşmeleriyle doğrudan ilgili müşterilerin kullanımına uygulanıyor
- İlgili yasa (10 USC 3252), hükümeti koruma amacıyla var ve Savaş Bakanı yalnızca en sınırlı araçları kullanmak zorunda
- Anthropic, Savaş Bakanlığı ile iş birliğinin sürdürülmesi ve sorunsuz geçiş yöntemlerini görüşüyor; otonom silahlar ve geniş çaplı yurt içi gözetim konularındaki istisna ilkelerini koruyor
- Şirket, savaş halindeki ABD ordusu ile güvenlik uzmanlarının ihtiyaç duyduğu araçları kaybetmemesi için desteği sürdürdüğünü ve yapay zekanın ulusal güvenlikte kullanımına dair ortak hedefi vurguluyor
Savaş Bakanlığı'nın tedarik zinciri riski tanımı
- Savaş Bakanlığı, Anthropic'e ABD ulusal güvenliği için tedarik zinciri riski olarak sınıflandırıldığını bildirdi
- Anthropic, bu adımın hukuken geçerli olmadığını değerlendiriyor ve mahkemede itiraz etmeyi planlıyor
- Savaş Bakanlığı mektubundaki ifadeye göre bu tanım, Claude modelini Savaş Bakanlığı sözleşmelerinin doğrudan bir parçası olarak kullanan müşteriler için geçerli
- Savaş Bakanlığı ile sözleşmesi olsa bile, söz konusu sözleşmeyle ilgisiz Claude kullanımı veya Anthropic ile yapılan işlemler üzerinde bir kısıtlama bulunmuyor
Hukuki dayanak ve uygulama kapsamı
- Savaş Bakanlığı'nın adımı 10 USC 3252 maddesine dayanıyor; bu yasa tedarik zincirini korumak için mümkün olan en sınırlı kısıtlama araçlarının kullanılmasını gerektiriyor
- Yasanın amacı tedarikçiyi cezalandırmak değil, hükümeti korumak
- Bu nedenle tanımın kapsamı son derece sınırlı ve Savaş Bakanlığı yüklenicileri dışındaki müşterileri etkilemiyor
Savaş Bakanlığı ile iş birliği ve istisna ilkeleri
- Anthropic, son birkaç gün içinde Savaş Bakanlığı ile iş birliğinin sürdürülmesi yollarını ve geçiş sürecini görüştü
- Şirket, istihbarat analizi, modelleme ve simülasyon, operasyon planlama, siber operasyonlar gibi çeşitli alanlarda Savaş Bakanlığı'nı destekliyor
- Anthropic, otonom silahlar ve geniş çaplı yurt içi gözetim konusunda iki istisna ilkesini koruyor
- Şirket, askeri operasyon kararlarına özel şirketlerin dahil olmaması gerektiği yönündeki tutumunu açıkça ortaya koyuyor
İç paylaşımın sızdırılması olayı
- Bir gün önce basına sızan şirket içi paylaşım için özür diledi
- Söz konusu paylaşım, Başkan'ın Truth Social paylaşımı, Savaş Bakanı'nın X paylaşımı ve OpenAI ile Savunma Bakanlığı arasındaki sözleşme duyurusunun hemen ardından yazılmıştı
- Anthropic, bu paylaşımı kendisinin sızdırmadığını ve durumu daha da kötüleştirme niyeti taşımadığını belirtti
- Paylaşım 6 gün önce yazılmıştı ve mevcut durumu yansıtmayan, güncelliğini yitirmiş bir değerlendirme niteliğinde
Gelecek destek ve ortak hedef
- Anthropic, savaş halindeki ABD ordusu ile ulusal güvenlik uzmanlarının ihtiyaç duyduğu araçları kullanmaya devam edebilmesi için destek vermeyi planlıyor
- Savaş Bakanlığı ve güvenlik kurumlarına sembolik bir ücret karşılığında model ve teknik destek sağlamayı sürdürecek
- Şirket, Savaş Bakanlığı ile ABD güvenliğini güçlendirme ve yapay zekanın devlette kullanımını genişletme şeklindeki ortak hedefi paylaşıyor
- Bundan sonraki tüm kararlar bu ortak varsayım temelinde alınacak
1 yorum
Hacker News görüşleri
Bu konuda Overton penceresinin ne kadar kaymış olduğuna şaşırıyorum
2007’de mezun olduğumda, teknoloji şirketlerinin kendi sistemlerinin savaşta kullanılmasını reddetmesi yaygındı ve böyle şirketlerde çalışmak istemeyen birçok kişi de bunu ahlaki gerekçelerle yapıyordu
Ama şimdi Anthropic, ahlaki değil pratik nedenlerle yalnızca iki istisna koymaya çalışıyor. Üstelik bunu bile sanki savaşı desteklemek istiyorlar da mecbur kalmışlar gibi bir dille sunuyorlar. Dünya gerçekten çok değişti
Napalm karşıtı bir film; işçilerin ürettikleri şeyin aslında silah olduğunun farkında olmamalarını hicvediyor
Sondaki “Ne üreteceğimiz işçilere, öğrencilere ve mühendislere bağlıdır” repliği bugün de geçerliliğini koruyor
Eskiden bu tür hikâyeler etik eğitiminin bir parçasıydı, bugünse böyle dersler bile ortadan kalkmış gibi görünüyor
O da sadece otonom öldürücü silah teknolojisinin henüz yeterince gelişmemiş olması nedeniyle reddediliyor; yani yanında bir “henüz” şartı var
OpenAI’dan daha iyi denebilir ama sonuçta bu sadece ‘daha az kötü bir seçenek’
Savunma araştırmalarının gerekli olduğu bir gerçek ama otomatik karar verme sistemleri insan denetiminden çıkarsa tehlikeli olur
Yasal olarak ‘human-in-the-loop’ zorunlu olmalı diye düşünüyorum
2007’deki ‘savaş’ Irak’tı; bugünkü ‘savaş’ ise Gazze, İran, Venezuela ve buna ek olarak Ukrayna ya da Tayvan’ın işgal edilme ihtimalini kapsıyor
Bence Anthropic içinde de bu bağlam akılda tutuluyordur
Üniversite yıllarında DARPA’da çalışmak isteyen bir arkadaşım vardı; ona etik açıdan bunu nasıl gördüğünü sorduğumda “Bu benim sorunum değil” demişti
ABD’de okurken edindiğim izlenim şu oldu: ne sanayi yöneticileri ne de üniversiteler eleştirel düşünce ve etik eğitimine ilgi duyuyor; odakları insanları yalnızca teknik birer araç hâline getirmek
Harvard’daki VR Innovation Week’te bile ‘etik ve hukuk’ oturumunda neredeyse hiç kurucu ya da geliştirici yoktu. Toplumsal etki tartışmaları bilinçli biçimde dışlanmış gibiydi
Sonuçta paraya dönük çılgınlığın toplumun düşünme yetisini çökerttiğini hissediyorum
Bunun sonucunda biri ölürse, benim de sorumluluğum olduğunu düşünüyorum
Ama sorun şu ki, geçimini sağlamak zorunda olan biri için ahlaki çizgiyi korumak kolay değil. Sonuçta hepimiz aynı gemideyiz
George Orwell’in yazısında da (bağlantı) yalnızca bilim eğitiminin insani bir bakış açısını garanti etmediği söyleniyordu
“Anthropic’in Savunma Bakanlığı’yla farklılıklarından çok ortak noktası var” cümlesini görünce şaşırdım
Ama şimdi AI alignment meselesini ‘savaş bakanlığıyla alignment’ ile aynı bağlamda konuşmak entelektüel olarak uygunsuz
Bu yıl saldırılan ülkelerin hiçbiri insanlık için varoluşsal bir tehdit oluşturmuyor. Hatta bu tür savaşlar çekirdek riskleri büyütüyor
Araştırmacılar arasında neden daha fazla karşı ses çıkmadığını merak ediyorum
AI’ın askerî amaçlarla kamulaştırılma ihtimali yüksek ve Anthropic’in kendi teknolojisini atom bombasından daha tehlikeli diye sunarken bir yandan da Palantir ile askerî işbirliği yapması çelişkili
Anthropic’in “savaşçı personel (warfighter)” ifadesini görünce kafamda soru işaretleri oluştu
Gerçekten yalnızca bu iki istisnayla etik sınır korunabilir mi?
Anthropic de bu olay sayesinde ‘iyi taraftaymış’ gibi görünürken bir yandan savaş endüstrisinden para kazanıyor
“Warfighter” kadar Orwellvari bir 2026 Amerikası gerçeğini gösteren başka kelime yok
Mike Masnick’in Techdirt yazısından alıntı yapılıyor
Geçmişteki yönetimlerde “AI’ın insan müdahalesi olmadan öldürme kararı vermesini istemiyoruz” tavrı sıradan bir müzakere şartı olurdu
Ama şimdi savunma bakanı şirketi açıkça ‘hain’ diye suçluyor, başkan tüm devlet kurumlarına o şirketin kullanımını durdurma talimatı veriyor ve CEO da ‘rehine mektubu’ gibi bir özür metni yazmak zorunda kalıyor
Devletin gücü ve yolsuzluğu denetlenmezse şirketler sonunda bu tür anlaşmalara girer
Başlangıçta para ve vatanseverlikle başlar ama zamanla geri dönülmez işlere bulaşılır ve oradan çıkmak da zorlaşır
Yeni bir CEO gelir, “Önceki zayıftı, ben farklı olacağım” der ve aynı kısır döngü yeniden başlar
Savaş endüstrisine teknoloji sağlamak isteyenlere şunu söylemek isterim
“Her şey elinizden alınabilir ama vicdanınızı, siz vazgeçmediğiniz sürece kimse alamaz”
Çoğu zaman insanlar yalnızca devlete yardım ettiklerine dair inançla çalışıyor
Bu olayın mahkemede ve kamuoyu mahkemesinde nasıl sonuçlanacağını görmek çok ilginç olacak
Bunu önemli bir örnek olay olarak görüyorum ve doğru sonucun çıkmasını umuyorum
Savaş Bakanlığı müsteşar yardımcısı Emil Michael, Anthropic ile “müzakere yok” diye resmî açıklama yaptı
a16z News röportajı bu konuyu ayrıntılı ele alıyor