-
Bu olay, Anthropic’in Claude’unun Palantir’in Maven sistemi üzerinden ABD ordusunun istihbarat analizi, hedef tespiti ve simülasyon süreçlerinde kullanılmasıyla, üretken yapay zekanın artık askeri altyapının derinliklerine kadar girdiğini gösteriyor.
-
Başlangıç noktası, ABD Savunma Bakanlığı’nın 2017’de başlattığı Project Maven idi; Google 2018’de şirket içi tepkinin ardından çekildi, ancak sonrasında bu boşluğu Palantir ve Anthropic doldurdu.
-
Anthropic, 2026’nın başında Savunma Bakanlığı’na ABD vatandaşlarının kitlesel gözetiminin yasaklanması ve tam otonom silahların yasaklanması olmak üzere iki koşul sundu, ancak bunlar kabul edilmedi.
-
Bu süreçte Trump yönetimi fiilen Anthropic’i dışlamaya çalıştı ve Savunma Bakanlığı şirketi tedarik zinciri riski olarak sınıflandırdı.
-
Ancak tam o sırada bile Claude, İran’la ilgili operasyonlarda kullanılmaya devam etti ve Savunma Bakanlığı içinde bunun yerine başka bir çözüm koymanın aylar sürebileceği değerlendirmesi yapıldı.
-
Bu da bir yapay zeka modelinin askeri sistemlere bir kez derinlemesine entegre olduğunda artık basit bir yazılım değil, değiştirilmesi zor bir altyapı haline geldiği anlamına geliyor.
-
Aynı zamanda OpenAI, Pentagon sözleşmelerini genişletti ve Google da 2025’te yapay zeka ilkelerinden silahlar ve gözetim yasağına dair ifadeyi çıkardı; bu da sektör genelindeki standart kaymasını gösterdi.
-
Temel tartışma, “Yapay zeka tetiği doğrudan çekmese bile, hedef önerisi ve önceliklendirme kararlarına derin biçimde dahil olduğunda bunun ne ölçüde insan kontrolü sayılabileceği” sorusudur.
-
Sonuçta bu olay, barış zamanındaki etik ilkelerin savaş zamanında kolayca sarsıldığını ve gerçek müzakere gücünün ilkelerden çok entegrasyon derinliği ve geçiş maliyetinden geldiğini ortaya koydu.
-
Bu yüzden soru artık basitçe “Yapay zeka silahlarına izin verilecek mi?” değil; insan muhakemesinin kimin tarafından ve ne hızla yapay zeka önerileriyle ikame edileceği sorusuna kayıyor.
Henüz yorum yok.