- Şubat 2026’da ABD ordusu İran’daki Minab ilkokulunu bombaladı ve 175’ten fazla kişi öldü; ilk aşamada hedefi Anthropic’in Claude’unun seçtiğine dair yanlış haberler hızla yayıldı
- Gerçekte hedef kararını Palantir’in Maven sistemi verdi ve eski askeri verilerin güncellenmemesi sivil kayıplara yol açtı
- Maven, kill chain sürecini otomatikleştirerek saatte 1.000 hedef belirleyecek kadar hızı artırdı ve bu süreçte doğrulama ile yeniden değerlendirme adımları kaldırıldı
- Bu tür otomasyon, geçmişteki Vietnam Savaşı ve Kosova Savaşı’ndaki yanlış bombardıman örneklerinde olduğu gibi, teknolojiye duyulan güvenin insan muhakemesinin yerini aldığı tekrar eden yapısal bir soruna yol açtı
- Olayın özü, yapay zekanın hatası değil, muhakemeyi ortadan kaldıran bürokratik sistem ve insan sorumluluğunun silinmesidir
İran Minab İlkokulu bombardımanı ve ‘yapay zeka sorumluluğu’ anlatısının yanılsaması
- 28 Şubat 2026’da ABD ordusu, İran’ın güneyindeki Minab’da bulunan Shajareh Tayyebeh İlkokulu’nu bombaladı; 7-12 yaş arası kız öğrencilerin de bulunduğu 175-180 kişi öldü
- Bombardımandan hemen sonra medya ve siyaset dünyası, Anthropic’in sohbet botu Claude’un hedefi seçip seçmediğine odaklandı
- Ancak gerçek hedef seçme sistemi Palantir’in Maven’iydi ve Claude’un olayla ilgisi yoktu
- Söz konusu okul geçmişte bir askeri tesisti, ancak istihbaratın güncellenmemesi nedeniyle hâlâ askeri hedef olarak sınıflandırılıyordu
Maven sisteminin kökeni ve yapısı
- Maven, 2017’de ABD Savunma Bakanlığı’nın Algorithmic Warfare Cross-Functional Team projesi olarak başladı
- İlk hedef, drone görüntü analizini otomatikleştirmek ve insan analistlerin aşırı iş yükünü azaltmaktı
- İlk sözleşmeyi Google aldı, ancak şirket içi tepki nedeniyle çekildi; ardından geliştirme liderliğini 2019’dan itibaren Palantir Technologies üstlendi
- Maven, uydu, sinyal ve sensör verilerini birleştirerek hedef tespitinden saldırı emrine kadar uzanan bir hedefleme altyapısına dönüştü
- Palantir, Maven’ı “Smart System” olarak yeniden yapılandırdı; buna gerçek zamanlı veri füzyonu ve otomatik karar desteği işlevleri eklendi
- Maven arayüzü, hedeflerin aşama aşama ilerlediği Kanban tipi bir iş akışı panosundan oluşuyor
- 3 tıklamayla tespit verisi resmî hedefe dönüştürülebiliyor ve sistem saldırı yöntemi ile silah kombinasyonlarını öneriyor
‘Kill chain’in sıkıştırılması ve hız yarışı
- Maven, ‘kill chain’ olarak bilinen askerî prosedürün en güncel sıkıştırılmış biçimi
- Kill chain, tespitten imhaya kadar olan süreci sistematikleştiren bir kavram; ABD ordusu bunu kısaltacak teknolojileri onlarca yıldır geliştiriyor
- Maven, karar hızını uç noktaya taşıyan bir sistem ve 2024 itibarıyla saatte 1.000 hedef kararı almayı hedefliyor
- Bu, her 3,6 saniyede 1 karar, kişi başına ise her 72 saniyede 1 karar anlamına geliyor
- Geçmişte 2003 Irak Savaşı’nda 2.000 kişinin yaptığı hedefleme işi 20 kişiyle değiştirildi
- Hız artışı, muhakeme için ayrılan alanı ortadan kaldırdı ve doğrulama, itiraz ve yeniden değerlendirme süreçleri yok oldu
- Sonuçta yanlış karar olasılığı arttı ve sivil kayıplar büyüdü
Tarihin tekrarı: teknolojiye güven ve muhakemenin silinmesi
- Maven’ın sorunu yeni bir olgu değil; teknolojik otomasyonun muhakemenin yerini aldığı tarihsel bir örüntünün tekrarı
- 1960’lardaki Vietnam Savaşı’nda Operation Igloo White, sensör tabanlı hedef sistemlerinin arızalanmasıyla sahte başarılar üretti
- CIA, “imha edilen kamyon sayısının” gerçekte var olan kamyon sayısını aştığını raporladı ve kendi kendini doğrulayamayan sistemin kapalılığını ortaya koydu
- II. Dünya Savaşı’nın hassas bombardıman doktrini de verimlilik saplantısıyla hedefin anlamını yitirdi ve ‘teknolojik fanatizm(technological fanaticism)’ olarak anıldı
- ABD Hava Kuvvetleri’nin 1998 hedefleme kılavuzu “olgulara ve sonuçlara dayalı rasyonel düşünmeyi” vurguluyordu, ancak
- gerçek operasyonlarda PowerPoint tabanlı ‘target package (TIP)’ belgeleri doğrulama olmadan döngüsel raporlama ile kesinleştirildi
- 1999 Kosova Savaşı’ndaki Çin büyükelçiliğinin yanlışlıkla bombalanması, bu tür usul hatalarının temsilî örneklerinden biri olarak kayda geçti
Muhakemenin ortadan kaldırılması ve ‘bürokratik çifte bağ’
- Kurumlar kurallara uysa da istisnaları yorumlayacak muhakeme sahibi kişilere ihtiyaç duyar, ancak
- muhakemeyi tanımak kuralın otoritesini sarsacağı için, muhakemeyi sayısallaştırmaya ve prosedürleştirmeye çalışırlar
- Tarihçi Theodore Porter bunu “Trust in Numbers” olarak adlandırdı
- Palantir CEO’su Alex Karp, The Technological Republic adlı kitabında
- “yazılımın dümenci olduğunu, donanımın ise yapay zekanın tavsiyelerini uygulayan araç olduğunu” yazar
- insanın ara muhakemesini ortadan kaldıran ‘otonom kolektif eylem(bee swarm)’ modelini ideal olarak sunar
- Ancak bu, yorum alanının yok olduğu tam prosedürleşmeye, yani ‘kırılgan bürokrasiye’ çıkar
- Toplantı, raporlama ve inceleme süreçleri verimsizlik değil, muhakemenin devreye girdiği tek noktalardı, ancak
- Maven bunları yazılımın iş akışı Kanban panosuyla değiştirerek muhakeme alanını ortadan kaldırdı
Minab okul bombardımanının yapısal nedeni
- Hedef paketinde söz konusu bina askerî tesis olarak sınıflandırılmıştı
- gerçekte ise Google Maps ve İran ticari veritabanlarında okul olarak kayıtlıydı
- Ancak saatte 1.000 karar verilen bir düzende bunu arayan ya da doğrulayan kimse olmadı
- Kongre onayı olmadan iki haftada 6.000 hedef vuruldu ve bunlardan biri bir ilkokuldu
- Olaydan sonra tartışma “Claude’un hatası” üzerinde yoğunlaşırken,
- savaşın meşruiyeti, Kongre onayı olup olmadığı ve savaş suçu ihtimali gibi temel siyasi ve hukuki sorumluluklar gölgede kaldı
- “Yapay zeka sorunu” çerçevesi, insan kararlarını ve sorumluluğunu gizleyen bir kaçış alanı işlevi gördü
- Birileri kill chain’i sıkıştırdı, düşünmeyi ‘gecikme(latency)’ olarak gördü ve
- saatte 1.000 hedef kararını ‘yüksek kalite’ diye adlandıran sistemi tasarladı
- Bütün bu kararları insanlar aldı ve yapay zeka bu sorumluluğun yerine geçemez
1 yorum
Hacker News görüşleri
Maven, savaşın tam ortasında kullanılmak üzere yapılmış bir araçtır
Taraflar çatışırken birkaç dakikalık zaman tasarrufu doğrudan hayat kurtarmak anlamına gelebilir
Ancak bu saldırı bir çatışma sırasında değil, ani bir baskın saldırısıydı. Kimsenin karşılık vermediği bir durumda zamandan tasarruf etmek hayat kurtarmadı
Hedef teşhisi çok daha dikkatli yapılmalıydı ve insanlar tarafından defalarca doğrulanmalıydı. Okulun okul olduğu açıktı ve hatta bir web sitesi bile vardı
Yalnızca üç tıklamayla bir sonraki hedefe geçilmiş olması açık bir insan hatasıdır. Bu tür bir hatayı önlemek için fazlasıyla zaman vardı
İster araca aşırı güven, ister sivil hayatını umursamama olsun, sonuç küçük kız çocuklarının ölümüydü
Bu kararı verenlerin mutlaka hesap vermesini umuyorum
ABD savaşı ülkeyi istikrarsızlaştırmak amacıyla başlattı ve bu süreçte sivil kayıpları görmezden geldi
Sanki ben evi ateşe verip sonra da “orasının anaokulu olduğunu bilmiyordum” diye mazeret uyduruyormuşum gibi
Geçmişte “teröre karşı savaş” döneminde de düğünlerin bombalanıp ardından “yanlıştı” denildiği pek çok örnek vardı
Ancak bu tür çevrimiçi bilgiler hedef seçimi için güvenilir bir dayanak değildir
Uydu gözlemi gibi doğrudan bilgilerle teşhis edilmesi gerekirdi. Okulların düzenli faaliyet kalıpları vardır ve askerî tesislerden farklı görünürdü
Muhtemelen tüm üs tek bir birim olarak işaretlendi ve okul binası da üssün bir parçası sanıldı
Emir verildikten sonra zaman baskısı da oluşmuş olabilir. Her hâlükârda bu olay bir trajedidir
Binlerce sortide yalnızca tek bir yanlış vurma olmuşsa hata oranı düşük sayılabilir, ama bu olay açık bir başarısızlıktı
Yine de “yeterince incelenmedi” iddiasının dayanağı zayıf. Nitekim içerideki yetkililer bu hedefin vurulacaklar listesinden çıkarılması gerektiğini söylüyor
Bu ani baskın saldırısının doğası gereği sorumluluk bütünüyle planlayanlara, onaylayanlara ve uygulayanlara aittir
“Çocuklar neden okuldaydı?” sorusu cehaletten kaynaklanıyor. İran'ın hafta sonu düzeni farklıdır ve böyle bir ani saldırı öngörülemezdi
Ölümcül güç ne kadar kolay kullanılırsa masum kurbanlar da o kadar artar
Ayrıca yetişkin erkeklerin konumunun WhatsApp metadata'sı üzerinden izlenip saldırı düzenlendiğine dair İsrail örnekleri de var
Bu yöntemler 20 yıl öncesinden farklı değil ve bir gün böyle bir bomba bizim evimize de düşebilir
Birkaç hafta önce de benzer bir olay yaşandı
ABD ve İsrail İran'daki polis tesislerini vururken, adında “Police” geçen Tahran'daki bir parkı (Police Park) bombaladı
Oysa burası sıradan bir parktı
İlgili video, ek kaynak
Bir yapay zekaya “Tahran'daki 100 polis tesisini listele” derseniz böyle bir sonuç çıkardı. Hedef seçiminde yapay zeka kullanıldığına dair emareler güçlü
ABD ahlaki ve etik açıdan iflas etmiş bir ülke olduğu için bu tür şeyler tekrar tekrar yaşanıyor
Amiriyah sığınağı bombalaması da bunun bir örneği
Makalede ilk kez “Anthropic'in Claude'u okulu hedef olarak belirledi” ifadesi yer aldı
Şimdiye kadar çoğu haberde neden olarak yapay zeka kullanımından ziyade eski prosedürler ve istihbarat hataları gösteriliyordu
Claude, Amazon Bedrock üzerinde çalıştırılabilir; bu durumda model Anthropic'in doğrudan işlettiği bir API'de değil, müşterinin veri merkezinde çalışır
Palantir gibi tedarikçiler istedikleri modeli seçebilir ve Claude'u Bedrock üzerinden kullanmış olabilir
Anthropic'in bu tür sözleşmelerde telemetriye erişim yetkisi olmadığından, modelin fiilen nasıl kullanıldığını kanıtlayamaz
Sonuçta “Claude kullanıldı” sözü teknik olarak doğru da olabilir, olmayabilir de; bu dikkat dağıtan bir ayrıntıdır
Yazıyı yazan kişinin bu konuyu önce kendi Substack yazısında ele aldığını da belirtmek gerekir
Gerçekten bunun yapay zekanın suçu olduğuna inanan biri var mıydı?
Modern ordularda LLM'ler çoğu zaman sorumluluktan kaçma aracı olarak kullanılıyor
Ortada net hedefler olsaydı, belgelenmiş listeler hazır olurdu
Ama şimdi yaklaşım daha çok “olabildiğince çok bomba atalım, bilgisayar da gerisini halleder herhalde” şeklinde
Stratejik hedeflerin önüne bizzat öldürmenin kendisi geçmiş durumda
Makaledeki içerik ilginçti
“ABD ordusu gözlem ile imha arasındaki boşluğu azaltmaya çalıştı” cümlesi biraz taraflı görünüyor ama savaş sisi (fog of war) denilen şeyin ne kadar yoğunlaştığını iyi gösteriyor
İlk birkaç paragraf bana hatta tazeleyici geldi
“AI-washing artık yalnızca işten çıkarmalarda değil, savaşta da kullanılıyor” noktası dikkat çekiciydi
Önce tanrıydı, sonra doğa, şimdi de yapay zeka
İnsanlığın temel sorunu kendi eylemlerinin sorumluluğundan kaçma eğilimi
Sanayileşmenin ve bilgisayar çağının tamamı belki de o sorumluluğu kalıcı olarak ortadan kaldırma girişimi gibi görünüyor
Sonuçta hangi açıdan bakılırsa bakılsın ABD'nin savaş suçları mazur görülemez
Düzgün bir özür bile dilemeyen bu gerçeklik, ileride dönüp baktığımızda tarihin dönüm noktalarından biri olabilir