3 puan yazan GN⁺ 2026-03-02 | 1 yorum | WhatsApp'ta paylaş
  • ABD Savunma Bakanlığı (DoW) ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin konuşlandırılmasına ilişkin bir anlaşma yaptı ve bu sözleşme koşullarının tüm yapay zeka şirketlerine de aynı şekilde uygulanmasını talep etti
  • Anlaşma, OpenAI teknolojisinin kitlesel yurt içi gözetim, otonom silah sistemlerinin doğrudan kontrolü ve yüksek riskli otomatik karar verme için kullanılmayacağını belirten üç kırmızı çizgiyi açıkça tanımlıyor
  • Yalnızca bulut tabanlı konuşlandırma yaklaşımı benimsendi; OpenAI güvenlik yığınının tamamı üzerinde tam takdir yetkisini koruyor ve güvenlik iznine sahip OpenAI personeli sürece dahil oluyor
  • Anthropic gibi mevcut sözleşmelere kıyasla daha güçlü güvenlik korkulukları içerdiğini savunuyor; edge cihaz konuşlandırmasını dışlayarak otonom silahlara özel kullanım ihtimalini engelliyor
  • Yapay zeka şirketleri ile hükümet arasında demokratik bir iş birliği düzeni kurulmasının gerekliliğini vurguluyor ve Anthropic ile yaşanan gerilimin çözülmesini de hükümetten talep ediyor

Sözleşmenin arka planı ve amacı

  • ABD Savunma Bakanlığı ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin konuşlandırılmasına ilişkin bir anlaşma imzaladı ve aynı koşulların diğer tüm yapay zeka şirketlerine de sunulmasını talep etti
  • Yapay zeka teknolojisinin önemini dikkate alarak demokratik süreçler ile yapay zeka araştırmaları arasında derin bir iş birliği gerektiğini savunuyor
  • ABD’yi savunan kişilerin en iyi araçlara sahip olması gerektiğini, ancak aynı zamanda bu teknolojinin dünyaya yeni riskler getirebileceğini kabul ediyor

Üç kırmızı çizgi

  • OpenAI teknolojisinin kitlesel yurt içi gözetimde (mass domestic surveillance) kullanılması yasak
  • OpenAI teknolojisinin otonom silah sistemlerinin (autonomous weapons systems) doğrudan kontrolünde kullanılması yasak
  • OpenAI teknolojisinin yüksek riskli otomatik karar vermede (ör. sosyal kredi sistemleri vb.) kullanılması yasak
  • Diğer yapay zeka laboratuvarlarının güvenlik korkuluklarını küçültmesi veya kaldırıp yalnızca kullanım politikalarına dayanmasının aksine, OpenAI çok katmanlı koruma yaklaşımının daha etkili olduğunu savunuyor

Sözleşmenin temel bileşenleri

  • Konuşlandırma mimarisi

    • OpenAI tarafından doğrudan işletilen güvenlik yığını dahil yalnızca bulut tabanlı konuşlandırma
    • Güvenlik korkulukları kaldırılmış modeller veya güvenlik eğitimi almamış modeller sağlanmayacak
    • Edge cihaz konuşlandırması hariç tutularak otonom ölümcül silahlarda kullanılma ihtimali engelleniyor
    • Kırmızı çizgilerin ihlal edilip edilmediği bağımsız olarak doğrulanabilir ve sınıflandırıcılar (classifiers) çalıştırılıp güncellenebilir
  • Sözleşme maddeleri

    • Savunma Bakanlığı, yapay zeka sistemlerini uygulanabilir yasalar, operasyonel gereksinimler ve yerleşik güvenlik ile gözetim protokolleriyle uyumlu tüm meşru amaçlar için kullanabilir
    • Yasalar, düzenlemeler veya kurum politikaları insan kontrolü gerektiriyorsa otonom silahları bağımsız biçimde yönetmek için kullanılamaz
    • DoD Directive 3000.09’a (25 Ocak 2023 tarihli) göre, otonom ve yarı otonom sistemlerde yapay zeka kullanımı, konuşlandırma öncesinde gerçekçi ortamlarda sıkı doğrulama, teyit ve testlerden geçmelidir
    • İstihbarat faaliyetleri sırasında kişisel verilerin işlenmesi Dördüncü Değişiklik, Ulusal Güvenlik Yasası (1947), Yabancı İstihbarat Gözetim Yasası (1978), Yürütme Emri 12333 ve ilgili Savunma Bakanlığı yönergelerine uymalıdır
    • ABD vatandaşlarının kişisel verilerine yönelik sınırsız izleme yasaktır
    • Yurt içi kolluk faaliyetlerinde yalnızca Posse Comitatus Act ve diğer ilgili yasaların izin verdiği durumlarda kullanılabilir
  • Yapay zeka uzmanlarının katılımı

    • Güvenlik iznine sahip OpenAI mühendisleri destek için hükümet tarafında sahada görevlendirilecek
    • Güvenlik iznine sahip güvenlik ve alignment araştırmacıları sürece dahil olacak

SSS’de öne çıkanlar

  • Neden bu sözleşme yapıldı?

    • ABD ordusunun, potansiyel rakip ülkelerin yapay zeka teknolojisini entegre etme tehdidine karşı güçlü yapay zeka modellerine ihtiyacı var
    • Başlangıçta gizli konuşlandırma için güvenlik önlemleri ve sistemlerin hazır olmadığı değerlendirilmiş, bu yüzden hemen sözleşme yapılmamış; kırmızı çizgilerin korunabilmesi için hazırlık yapılmış
    • Ulusal güvenlik işlerinde performans artışı için temel teknik güvenlik önlemlerini kaldırmak doğru bir yaklaşım değil
    • Amaçlardan biri de Savunma Bakanlığı ile ABD’li yapay zeka laboratuvarları arasındaki gerilimi azaltmak; aynı koşulların tüm yapay zeka laboratuvarlarına sunulması ve özellikle Anthropic ile ilgili sorunun çözülmesi hükümetten talep ediliyor
  • Anthropic ile karşılaştırma

    • OpenAI, kendi sözleşmesinin Anthropic’in mevcut sözleşmesine göre daha iyi güvenceler ve daha sorumlu güvenlik önlemleri sunduğunu düşünüyor
    • Yalnızca bulut tabanlı konuşlandırma (edge değil), kendi güvenlik yığınının korunması ve güvenlik iznine sahip OpenAI personelinin sürece dahil olması sayesinde kırmızı çizgiler daha uygulanabilir hale geliyor
    • Anthropic’in neden bu sözleşmeyi yapamadığını bilmediğini, ancak Anthropic ve daha fazla laboratuvarın bunu değerlendirmesini umduğunu söylüyor
  • Anthropic’in "tedarik zinciri riski" olarak tanımlanması meselesi

    • Anthropic’in "tedarik zinciri riski" olarak sınıflandırılmasına karşı olduğunu ve bu görüşünü hükümete açıkça ilettiğini belirtiyor
  • Otonom silah ihtimali

    • Güvenlik yığını, yalnızca bulut tabanlı konuşlandırma, sözleşme dili ve mevcut yasa/düzenleme/politikalar nedeniyle otonom silahlarda kullanılamaz
    • OpenAI personelinin sürece dahil olması ek güvence sağlıyor
  • Kitlesel gözetim ihtimali

    • Güvenlik yığını, sözleşme dili ve Savunma Bakanlığı’nın yurt içi gözetimi ciddi biçimde sınırlayan mevcut yasaları nedeniyle kitlesel gözetimde kullanılamaz
  • Güvenlik yığını olmadan konuşlandırma mümkün mü?

    • Güvenlik yığını üzerinde tam kontrolü elinde tutuyor ve güvenlik korkulukları olmadan konuşlandırma yapmıyor
    • Diğer yapay zeka laboratuvarlarının model korkuluklarını azaltıp ana güvenlik önlemi olarak kullanım politikalarına dayanmasının aksine, OpenAI’nin çok katmanlı yaklaşımının daha etkili olduğu savunuluyor
  • Hükümet sözleşmeyi ihlal ederse ne olur?

    • Genel sözleşmelerde olduğu gibi, karşı taraf koşulları ihlal ederse sözleşme feshedilebilir
  • Yasalar veya politikalar değişirse ne olur?

    • Sözleşme, gözetim ve otonom silahlarla ilgili yasa ve politikaları mevcut halleriyle açıkça referans alıyor
    • Gelecekte yasa veya politikalar değişse bile sistemin kullanımı sözleşmeye yansıtılan mevcut standartlara uygun olmak zorunda

Anthropic blog gönderisine yanıt

  • Anthropic’in öne sürdüğü iki kırmızı çizgiye (kitlesel yurt içi gözetim, tam otonom silahlar) OpenAI de katılıyor; buna ek olarak üçüncü kırmızı çizgi olarak otomatik yüksek riskli karar verme ekleniyor
  • Kitlesel yurt içi gözetim: Savunma Bakanlığı’nın bunu yasa dışı kabul ettiği ve bu amaçla kullanım planlamadığı, görüşmeler sırasında netleşmişti; bunun meşru kullanım kapsamına girmediği sözleşmede açıkça belirtiliyor
  • Tam otonom silahlar: Sözleşmede yer alan bulut konuşlandırma ortamında tam otonom silahlar çalıştırılamaz; çünkü bunun için edge konuşlandırma gerekir
  • Bu korumalara ek olarak, güvenlik yığını ve OpenAI teknoloji uzmanlarının sürece dahil olması şeklinde ek çok katmanlı güvenlik önlemleri bulunuyor

1 yorum

 
GN⁺ 2026-03-02
Hacker News görüşleri
  • Benim yorumuma göre OpenAI ile Savunma Bakanlığı arasındaki sözleşme ABD vatandaşlarına yönelik kitlesel gözetimi yasaklıyor gibi görünse de, aslında yalnızca zaten yasalarla yasaklanmış alanlarla sınırlı olduğu anlamına geliyor
    Yani Savunma Bakanlığı’nın konum verileri veya finansal işlemler gibi verileri özel şirketlerden toplu halde satın alıp bunları OpenAI araçlarıyla analiz etmesi de mümkün gibi okunuyor
    Bildiğim kadarıyla Anthropic’in sözleşmesinde böyle bir madde yoktu
    Eğer bu doğruysa korkunç bir durum. Ama son zamanlarda aceleci sonuçlara vardığım çok oldu, bu yüzden bu kez hükmümü askıda tutuyorum
    (Bu arada ben eski bir OpenAI çalışanı ve mevcut bir hissedarıyım)

    • OpenAI artık etik hakkında konuşma hakkı olan bir şirket gibi görünmüyor
      Eskiden kâr amacı gütmeyen dönemde öyle değildi, ama şimdi gizlilik politikasını iki kez değiştirip benden daha fazla veri topluyor
      Ayarı kapatma süreci de karmaşık ve dark pattern dolu. Veri indirme özelliği de fiilen çalışmıyor
    • Bu, kelimenin tam anlamıyla “zaten yasada olan sınırlamalara uyuyoruz” demek
      Dario’nun dediği **‘weasel language’**in tipik bir örneği
    • Sonuçta sorun Third Party Doctrine (Üçüncü Taraf Doktrini)
      Bu ilke ortadan kalkarsa bu tür kâbus senaryolarının çoğu da ortadan kalkar
    • İnsanlar sık sık hükümetin NSA usulü gözetimi her zaman “yasal” notuyla yürüttüğünü unutuyor
    • Cümlenin kendisi fazla karmaşık
      “Shall not be used as consistent with these authorities” ifadesi dilbilgisi açısından da tuhaf
      Avukatlar bunu bilerek muğlak yazıp PR amaçlı yoruma alan bırakmış gibi görünüyor
  • “The Department of War may use the AI System for all lawful purposes…” ifadesi sonuçta yasanın izin verdiği her amaç için kullanılabilir demek
    Anthropic kendi ahlaki ölçütlerini uygulamaya çalıştı ama OpenAI hükümetin taleplerini olduğu gibi kabul etti
    Kişisel olarak iki yaklaşımı da anlayabiliyorum, ama hükümetin Anthropic’e karşı tutumu kötü niyetliydi ve ABD’nin çıkarlarına da zarar veriyordu

    • Bir sözleşme “Terminator yapamazsın” diyor, diğeri ise “hukuk ekibi uygunsa Terminator da yapabilirsin” diyor. Arada büyük fark var
    • Her şeyi ayakta tutan kelime “yasal”
      Hükümet zaten yasa dışı şeyleri alenen yapıyor, gizli kapaklı neler döndüğünü ise kimse bilmiyor
      Sonuçta Anthropic’in temelindeki şey hükümete güvenilemeyeceğine dair ahlaki duruştu
    • Metne yakından bakınca Savunma Bakanlığı’nın ‘yasal’ saydığı her amaç için modeli kullanabileceği görülüyor
      Kuralları değiştirmek de onların elinde
      Sam Altman ya saf ya da bize öyle düşünmemizi sağlıyor
    • Bu, “OpenAI teknolojisi otonom silah sistemlerinde kullanılmaz” şeklindeki önceki tutumla da tutarlı değil
    • Savaşta mahsur kalmış bir savaşçıya ateş açılmasını tavsiye eden bir senaryoyu düşünün
      Bu açıkça bir savaş suçu, peki ‘yasallığa’ kim karar verecek? OpenAI mi, Savunma Bakanı mı, yoksa bir yargıç mı?
  • “Yasal olarak izin verilen tüm amaçlar” ifadesi, yasayı yapan tarafın kendini fiilen sınırlamadığı anlamına geliyor

    • Kitlesel gözetim söz konusu olduğunda anayasa değişikliği gerekeceği için, bu sadece yasayı değiştirmekten daha karmaşık
      Ama yasa dışı olduğunu bile bile hükümete yardım ederseniz bu suça iştirak sayılabilir. Hükümet dokunulmaz olabilir ama OpenAI olmayabilir
    • Üstelik hükümet kuralları gizlice koyup uygulayabilir
    • “Bu, hüküm giymiş bir dolandırıcının sözüne güvenilemeyeceği anlamına mı geliyor?” şeklinde alaycı bir tepki de vardı
  • Anthropic’in tamamen ahlaki bir erdem timsali olduğunu düşünmüyorum
    ChatGPT için de aynısı geçerli
    Ama bu noktada ChatGPT aboneliğini iptal edip Claude kullanmak, vermek istediğim mesajı gösteren bir hareket

    • Böyle bir geçiş iradesi göstermek önemli
      Kullanıcıların tartışma çıkar çıkmaz ayrıldığını bilirlerse şirketler de daha dikkatli olur
    • Ayrıca şu anda Claude, ChatGPT’den çok daha iyi performans gösteriyor
    • Claude’u genel arama yerine kullanmayı denemek istiyorum. Mesela tarifler veya ürün incelemeleri gibi basit sorular için iyi olup olmadığını merak ediyorum
    • Uzun vadede en iyisinin açık ağırlıklı modeller olacağını düşünüyorum
      Anthropic’in bu kez geri adım atmaması etkileyici
      GPU sıkıntısı var ama ben de ChatGPT’yi bırakıp Claude ya da Kimi’ye geçmeyi planlıyorum
  • Sonuçta çalışanlar ahlaki bir tavır alsa bile, karar yetkileri yoksa bunun anlamı kalmıyor
    Sahip oldukları tek güç ‘istifa etmek’

    • Ama toplu istifa olursa bu muazzam bir güce dönüşür
    • Aslında tam da böyle durumları engellemek için sendikalar var
      Kilit mühendisler topluca durursa Sam Altman tek başına şirketi ayakta tutamaz
    • OpenAI çalışanlarının iki yıl önce Sam Altman görevden alındığında onu geri getirecek gücü vardı
    • Çalışanlar birleşirse şirketi de durdurabilir. Ama OpenAI gibi bir yerde böyle bir dayanışma kültürü beklemek zor
  • OpenAI, “yapay zekanın ahlaki sorumluluğunu hukuka devredelim” diyerek ahlaki sorumluluktan kaçıyor

  • Net serveti 2 milyon doların üzerinde olan bir OpenAI çalışanı hâlâ oradaysa, ahlaki pusulası bozulmuş demektir
    Artık Palantir ya da xAI’de çalışmaktan farkı kalmadı

    • Buna karşılık “Parayı yastık yapıp ağlarım, tabii ki etik bir şekilde” diye alaycı bir yanıt da vardı
  • “Tüm yasal amaçlar için kullanılabilir” ifadesi sonuçta Savunma Bakanlığı’nın yetersiz düzenlemeler sayesinde istediğini aldığı anlamına geliyor

  • Bu blog yazısı durumu daha da kötü gösteriyor
    Anthropic’in reddettiği tartışmalı kullanım alanları konusunda net bir çizgi çekmiyor
    Sadece “yasal ve test edilmişse mümkündür” diyor
    Bu, sanki 1930’larda IBM Almanya’ya makine satıp “biz bilmiyorduk” demesi gibi hissettiriyor
    Sonuçta ordunun istediği şey otonom silahlar ve kitlesel gözetim, ayrıca bunun dışında hukuken yasal olsa da ahlaken gri alanda kalan kullanımlardı