1 puan yazan GN⁺ 2026-03-01 | 5 yorum | WhatsApp'ta paylaş
  • OpenAI, Department of War ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin dağıtımına yönelik bir sözleşme imzaladığını ve bunun tüm yapay zeka şirketlerine eşit şekilde uygulanmasını istediğini belirtti
  • Bu sözleşmenin mevcut gizli yapay zeka dağıtımlarına kıyasla daha fazla güvenlik korkuluğu içerdiğini açıkladı
  • OpenAI teknolojisinin geniş çaplı yurt içi gözetim, otonom silah komutası, yüksek riskli otomatik karar alma için kullanılmamasının kırmızı çizgi olduğunu açıkça belirtti
  • Güvenlik yığını üzerinde tam takdir yetkisinin korunması, bulut tabanlı dağıtım, güvenlik iznine sahip personelin müdahalesi ve güçlü sözleşmesel korumaların uygulanması vurgulandı
  • Anthropic’in tedarik zinciri riski olarak tanımlanmaması gerektiği yönündeki tutumunu Department of War’a açıkça iletti

Department of War ile sözleşme imzalanması

  • OpenAI, Department of War ile gelişmiş yapay zeka sistemlerini gizli ortamlara dağıtmaya yönelik bir sözleşme imzaladı
    • Bu dağıtımın tüm yapay zeka şirketlerine eşit şekilde sunulmasını talep etti
  • Bu sözleşmenin mevcut gizli yapay zeka dağıtım sözleşmelerine göre daha fazla güvenlik önlemi içerdiği belirtildi

Kırmızı çizgilerin korunması

  • OpenAI teknolojisi geniş çaplı yurt içi gözetim için kullanılmayacak
  • OpenAI teknolojisi otonom silah sistemlerinin komutası için kullanılmayacak
  • OpenAI teknolojisi yüksek riskli otomatik karar alma sistemleri (ör. social credit) için kullanılmayacak

Çok katmanlı güvenlik koruma yapısı

  • Bazı yapay zeka laboratuvarlarının ulusal güvenlik dağıtımlarında kullanım politikası merkezli korumalara indirgeme veya bunları kaldırma yaklaşımıyla karşılaştırıldı
  • OpenAI ise genişletilmiş çok katmanlı bir yaklaşım uyguluyor
    • Güvenlik yığını üzerinde tam takdir yetkisini koruyor
    • Bulut tabanlı dağıtım modelini sürdürüyor
    • Güvenlik iznine sahip OpenAI personelinin müdahil olduğu bir yapı kullanıyor
    • Güçlü sözleşmesel koruma mekanizmaları içeriyor
    • Mevcut ABD yasalarındaki korumalarla birlikte uygulanıyor

Anthropic hakkındaki tutum

  • Anthropic’in tedarik zinciri riski olarak tanımlanmasına karşı olduğunu ifade etti
  • Bu tutumu Department of War’a açıkça iletti

5 yorum

 
kayws426 2026-03-01

Bununla ilgili içeriğin zaman çizelgesi şeklinde düzenlenmesi gerekiyor gibi görünüyor. OpenAI tarafında sözleşme görüşmelerinin sürdüğüne dair iddialar da var, değil mi?

 
kentakang 2026-03-01

"İçerik yok" şeklindeki özet hatasıyla ilk kez karşılaşıyorum..

 
xguru 2026-03-01

Görünüşe göre x'in taraması biraz zorlaştığı için böyle durumlar yaşanabiliyor. İyileştirmeye çalışacağız.

 
kentakang 2026-03-01

Her zaman ilgiyle takip ediyorum, teşekkür ederim.

 
GN⁺ 2026-03-01
Hacker News görüşleri
  • Asıl mesele, OpenAI sözleşmesindeki gerçek ifade ile Altman’ın söyledikleri arasındaki fark
    Sözleşmede, “yasa veya politika insan denetimi gerektiriyorsa otonom silah kullanımında kullanılmaz” deniyor
    Yani Savunma Bakanlığı “insan denetimi gerekmez” derse bunun önü açılıyor
    Anthropic, “geniş çaplı gözetim kesinlikle yasak” şeklinde mutlak bir kırmızı çizgi koymuştu; OpenAI ise bunu “yasa izin veriyorsa olabilir” noktasına kadar yumuşattı
    Böyle bir sözleşme imzalayıp sonra da Anthropic’i savunuyormuş gibi yapmak, sektörde ender görülen bir PR şovu gibi duruyor

    • Bence Altman’ın bu tavrı, geçmişteki görevden alma krizinde de görülen tipik davranış biçimi
    • “Amerikalılara yönelik kitlesel gözetim yasaktır” gibi ifade edildi ama sonuçta yoruma fazlasıyla açık
  • X floodunda OpenAI, Savunma Bakanlığı ile yaptığı sözleşmenin kendi redline’larını koruduğunu savundu
    Ancak NPR haberine göre Anthropic aynı standardı koruduğu için sözleşme dışında bırakıldı, OpenAI ise parayı aldı

    • Anthropic, “bu çizgiyi aşmayacağız” diye etik bir karar aldı; OpenAI ise “Savunma Bakanlığı ne yaparsa yapsın” tavrıyla hareket etti
      Bu yüzden ihaleyi kazandı
    • Anthropic, sözleşmeye kısıtlayıcı maddeler koymaya çalıştı; OpenAI ise “kendi guardrail’lerimiz yeterli” dedi
      Ama bu guardrail’lerin sivil gözetimi engelleyip engelleyemeyeceği şüpheli
    • OpenAI’nin resmi gönderisine bakınca, redline’ların Anthropic’inkilerle örtüşmediği görülüyor
    • Hükümet, Anthropic’i sadece misilleme amacıyla dışlamış da olabilir
    • Bence Altman vicdansız bir figür ve söylediklerine güvenmek için bir neden yok
  • Any Lawful Use” maddesinin sorunu, Savunma Bakanlığı’nın ‘yasal’ın tanımını istediği gibi yapabilmesi
    Kurum içinden bir avukatın tek bir not yazması, onu bir anda yasal hale getirebilir

    • 11 Eylül sonrası yaşanan hukuki sorunların LLM’ler ortaya çıkınca ortadan kalktığını düşünmek saflık olur
      Devlet yetkisinin kötüye kullanımını ancak oy verme ve kurumsal reform ile düzeltebilirsiniz
    • Böyle şeyler gerçekten sık yaşandı (ör. John Yoo’nun işkenceyi meşrulaştıran notları)
      Sistem teoride böyle tasarlanmamış olabilir ama pratikte durum farklı
    • Bu tür işler çoğunlukla gizli yürütülür ve sonra ortaya çıksa bile “vatanseverlik” denilerek aklanır
    • Sonunda birkaç yıl sonra bir soruşturma raporu çıkar ve herkes unutur; bu tekrarlanan bir senaryo
    • Hukuken itiraz edilse bile Patriot Act gibi yasaların arkasına saklanılabilir
  • Sonuçta yeni adıyla “Department of War”, sadece vergileri boşa harcayıp işe yaramaz teknolojileri fahiş fiyatlara satın alacak
    Vatandaşlar adına üzücü

  • Anthropic ile OpenAI arasındaki fark şu: Anthropic bu kısıtları teknik olarak zorunlu kılmaya çalıştı, OpenAI ise “hükümetin bunları ihlal etmemesini umuyoruz” diye sözlü güvence vermekle yetindi
    Hükümetin ikincisini seçmesi şaşırtıcı değil

    • OpenAI’nin tam sözleşme metnine bakıldığında kilit ifade “tüm yasal amaçlar”
      Yani “yasalsa, kitlesel gözetim ya da otonom öldürücü silahlar da olabilir” kapısını açık bırakıyor
    • OpenAI, sınırlamaları yalnızca hükümetin koyduğu yasaların çerçevesinde tanımlamak isterken, Anthropic kendi standartlarıyla sınır çizmeye çalıştı
    • Fiiliyatta OpenAI hiçbir gerçek güvence talep etmedi; Altman da yalnızca açgözlülüğe bağlı biri gibi görünüyor
  • Otonom ölümcül kararlar veren yapay zeka, son derece tehlikeli bir fikir
    Mesele sadece süperzekâ değil; küçük modellerle bile herkesin izlenemez silahlar üretebilmesi
    Bugünkü modeller insan hayatına olumlu yaklaşım gösterecek şekilde eğitildi, ama bu çıkarılırsa ortaya canavar gibi sistemler çıkar

    • Ama LLM’ler insan hayatını ‘anlayamaz’ ya da ona ‘değer veremez’
      Onlar sadece olasılıksal token tahminleyicileri
    • Aslında AI’ın öldürme kararlarına dahil olması 20 yıl öncesine kadar gidiyor
      Örneğin yazılım öldürülecek hedef listesini çıkarıyor, insan da drone’u kullanıyordu
    • Modeli kandırıp öldürme komutu verdirtmek de oldukça kolay
    • LLM’lerin hayata saygı duyduğu fikri sadece bir yanılsama
  • İnsanlar galiba Anthropic’in Palantir ile çalıştığını unuttu
    Bu ortaya çıkınca işi PR ile örtmeye çalıştılar

    • Bu tür iddialar propaganda gibi duran metinler olduğu için güven vermiyor
    • Benim anladığım kadarıyla Palantir’in Anthropic modeli, askeri sahaya yönelik kapalı sistemlerde kullanıldı
    • Görünüşe göre Palantir’in gerçekte ne yaptığı pek bilinmiyor
  • OpenAI bu tartışma yüzünden müşteri kaybediyor gibi görünüyor; bu yüzden imaj düzeltmeye yönelik bir gönderi paylaşmış olabilir

  • Anthropic, hükümetin AI düzenlemelerini sıkılaştırmasını istiyordu; şimdi bir bakıma bunun sonuçları kendisini vurmuş oldu

  • Bu olay, OpenAI’nin etik standartlarının zayıf olduğu eleştirilerine PR ile cevap vermeye çalıştığını düşündürüyor

    • Sorun, iki şirketin de etik standartlarının yalnızca kendi sınırları içinde geçerli olması
      Yurt dışında ise etik dışı kullanım hâlâ mümkün