3 puan yazan GN⁺ 2026-02-28 | 3 yorum | WhatsApp'ta paylaş
  • OpenAI CEO'su Sam Altman, ABD Savunma Bakanlığı (DoD) ile gizli ağlarda modellerin dağıtılmasına ilişkin bir anlaşmaya vardıklarını duyurdu
  • Anlaşma; ülke içinde kitlesel gözetimin yasaklanması ve otonom silah sistemleri dahil güç kullanımında insan sorumluluğu ilkesini içeriyor; Savunma Bakanlığı da bu ilkeleri kabul ediyor
  • Modellerin amaçlandığı gibi çalışmasını sağlamak için teknik güvenlik önlemleri oluşturulacak; dağıtım yalnızca bulut ağlarında yapılacak ve sahaya FDE(Field Deployment Engineer) yerleştirilecek
  • OpenAI, Savunma Bakanlığı'ndan aynı koşulları tüm yapay zeka şirketlerine de önermesini talep ediyor ve bunların tüm şirketlerin kabul edebileceği koşullar olduğunu savunuyor
  • Şirket, yasal ya da hükümet düzeyindeki adımlardan ziyade makul uzlaşmalar yoluyla gerilimin azaltılmasını güçlü biçimde umduğunu ifade etti

Anlaşmanın içeriği

  • OpenAI, Savunma Bakanlığı'nın gizli ağlarına modellerini dağıtmak için anlaşma yaptı
  • Müzakereler sırasında Savunma Bakanlığı'nın güvenliğe derin saygı gösterdiği ve en iyi sonuç için ortaklık kurma isteği sergilediği değerlendirildi

Güvenlik ilkeleri

  • Yapay zeka güvenliği ve faydalarının geniş çapta dağıtılması, OpenAI misyonunun temelinde yer alıyor
  • Anlaşmaya dahil edilen iki temel güvenlik ilkesi:
    • Ülke içinde kitlesel gözetimin yasaklanması
    • Otonom silah sistemleri dahil güç kullanımında insan sorumluluğu
  • Savunma Bakanlığı da bu ilkeleri kabul ediyor; bunları yasalara ve politikalara yansıtıyor ve anlaşma metninde açıkça belirtiyor

Teknik güvenlik önlemleri ve dağıtım koşulları

  • Modellerin amaçlandığı gibi çalışmasını sağlamak için teknik güvenlik önlemleri (technical safeguards) oluşturulacak; bu, Savunma Bakanlığı'nın da talep ettiği bir husustu
  • Model desteği ve güvenliğin sağlanması için saha dağıtım mühendisi FDE(Field Deployment Engineer) görevlendirilecek
  • Dağıtımın yalnızca bulut ağlarında yapılması şartı bulunuyor

Sektör geneline yayma talebi

  • OpenAI, Savunma Bakanlığı'ndan bu aynı koşulları tüm yapay zeka şirketlerine de önermesini istedi
  • Şirkete göre bunlar, tüm şirketlerin kabul etmeye istekli olabileceği koşullar
  • Yasal ya da hükümet düzeyindeki önlemler yerine makul uzlaşmalar yoluyla gerilimin azaltılmasını güçlü biçimde umduğunu ifade etti

3 yorum

 
xguru 2026-02-28

Sonuçta ABD Savunma Bakanlığı, Anthropic’i bırakıp OpenAI’ı seçmiş oldu; ama burada sıkça denilen o ifade farkı var.

OpenAI, teknolojik güvenlik önlemlerinin kurulması, FDE(saha mühendisi) devreye alınması, yalnızca buluta özel dağıtım gibi somut uygulama mekanizmalarını birlikte önerdi.
Anthropic ise kullanım şartları düzeyinde istisna maddeleri talep etti.

Savunma Bakanlığı’nın bakış açısından bu, "özel bir şirketin tekil kullanım senaryoları üzerinde veto hakkı kullanması" gibi görüldü ve sanki buna içerlemiş gibi bir açıklama yapıldı.

Bu anlaşma, Anthropic tedarik zinciri riski olarak tanımlandıktan kısa süre sonra açıklandı;
Axios haberine bakılırsa Savunma Bakanlığı, Anthropic ile yaşadığı gerilimi diğer yapay zeka şirketleriyle yürüttüğü müzakerelerde tonu belirlemek için kullandı,
OpenAI da bu baskı altında Savunma Bakanlığı’nın kabul edebileceği bir biçimde anlaşmayı sonuçlandırmış oldu.

Resmi açıklamaların dili arasındaki fark da büyük.

Sam Altman, "Savunma Bakanlığı güvenliğe derin bir saygı gösterdi" dedi,
Anthropic tarafı ise son ana kadar "Savunma Bakanlığı’nın taleplerine vicdanen katılamayız" tonunu korudu.

Aynı ilkeler söz konusu olsa da, Savunma Bakanlığı’na itibar kazandırıp kazandırmama farkının büyük olduğu anlaşılıyor;
sonuçta OpenAI bunu kabul edince görüntü tuhaflaşmasın diye
Sam Altman’ın sonda "bu koşulların tüm yapay zeka şirketlerine aynı şekilde teklif edilmesini" eklediği,
bunun da Anthropic’e yönelik önlemlerin hafifletilmesine dönük dolaylı bir mesaj olduğu anlaşılıyor.

 
lamanus 2026-03-01

Aynı düzeyde bir sözleşme olsa bile, güvenilirlik ya da imaj açısından gerçekten çok farklı hissettiriyor.
Galiba GPT aboneliğimi iptal etmem gerekecek.

 
GN⁺ 2026-02-28
Hacker News görüşleri
  • OpenAI çalışanlarının ‘We Will Not Be Divided’ imzasına katılmış olmalarına rağmen bu olaydan sonra da çalışmaya devam etmelerini anlamıyorum
    OpenAI de Anthropic’in talep ettiği şartlarda ısrar etseydi hükümet bu sözleşmeyi onaylamazdı
    Sonuçta OpenAI’ın pratikte kırmızı çizgileri uygulamayacağına dair örtük bir mutabakat varmış gibi görünüyor
    • Sam Altman kovulup geri döndüğünde güvenlik odaklı çalışanların zaten ayrıldığını düşünüyorum
      Şimdi kalanların çoğu büyük ihtimalle hisseler yüzünden duruyor
    • Ama OpenAI’ın da sözleşmeye Anthropic ile aynı ilkeleri koyduğu söyleniyor
      “Yurt içi kitlesel gözetimin yasaklanması” ve “güç kullanımında insan sorumluluğu” açıkça belirtilmiş, ayrıca DoW(Department of War)’un da bunu kabul ettiği ifade ediliyor
    • Bu olay sonuçta tüm büyük yapay zeka şirketlerinin teknolojinin askeri amaçlarla opak kullanımına imza atacağını ima ediyor
    • Trump yönetiminin son bir yılına bakınca, bu tür irrasyonel pazarlıklar hiç şaşırtıcı değil
      Siyasi sermayeyi boş yere harcayıp daha kötü anlaşmalar yapmak onların tarzı
    • Arka planda hükümetin şirketleri kontrol etmeye yönelik siyasi bir niyet olduğunu düşünüyorum
      OpenAI, Anthropic ile aynı şartları öne sürmüş olsa bile, lobi parası ya da PR etkisi sayesinde hükümetin göz yumduğu bir durum da olabilir
  • Bu olay seni rahatsız ediyorsa bunu cüzdanınla oy vererek göstermek gerektiğini düşünüyorum
    Ben de ChatGPT’yi sildim, aboneliğimi iptal ettim ve Anthropic’e daha fazla yatırım yapmaya karar verdim
    • Ben de benzer bir dönemde Claude aboneliğimi iptal etmiştim ama bu olaydan sonra Claude’a yeniden abone oldum
      İlkeli duruşun önemli olduğunu hissettim ve artık OpenAI’a güvenmiyorum
    • Ben de az önce aboneliğimi iptal ettim
      Sam Altman’a dair kalan saygım da yok oldu ve yapay zekanın insan açgözlülüğüyle kirlenmiş hali iğrenç geliyor
      OpenAI’ın kâr amacı gütmeyen bir yapı olarak başladığı dönemdeki idealler tamamen kaybolmuş durumda
      Herkes aboneliğini iptal etmeli ve bu tür şirketlerle CEO’lara ağır vergi uygulanmalı
    • Aslında ben zaten 4 ay önce Claude ve Gemini’ye geçmiştim
      Sadece ürün kalitesine bakınca bile OpenAI’ın artık eskisi gibi olmadığını hissettim
    • Tüm konuşmalarımı sildim ve hesabımı da tamamen kapattım
    • Ben de aynı noktadayım. Artık OpenAI’a tek kuruş bile harcamayacağım
      Google’ın nasıl bir tercih yapacağını izleyeceğim
  • Sam Altman’ın AI sektöründe güvenilmesi en zor figürlerden biri olduğunu düşünüyorum
    Onun “güç kullanımında insan sorumluluğu” gibi ifadeleri kaçamak bir söylem gibi geliyor
    • “İnsan sorumluluğu”, “insan kararı” ile aynı şey değil
      Sonuçta bu, otonom ölümcül silahların da mümkün olduğu anlamına geliyor
      Başkan ya da Savunma Bakanlığı “sorumlu taraf” olarak yazılsa bile gerçekte hesap sorulması mümkün olmaz
  • Bir devlet kurumunun adını “Department of War” diye anmaları bile her şeyi anlatıyor
  • Dışişleri Bakan Yardımcısı’nın OpenAI ile Anthropic sözleşmeleri arasındaki fark hakkında yaptığı bir açıklama var
    İlk paylaşımda OpenAI sözleşmesinde yasal kısıtları temel alan korumalar bulunduğu söyleniyor
    İkinci paylaşımda ise sözleşmenin “yasal olan her kullanım” esasına göre yapıldığı, bunun da yetkiyi demokratik sisteme bırakan bir yaklaşım olduğu savunuluyor
    Anthropic’in bu tür bir uzlaşmayı reddettiği söyleniyor
    • Ama hükümetin “sadece yasal şeyler yapacağız” sözü hiç güven vermiyor
      Geçmişte de yasadışı eylemleri yasal gibi gösterdikleri çok oldu, hatta bazen yasayı bizzat değiştirdiler
      Sonuçta yalnızca hukuk, hükümetin gücü kötüye kullanmasını engelleyemez
    • Bu Bakan Yardımcısı’nın sözleri yalnızca yürütme içinden gelen tanıtım amaçlı açıklamalar, nesnel bir analiz değil
    • Üstelik kendisi müzakerelere fiilen katılmış biri de değil
      Söyledikleri doğru olsa bile, güvenilir bir medya kuruluşu sözleşmenin tam metnini yayımlayana kadar buna inanmak zor
      Eğer gerçekten böyleyse OpenAI ve ABD ordusunu boykot etmek uygun bir tepki gibi görünüyor
  • CNN haberine göre OpenAI’ın da Anthropic ile aynı kırmızı çizgilere (redlines) sahip olduğu söyleniyor
    İlgili haber
    • Ama Trump yönetiminden mantıksal tutarlılık beklemek zaten gerçekçi değil
      Muhtemelen sorun kırmızı çizgiler değil, hükümetin Anthropic’i siyasi bir rakip olarak görmesi olabilir
  • İlk başta bu bana Sam Altman’a özgü bir fırsatçı hareket gibi göründü ve ben de aboneliğimi iptal etmeyi düşündüm
    Ama biraz daha nesnel bakınca asıl mesele, “yasal kullanım” ölçütünü kimin belirlediği: hükümet mi, yapay zeka şirketi mi
    İlgili tweete bakılırsa Anthropic bu ölçütü doğrudan Claude’un anayasasına yansıtmak istemiş
    Sonuçta ben de OpenAI’dan net bir açıklama gelene kadar aboneliğimi iptal ettim
    • Aslında DoW, Anthropic’in şartlarını bir yıldan uzun süredir kabul ediyordu
      Sonra birdenbire SCR tanımı ve DPA kapsamında zorunlu satın alma tehdidiyle yeniden müzakere istedi
      Eğer OpenAI’ın sözleşmesi Anthropic’inkine benziyorsa, bu gerçekten ikiyüzlü ve adaletsiz bir durum
  • OpenAI’ın Anthropic ile aynı kırmızı çizgilere sahipken sözleşmenin yine de imzalanmış olması tuhaf
    • Muhtemelen Sam, Savunma Bakanlığı’na bunun geçici kırmızı çizgiler olduğunu söylemiştir
      Zamanla otonom silahlar için model kullanımına izin verilir ve gözetim işlevleri Palantir üzerinden dolanılabilir
    • Sam galiba Anthropic’i frenlemek için hükümetle olan yakınlığını kullanmış
    • Sam’in sözlerine güvenilemez
      Bu, Anthropic’i kötü göstermek için söylenmiş stratejik bir yalan da olabilir
    • “İlkelere katılıyorum ama onları bizzat uygulamayacağım” türünden ikili bir tutum gibi görünüyor
    • Sonuçta gerçek amaç “AI sözleşmelerini Sam’e yığmak”tı ve kırmızı çizgi tartışması sadece bahaneydi
  • Ben de uygulamayı sildim ve aboneliğimi iptal ettim
    OpenAI kullanıcı tabanı olmadan şu anki şişirilmiş şirket değerini koruyamaz
    Başka modeller de artık fazlasıyla rekabetçi
  • Artık ahlaklı teknoloji insanlarının bir araya gelebileceği bir gruba ihtiyaç var
    Bu tür yozlaşmış davranışlardan bıktım
    • “Etik teknoloji çalışanı” olmayı kolayca ifade etmeye ve birbirini bulmaya yarayacak yeni bir bayrağa ihtiyaç var