- OpenAI CEO'su Sam Altman, ABD Savunma Bakanlığı (DoD) ile gizli ağlarda modellerin dağıtılmasına ilişkin bir anlaşmaya vardıklarını duyurdu
- Anlaşma; ülke içinde kitlesel gözetimin yasaklanması ve otonom silah sistemleri dahil güç kullanımında insan sorumluluğu ilkesini içeriyor; Savunma Bakanlığı da bu ilkeleri kabul ediyor
- Modellerin amaçlandığı gibi çalışmasını sağlamak için teknik güvenlik önlemleri oluşturulacak; dağıtım yalnızca bulut ağlarında yapılacak ve sahaya FDE(Field Deployment Engineer) yerleştirilecek
- OpenAI, Savunma Bakanlığı'ndan aynı koşulları tüm yapay zeka şirketlerine de önermesini talep ediyor ve bunların tüm şirketlerin kabul edebileceği koşullar olduğunu savunuyor
- Şirket, yasal ya da hükümet düzeyindeki adımlardan ziyade makul uzlaşmalar yoluyla gerilimin azaltılmasını güçlü biçimde umduğunu ifade etti
Anlaşmanın içeriği
- OpenAI, Savunma Bakanlığı'nın gizli ağlarına modellerini dağıtmak için anlaşma yaptı
- Müzakereler sırasında Savunma Bakanlığı'nın güvenliğe derin saygı gösterdiği ve en iyi sonuç için ortaklık kurma isteği sergilediği değerlendirildi
Güvenlik ilkeleri
- Yapay zeka güvenliği ve faydalarının geniş çapta dağıtılması, OpenAI misyonunun temelinde yer alıyor
- Anlaşmaya dahil edilen iki temel güvenlik ilkesi:
- Ülke içinde kitlesel gözetimin yasaklanması
- Otonom silah sistemleri dahil güç kullanımında insan sorumluluğu
- Savunma Bakanlığı da bu ilkeleri kabul ediyor; bunları yasalara ve politikalara yansıtıyor ve anlaşma metninde açıkça belirtiyor
Teknik güvenlik önlemleri ve dağıtım koşulları
- Modellerin amaçlandığı gibi çalışmasını sağlamak için teknik güvenlik önlemleri (technical safeguards) oluşturulacak; bu, Savunma Bakanlığı'nın da talep ettiği bir husustu
- Model desteği ve güvenliğin sağlanması için saha dağıtım mühendisi FDE(Field Deployment Engineer) görevlendirilecek
- Dağıtımın yalnızca bulut ağlarında yapılması şartı bulunuyor
Sektör geneline yayma talebi
- OpenAI, Savunma Bakanlığı'ndan bu aynı koşulları tüm yapay zeka şirketlerine de önermesini istedi
- Şirkete göre bunlar, tüm şirketlerin kabul etmeye istekli olabileceği koşullar
- Yasal ya da hükümet düzeyindeki önlemler yerine makul uzlaşmalar yoluyla gerilimin azaltılmasını güçlü biçimde umduğunu ifade etti
3 yorum
Sonuçta ABD Savunma Bakanlığı, Anthropic’i bırakıp OpenAI’ı seçmiş oldu; ama burada sıkça denilen o ifade farkı var.
OpenAI, teknolojik güvenlik önlemlerinin kurulması, FDE(saha mühendisi) devreye alınması, yalnızca buluta özel dağıtım gibi somut uygulama mekanizmalarını birlikte önerdi.
Anthropic ise kullanım şartları düzeyinde istisna maddeleri talep etti.
Savunma Bakanlığı’nın bakış açısından bu, "özel bir şirketin tekil kullanım senaryoları üzerinde veto hakkı kullanması" gibi görüldü ve sanki buna içerlemiş gibi bir açıklama yapıldı.
Bu anlaşma, Anthropic tedarik zinciri riski olarak tanımlandıktan kısa süre sonra açıklandı;
Axios haberine bakılırsa Savunma Bakanlığı, Anthropic ile yaşadığı gerilimi diğer yapay zeka şirketleriyle yürüttüğü müzakerelerde tonu belirlemek için kullandı,
OpenAI da bu baskı altında Savunma Bakanlığı’nın kabul edebileceği bir biçimde anlaşmayı sonuçlandırmış oldu.
Resmi açıklamaların dili arasındaki fark da büyük.
Sam Altman, "Savunma Bakanlığı güvenliğe derin bir saygı gösterdi" dedi,
Anthropic tarafı ise son ana kadar "Savunma Bakanlığı’nın taleplerine vicdanen katılamayız" tonunu korudu.
Aynı ilkeler söz konusu olsa da, Savunma Bakanlığı’na itibar kazandırıp kazandırmama farkının büyük olduğu anlaşılıyor;
sonuçta OpenAI bunu kabul edince görüntü tuhaflaşmasın diye
Sam Altman’ın sonda "bu koşulların tüm yapay zeka şirketlerine aynı şekilde teklif edilmesini" eklediği,
bunun da Anthropic’e yönelik önlemlerin hafifletilmesine dönük dolaylı bir mesaj olduğu anlaşılıyor.
Aynı düzeyde bir sözleşme olsa bile, güvenilirlik ya da imaj açısından gerçekten çok farklı hissettiriyor.
Galiba GPT aboneliğimi iptal etmem gerekecek.
Hacker News görüşleri
OpenAI de Anthropic’in talep ettiği şartlarda ısrar etseydi hükümet bu sözleşmeyi onaylamazdı
Sonuçta OpenAI’ın pratikte kırmızı çizgileri uygulamayacağına dair örtük bir mutabakat varmış gibi görünüyor
Şimdi kalanların çoğu büyük ihtimalle hisseler yüzünden duruyor
“Yurt içi kitlesel gözetimin yasaklanması” ve “güç kullanımında insan sorumluluğu” açıkça belirtilmiş, ayrıca DoW(Department of War)’un da bunu kabul ettiği ifade ediliyor
Siyasi sermayeyi boş yere harcayıp daha kötü anlaşmalar yapmak onların tarzı
OpenAI, Anthropic ile aynı şartları öne sürmüş olsa bile, lobi parası ya da PR etkisi sayesinde hükümetin göz yumduğu bir durum da olabilir
Ben de ChatGPT’yi sildim, aboneliğimi iptal ettim ve Anthropic’e daha fazla yatırım yapmaya karar verdim
İlkeli duruşun önemli olduğunu hissettim ve artık OpenAI’a güvenmiyorum
Sam Altman’a dair kalan saygım da yok oldu ve yapay zekanın insan açgözlülüğüyle kirlenmiş hali iğrenç geliyor
OpenAI’ın kâr amacı gütmeyen bir yapı olarak başladığı dönemdeki idealler tamamen kaybolmuş durumda
Herkes aboneliğini iptal etmeli ve bu tür şirketlerle CEO’lara ağır vergi uygulanmalı
Sadece ürün kalitesine bakınca bile OpenAI’ın artık eskisi gibi olmadığını hissettim
Google’ın nasıl bir tercih yapacağını izleyeceğim
Onun “güç kullanımında insan sorumluluğu” gibi ifadeleri kaçamak bir söylem gibi geliyor
Sonuçta bu, otonom ölümcül silahların da mümkün olduğu anlamına geliyor
Başkan ya da Savunma Bakanlığı “sorumlu taraf” olarak yazılsa bile gerçekte hesap sorulması mümkün olmaz
İlk paylaşımda OpenAI sözleşmesinde yasal kısıtları temel alan korumalar bulunduğu söyleniyor
İkinci paylaşımda ise sözleşmenin “yasal olan her kullanım” esasına göre yapıldığı, bunun da yetkiyi demokratik sisteme bırakan bir yaklaşım olduğu savunuluyor
Anthropic’in bu tür bir uzlaşmayı reddettiği söyleniyor
Geçmişte de yasadışı eylemleri yasal gibi gösterdikleri çok oldu, hatta bazen yasayı bizzat değiştirdiler
Sonuçta yalnızca hukuk, hükümetin gücü kötüye kullanmasını engelleyemez
Söyledikleri doğru olsa bile, güvenilir bir medya kuruluşu sözleşmenin tam metnini yayımlayana kadar buna inanmak zor
Eğer gerçekten böyleyse OpenAI ve ABD ordusunu boykot etmek uygun bir tepki gibi görünüyor
İlgili haber
Muhtemelen sorun kırmızı çizgiler değil, hükümetin Anthropic’i siyasi bir rakip olarak görmesi olabilir
Ama biraz daha nesnel bakınca asıl mesele, “yasal kullanım” ölçütünü kimin belirlediği: hükümet mi, yapay zeka şirketi mi
İlgili tweete bakılırsa Anthropic bu ölçütü doğrudan Claude’un anayasasına yansıtmak istemiş
Sonuçta ben de OpenAI’dan net bir açıklama gelene kadar aboneliğimi iptal ettim
Sonra birdenbire SCR tanımı ve DPA kapsamında zorunlu satın alma tehdidiyle yeniden müzakere istedi
Eğer OpenAI’ın sözleşmesi Anthropic’inkine benziyorsa, bu gerçekten ikiyüzlü ve adaletsiz bir durum
Zamanla otonom silahlar için model kullanımına izin verilir ve gözetim işlevleri Palantir üzerinden dolanılabilir
Bu, Anthropic’i kötü göstermek için söylenmiş stratejik bir yalan da olabilir
OpenAI kullanıcı tabanı olmadan şu anki şişirilmiş şirket değerini koruyamaz
Başka modeller de artık fazlasıyla rekabetçi
Bu tür yozlaşmış davranışlardan bıktım