- ABD Savunma Bakanlığı (DoW) ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin konuşlandırılmasına ilişkin bir anlaşma yaptı ve bu sözleşme koşullarının tüm yapay zeka şirketlerine de aynı şekilde uygulanmasını talep etti
- Anlaşma, OpenAI teknolojisinin kitlesel yurt içi gözetim, otonom silah sistemlerinin doğrudan kontrolü ve yüksek riskli otomatik karar verme için kullanılmayacağını belirten üç kırmızı çizgiyi açıkça tanımlıyor
- Yalnızca bulut tabanlı konuşlandırma yaklaşımı benimsendi; OpenAI güvenlik yığınının tamamı üzerinde tam takdir yetkisini koruyor ve güvenlik iznine sahip OpenAI personeli sürece dahil oluyor
- Anthropic gibi mevcut sözleşmelere kıyasla daha güçlü güvenlik korkulukları içerdiğini savunuyor; edge cihaz konuşlandırmasını dışlayarak otonom silahlara özel kullanım ihtimalini engelliyor
- Yapay zeka şirketleri ile hükümet arasında demokratik bir iş birliği düzeni kurulmasının gerekliliğini vurguluyor ve Anthropic ile yaşanan gerilimin çözülmesini de hükümetten talep ediyor
Sözleşmenin arka planı ve amacı
- ABD Savunma Bakanlığı ile gizli ortamlarda gelişmiş yapay zeka sistemlerinin konuşlandırılmasına ilişkin bir anlaşma imzaladı ve aynı koşulların diğer tüm yapay zeka şirketlerine de sunulmasını talep etti
- Yapay zeka teknolojisinin önemini dikkate alarak demokratik süreçler ile yapay zeka araştırmaları arasında derin bir iş birliği gerektiğini savunuyor
- ABD’yi savunan kişilerin en iyi araçlara sahip olması gerektiğini, ancak aynı zamanda bu teknolojinin dünyaya yeni riskler getirebileceğini kabul ediyor
Üç kırmızı çizgi
- OpenAI teknolojisinin kitlesel yurt içi gözetimde (mass domestic surveillance) kullanılması yasak
- OpenAI teknolojisinin otonom silah sistemlerinin (autonomous weapons systems) doğrudan kontrolünde kullanılması yasak
- OpenAI teknolojisinin yüksek riskli otomatik karar vermede (ör. sosyal kredi sistemleri vb.) kullanılması yasak
- Diğer yapay zeka laboratuvarlarının güvenlik korkuluklarını küçültmesi veya kaldırıp yalnızca kullanım politikalarına dayanmasının aksine, OpenAI çok katmanlı koruma yaklaşımının daha etkili olduğunu savunuyor
Sözleşmenin temel bileşenleri
-
Konuşlandırma mimarisi
- OpenAI tarafından doğrudan işletilen güvenlik yığını dahil yalnızca bulut tabanlı konuşlandırma
- Güvenlik korkulukları kaldırılmış modeller veya güvenlik eğitimi almamış modeller sağlanmayacak
- Edge cihaz konuşlandırması hariç tutularak otonom ölümcül silahlarda kullanılma ihtimali engelleniyor
- Kırmızı çizgilerin ihlal edilip edilmediği bağımsız olarak doğrulanabilir ve sınıflandırıcılar (classifiers) çalıştırılıp güncellenebilir
-
Sözleşme maddeleri
- Savunma Bakanlığı, yapay zeka sistemlerini uygulanabilir yasalar, operasyonel gereksinimler ve yerleşik güvenlik ile gözetim protokolleriyle uyumlu tüm meşru amaçlar için kullanabilir
- Yasalar, düzenlemeler veya kurum politikaları insan kontrolü gerektiriyorsa otonom silahları bağımsız biçimde yönetmek için kullanılamaz
- DoD Directive 3000.09’a (25 Ocak 2023 tarihli) göre, otonom ve yarı otonom sistemlerde yapay zeka kullanımı, konuşlandırma öncesinde gerçekçi ortamlarda sıkı doğrulama, teyit ve testlerden geçmelidir
- İstihbarat faaliyetleri sırasında kişisel verilerin işlenmesi Dördüncü Değişiklik, Ulusal Güvenlik Yasası (1947), Yabancı İstihbarat Gözetim Yasası (1978), Yürütme Emri 12333 ve ilgili Savunma Bakanlığı yönergelerine uymalıdır
- ABD vatandaşlarının kişisel verilerine yönelik sınırsız izleme yasaktır
- Yurt içi kolluk faaliyetlerinde yalnızca Posse Comitatus Act ve diğer ilgili yasaların izin verdiği durumlarda kullanılabilir
-
Yapay zeka uzmanlarının katılımı
- Güvenlik iznine sahip OpenAI mühendisleri destek için hükümet tarafında sahada görevlendirilecek
- Güvenlik iznine sahip güvenlik ve alignment araştırmacıları sürece dahil olacak
SSS’de öne çıkanlar
-
Neden bu sözleşme yapıldı?
- ABD ordusunun, potansiyel rakip ülkelerin yapay zeka teknolojisini entegre etme tehdidine karşı güçlü yapay zeka modellerine ihtiyacı var
- Başlangıçta gizli konuşlandırma için güvenlik önlemleri ve sistemlerin hazır olmadığı değerlendirilmiş, bu yüzden hemen sözleşme yapılmamış; kırmızı çizgilerin korunabilmesi için hazırlık yapılmış
- Ulusal güvenlik işlerinde performans artışı için temel teknik güvenlik önlemlerini kaldırmak doğru bir yaklaşım değil
- Amaçlardan biri de Savunma Bakanlığı ile ABD’li yapay zeka laboratuvarları arasındaki gerilimi azaltmak; aynı koşulların tüm yapay zeka laboratuvarlarına sunulması ve özellikle Anthropic ile ilgili sorunun çözülmesi hükümetten talep ediliyor
-
Anthropic ile karşılaştırma
- OpenAI, kendi sözleşmesinin Anthropic’in mevcut sözleşmesine göre daha iyi güvenceler ve daha sorumlu güvenlik önlemleri sunduğunu düşünüyor
- Yalnızca bulut tabanlı konuşlandırma (edge değil), kendi güvenlik yığınının korunması ve güvenlik iznine sahip OpenAI personelinin sürece dahil olması sayesinde kırmızı çizgiler daha uygulanabilir hale geliyor
- Anthropic’in neden bu sözleşmeyi yapamadığını bilmediğini, ancak Anthropic ve daha fazla laboratuvarın bunu değerlendirmesini umduğunu söylüyor
-
Anthropic’in "tedarik zinciri riski" olarak tanımlanması meselesi
- Anthropic’in "tedarik zinciri riski" olarak sınıflandırılmasına karşı olduğunu ve bu görüşünü hükümete açıkça ilettiğini belirtiyor
-
Otonom silah ihtimali
- Güvenlik yığını, yalnızca bulut tabanlı konuşlandırma, sözleşme dili ve mevcut yasa/düzenleme/politikalar nedeniyle otonom silahlarda kullanılamaz
- OpenAI personelinin sürece dahil olması ek güvence sağlıyor
-
Kitlesel gözetim ihtimali
- Güvenlik yığını, sözleşme dili ve Savunma Bakanlığı’nın yurt içi gözetimi ciddi biçimde sınırlayan mevcut yasaları nedeniyle kitlesel gözetimde kullanılamaz
-
Güvenlik yığını olmadan konuşlandırma mümkün mü?
- Güvenlik yığını üzerinde tam kontrolü elinde tutuyor ve güvenlik korkulukları olmadan konuşlandırma yapmıyor
- Diğer yapay zeka laboratuvarlarının model korkuluklarını azaltıp ana güvenlik önlemi olarak kullanım politikalarına dayanmasının aksine, OpenAI’nin çok katmanlı yaklaşımının daha etkili olduğu savunuluyor
-
Hükümet sözleşmeyi ihlal ederse ne olur?
- Genel sözleşmelerde olduğu gibi, karşı taraf koşulları ihlal ederse sözleşme feshedilebilir
-
Yasalar veya politikalar değişirse ne olur?
- Sözleşme, gözetim ve otonom silahlarla ilgili yasa ve politikaları mevcut halleriyle açıkça referans alıyor
- Gelecekte yasa veya politikalar değişse bile sistemin kullanımı sözleşmeye yansıtılan mevcut standartlara uygun olmak zorunda
- Anthropic’in öne sürdüğü iki kırmızı çizgiye (kitlesel yurt içi gözetim, tam otonom silahlar) OpenAI de katılıyor; buna ek olarak üçüncü kırmızı çizgi olarak otomatik yüksek riskli karar verme ekleniyor
- Kitlesel yurt içi gözetim: Savunma Bakanlığı’nın bunu yasa dışı kabul ettiği ve bu amaçla kullanım planlamadığı, görüşmeler sırasında netleşmişti; bunun meşru kullanım kapsamına girmediği sözleşmede açıkça belirtiliyor
- Tam otonom silahlar: Sözleşmede yer alan bulut konuşlandırma ortamında tam otonom silahlar çalıştırılamaz; çünkü bunun için edge konuşlandırma gerekir
- Bu korumalara ek olarak, güvenlik yığını ve OpenAI teknoloji uzmanlarının sürece dahil olması şeklinde ek çok katmanlı güvenlik önlemleri bulunuyor
1 yorum
Hacker News görüşleri
Benim yorumuma göre OpenAI ile Savunma Bakanlığı arasındaki sözleşme ABD vatandaşlarına yönelik kitlesel gözetimi yasaklıyor gibi görünse de, aslında yalnızca zaten yasalarla yasaklanmış alanlarla sınırlı olduğu anlamına geliyor
Yani Savunma Bakanlığı’nın konum verileri veya finansal işlemler gibi verileri özel şirketlerden toplu halde satın alıp bunları OpenAI araçlarıyla analiz etmesi de mümkün gibi okunuyor
Bildiğim kadarıyla Anthropic’in sözleşmesinde böyle bir madde yoktu
Eğer bu doğruysa korkunç bir durum. Ama son zamanlarda aceleci sonuçlara vardığım çok oldu, bu yüzden bu kez hükmümü askıda tutuyorum
(Bu arada ben eski bir OpenAI çalışanı ve mevcut bir hissedarıyım)
Eskiden kâr amacı gütmeyen dönemde öyle değildi, ama şimdi gizlilik politikasını iki kez değiştirip benden daha fazla veri topluyor
Ayarı kapatma süreci de karmaşık ve dark pattern dolu. Veri indirme özelliği de fiilen çalışmıyor
Dario’nun dediği **‘weasel language’**in tipik bir örneği
Bu ilke ortadan kalkarsa bu tür kâbus senaryolarının çoğu da ortadan kalkar
“Shall not be used as consistent with these authorities” ifadesi dilbilgisi açısından da tuhaf
Avukatlar bunu bilerek muğlak yazıp PR amaçlı yoruma alan bırakmış gibi görünüyor
“The Department of War may use the AI System for all lawful purposes…” ifadesi sonuçta yasanın izin verdiği her amaç için kullanılabilir demek
Anthropic kendi ahlaki ölçütlerini uygulamaya çalıştı ama OpenAI hükümetin taleplerini olduğu gibi kabul etti
Kişisel olarak iki yaklaşımı da anlayabiliyorum, ama hükümetin Anthropic’e karşı tutumu kötü niyetliydi ve ABD’nin çıkarlarına da zarar veriyordu
Hükümet zaten yasa dışı şeyleri alenen yapıyor, gizli kapaklı neler döndüğünü ise kimse bilmiyor
Sonuçta Anthropic’in temelindeki şey hükümete güvenilemeyeceğine dair ahlaki duruştu
Kuralları değiştirmek de onların elinde
Sam Altman ya saf ya da bize öyle düşünmemizi sağlıyor
Bu açıkça bir savaş suçu, peki ‘yasallığa’ kim karar verecek? OpenAI mi, Savunma Bakanı mı, yoksa bir yargıç mı?
“Yasal olarak izin verilen tüm amaçlar” ifadesi, yasayı yapan tarafın kendini fiilen sınırlamadığı anlamına geliyor
Ama yasa dışı olduğunu bile bile hükümete yardım ederseniz bu suça iştirak sayılabilir. Hükümet dokunulmaz olabilir ama OpenAI olmayabilir
Anthropic’in tamamen ahlaki bir erdem timsali olduğunu düşünmüyorum
ChatGPT için de aynısı geçerli
Ama bu noktada ChatGPT aboneliğini iptal edip Claude kullanmak, vermek istediğim mesajı gösteren bir hareket
Kullanıcıların tartışma çıkar çıkmaz ayrıldığını bilirlerse şirketler de daha dikkatli olur
Anthropic’in bu kez geri adım atmaması etkileyici
GPU sıkıntısı var ama ben de ChatGPT’yi bırakıp Claude ya da Kimi’ye geçmeyi planlıyorum
Sonuçta çalışanlar ahlaki bir tavır alsa bile, karar yetkileri yoksa bunun anlamı kalmıyor
Sahip oldukları tek güç ‘istifa etmek’
Kilit mühendisler topluca durursa Sam Altman tek başına şirketi ayakta tutamaz
OpenAI, “yapay zekanın ahlaki sorumluluğunu hukuka devredelim” diyerek ahlaki sorumluluktan kaçıyor
Net serveti 2 milyon doların üzerinde olan bir OpenAI çalışanı hâlâ oradaysa, ahlaki pusulası bozulmuş demektir
Artık Palantir ya da xAI’de çalışmaktan farkı kalmadı
“Tüm yasal amaçlar için kullanılabilir” ifadesi sonuçta Savunma Bakanlığı’nın yetersiz düzenlemeler sayesinde istediğini aldığı anlamına geliyor
Bu blog yazısı durumu daha da kötü gösteriyor
Anthropic’in reddettiği tartışmalı kullanım alanları konusunda net bir çizgi çekmiyor
Sadece “yasal ve test edilmişse mümkündür” diyor
Bu, sanki 1930’larda IBM Almanya’ya makine satıp “biz bilmiyorduk” demesi gibi hissettiriyor
Sonuçta ordunun istediği şey otonom silahlar ve kitlesel gözetim, ayrıca bunun dışında hukuken yasal olsa da ahlaken gri alanda kalan kullanımlardı