- Anthropic CEO’su Dario Amodei, çalışanlara gönderdiği bir notta OpenAI’ın ABD Savunma Bakanlığı sözleşmesini "göstermelik güvenlik önlemleri (safety theater)" olarak nitelendirerek sert biçimde eleştirdi
- Anthropic’in daha önce 200 milyon dolarlık bir askeri sözleşmesi vardı, ancak Savunma Bakanlığı’nın sınırsız teknoloji erişimi talep etmesi nedeniyle anlaşma sağlanamadı
- Bunun yerine OpenAI, Savunma Bakanlığı ile sözleşme imzaladı; Sam Altman ise Anthropic’in savunduğu aynı kırmızı çizgi korumalarının bu anlaşmada da yer aldığını açıkladı
- Amodei, Altman’ın kendisini "barış arabulucusu ve anlaşma yapıcı" olarak pazarladığını söyleyerek OpenAI’ın mesajlarını çalışanlara "apaçık yalanlar" diye aktardı
- Bu sözleşmenin ardından ChatGPT silme sayısı %295 arttı; kamuoyu tepkisi ise Anthropic tarafına daha yakın göründü
Dario Amodei’nin çalışan notunun içeriği
- Amodei, The Information’ın haberleştirdiği çalışan notunda OpenAI’ın Savunma Bakanlığı anlaşmasını "safety theater (güvenlik tiyatrosu)" olarak tanımladı
- "OpenAI’ın bu sözleşmeyi kabul edip bizim reddetmemizin temel nedeni, onların çalışanları yatıştırmaya odaklanması, bizimse gerçekten kötüye kullanımı önlemeye odaklanmamızdı" diye yazdı
- Altman’ın kendisini "barış arabulucusu ve anlaşma yapıcı" olarak sunduğunu söyleyerek, OpenAI’ın mesajlarını doğrudan "straight up lies" (apaçık yalanlar) diye niteledi
Anthropic ile Savunma Bakanlığı arasındaki görüşmelerin neden başarısız olduğu
- Anthropic, ABD Savunma Bakanlığı ile yürütülen görüşmelerde yapay zeka teknolojisine sınırsız erişim talebini reddetti
- Şirket, DoD’nin kendi yapay zekasını yurtiçinde kitlesel gözetim veya otonom silah geliştirme için kullanmayacağına dair güvence istiyordu
- Bu koşul kabul edilmeyince 200 milyon dolarlık sözleşme iptal oldu
- Ardından DoD, OpenAI ile yeni bir sözleşme yaptı
- Trump yönetimi altında "Department of War" olarak anılan Savunma Bakanlığı, Anthropic yerine OpenAI ile sözleşme imzaladı
- Sam Altman, yeni savunma sözleşmesinin Anthropic’in talep ettiği aynı kırmızı çizgiler için korumaları içerdiğini açıkladı
- OpenAI, blog gönderisinde kendi yapay zeka sistemlerinin "all lawful purposes" (tüm yasal amaçlar) için kullanılabileceğini açıkça belirtti
- OpenAI bloguna göre, "Savunma Bakanlığı, yurtiçinde kitlesel gözetimi yasa dışı kabul ediyor ve bu amaçla kullanmayı planlamadığını etkileşimlerde açıkça belirtti" denildi
- Bunun yasal kullanım kapsamına girmediğinin sözleşmede açıkça ifade edildiği anlatıldı
Anthropic’in somut itirazları
- Anthropic, Savunma Bakanlığı’nın kendi yapay zekasını "any lawful use" (her türlü yasal kullanım) için kullanabilmeyi talep etmesine özel olarak itiraz etti
- Eleştirmenler, yasaların değişebileceğini ve bugün yasa dışı olan bir şeyin gelecekte izinli hale gelebileceğini vurguladı
Kamuoyu tepkisi ve pazar etkisi
- OpenAI’ın Savunma Bakanlığı sözleşmesini duyurmasının ardından ChatGPT silme sayısı %295 arttı
- Bu durum, kamuoyunun OpenAI’ın askeri sözleşmesini şüpheli veya şeffaf olmayan bir gelişme olarak gördüğünü gösteriyor
- Amodei notunda, "Bu spin/gaslighting girişimi kamuoyunda ya da medyada pek işlemiyor; çoğu kişi OpenAI’ın sözleşmesini şüpheli görüyor ve bizi kahraman olarak değerlendiriyor" diye yazdı
Anthropic içindeki atmosfer
- Amodei, çalışanlara OpenAI’ın “çarpıtılmış mesajlarının” şirket içindeki çalışanları etkilemesine izin vermemeleri gerektiğini vurguladı
- OpenAI’ın halkla ilişkiler stratejisinin yalnızca bazı çevrimiçi kullanıcılarda etkili olduğunu, geniş kamuoyunu ikna etmekte ise başarısız kaldığını değerlendirdi
3 yorum
Peki ama neden
opencode'u engellediniz.. hıçk..Hacker News görüşleri
@sama'nın birkaç saat içinde Anthropic yerine OpenAI'nin aynı şartlarla sözleşme imzaladığını duyurması, DoW ya da OAI'den birinin gerçeği çarpıttığını açıkça düşündürdü
DoW Anthropic'in şartlarını reddettiyse, OAI'nin şartları fiilen uygulanamaz düzeyde olmalıydı
Gerçekte okuyunca, sanki “DoW kendi koyduğu kuralları ihlal etmez” türü bir şart gibi görünüyordu
Sam Altman, kötüye kullanımı önlemek için DoD modeline kurallar yerleştireceklerini söyledi ama bu, hizalama sorununun (alignment) kısa sürede çözüleceğini iddia etmekten farksız. İnanması zor
Eskiden makalelerini severdim ama giderek öz eleştiriden yoksun ve startup'ları hayatın tamamı gibi gören biri gibi gelmeye başladı
Bu olayda da Altman'ı savunma biçimi fazlasıyla hayal kırıklığı yaratıyor. Tweet'ine bakınca gerçekliği görmezden geliyor
Muhtemelen Altman'ı dünyaya tanıtan kişi olmanın sorumluluğu yüzünden onu eleştiremiyor
Mühendislerin çoğu siyaset felsefesi okumadı ve antik çağdaki ‘Gyges'in yüzüğü’ hikâyesi hâlâ geçerli
Bu, sadece etik meselesi olarak görülemez. Ortada muazzam bir sermaye var
En ileri modelleri eğitmenin maliyeti astronomik ve bunu karşılayabilecek yerler yalnızca DoD gibi kurumlar
Anthropic'in güvenlik kaygıları nedeniyle Savunma Bakanlığı sözleşmesini reddetmesi büyük bir kumar. Onun yerine ‘Constitutional AI’ yaklaşımının piyasada karşılık bulmasını umuyor
OpenAI ise Savunma Bakanlığı fonunu isterken aynı zamanda tüketici dostu imajını korumaya çalışıyor. Ama iki tarafı aynı anda memnun edemezsiniz
Bu olay yüzünden Anthropic aslında daha fazla gelir elde etmiş bile olabilir
Asıl risk, hükümetin Anthropic'i tedarik zinciri riski olarak sınıflandırması
Anthropic'in Palantir'le çalışırken DoD gözetimine karşı çıkması çelişki gibi görünüyor
DoD'nin sözleşmeyi kesip OpenAI ile yenisini imzalamasına bakılırsa, iki şirketin şartları arasında fiilen fark olduğu açık
Devlet sözleşmeleri kapsamında soruşturma ve güvenlik dâhil çeşitli verileri birleştiriyor ama bunları doğrudan toplamıyor
Ayrıntı için Wired yazısına bakılabilir
Ayrıntı için TechCrunch yazısına bakılabilir
Dario'nun tam notu burada yayımlandı
Bu, basit bir rekabetten ziyade ideolojik bir çatışma gibi görünüyor
Üstelik OpenAI çalışanlarını “kolay kandırılan Twitter aptalları” diye nitelemesi, yetenek kazanımı açısından iyi bir tercih değil
Örnek için bu tweet'e bakılabilir
@pg, @sama'yı “yamyam adasına bırakılsa 5 yıl sonra kral olmuş olacak kişi” diye tanımlamıştı; şimdi bakınca bu, güç tutkusunu simgeleyen bir alıntı gibi geliyor
Dario, bu çağda nadir görülen samimi bir figür gibi duruyor. Umarım çizgisini bozmaz
Sonuçta bunların hepsi kâr amaçlı şirketler ve bir tarafın haksız olması diğer tarafı otomatik olarak haklı yapmaz
Ayrıntı için resmî duyuruya bakılabilir
Altman'ın SCR maddesinde Anthropic'i savunmuş olmasını teslim ediyorum ama bu zaten olması gereken en temel şeydi
Bu alıntı bana en başından beri olumsuz gelmişti. Bu topluluğun da hiyerarşiye karşı doğal bir kuşkuculuğa ihtiyacı var
Aslında iki laboratuvar da ‘güvenlik tiyatrosu (safety theater)’ yapıyor
Hizalama sorununu çözemeden, piyasa baskısıyla tehlikeli bir yetenek yarışına girmiş durumdalar
Bu olay vesilesiyle OpenAI aboneliğini iptal etmeye ve hesabı silmeye yönelik bir eylem çağrısı yapılıyor
Hiçbir şey yapmamak göz yummaktan farksız
Sam Altman'ın yalan söylediğine mi şaşırıyoruz? Artık hiç şaşırtıcı değil
İnsanları giderek daha fazla kendisine bağımlı hale getiriyor; sonunda kimse onu yerinden edemiyor
OpenAI, hayatta kalmak için devletin mali desteğine bağımlı hale gelmiş durumda
Sam ve yönetim ekibi krizi şimdiden fark etti, bu yüzden devlet fonuna ihtiyaç duyuyorlar
Seçim öncesi dönemde piyasayı korumaya dönük siyasi hesaplar da işin içinde
Nvidia, Micron, Oracle ve Microsoft'un hepsi bu akışın parçası
Anthropic, OpenAI ve ABD hükümeti arasındaki son gelişmeleri özetleyen bir zaman çizelgesi sitesi hazırladım
HN gönderisi bağlantısı
DoD: Department of Defense
..W: ..War