- Yapay zeka araştırma şirketi Anthropic, temel güvenlik politikası olan Responsible Scaling Policy (RSP) kapsamındaki başlıca taahhütlerini geri çekti
- Şirket daha önce, güvenlik önlemleri yeterince garanti edilmezse AI model eğitimini durduracağını vaat etmişti; yeni politikada ise bu madde kaldırıldı
- Yeni RSP, daha fazla şeffaflık ve rakiplerle aynı düzeyde ya da daha güçlü güvenlik çabaları sözü veriyor; risk ciddi hale gelirse geliştirmeyi “geciktirebileceğini” belirtiyor
- Şirket, bu değişikliğin piyasa baskısından değil, siyasi ve bilimsel gerçeklere verilen bir yanıt olduğunu söylüyor
- Uzmanlar bu adımı, AI felaket riski karşısında toplumsal hazırlığın yetersiz olduğuna işaret eden bir sinyal olarak değerlendiriyor
RSP (Responsible Scaling Policy) değişikliğinin arka planı
- Anthropic, 2023'te güvenlik önlemleri yeterince kanıtlanmadıkça AI sistemlerini eğitmeyeceğine dair bir taahhüt açıklamıştı
- Bu, piyasa rekabeti yerine güvenliği önceleyen şirket imajını güçlendiren temel politikalardan biriydi
- Şirket kısa süre önce RSP'yi baştan aşağı yenileyerek, önceden güvenlik güvencesi olmadan modeli piyasaya sürmeyeceğine dair vaadini geri çekti
- Jared Kaplan (Chief Science Officer), “AI ilerlemesinin hızı çok yüksek olduğu için tek taraflı taahhütler gerçekçi değil” dedi
Yeni politikanın ana başlıkları
- Yeni RSP, AI güvenlik risklerine dair şeffaflığın artırılmasını içeriyor
- Anthropic modellerinin güvenlik testi sonuçlarının daha fazlasını kamuoyuna açıklamayı ve rakiplerle aynı seviyede veya daha güçlü güvenlik önlemlerini korumayı ya da aşmayı belirtiyor
- Şirket AI yarışında önde olduğuna ve felaket düzeyindeki riskin yüksek olduğuna karar verirse geliştirmeyi “geciktirebilir”
- Ancak önceki politikanın aksine, belirli bir seviyenin üzerindeki model eğitimini yasaklayan açık bir sınır artık yok
Politika değişikliğinin sektörel bağlamı
- Anthropic, son dönemde Claude modeli ve Claude Code başarısıyla ticari açıdan güçlü sonuçlar elde ediyor
- Şubat 2026'da 30 milyar dolarlık yatırım, yaklaşık 380 milyar dolar değerleme ve yıllık gelirde 10 kat büyüme bildirdi
- Şirketin B2B odaklı iş modeli, OpenAI'ın tüketici odaklı stratejisine kıyasla daha güvenilir görülüyor
- Kaplan, bu değişimin piyasa baskısından değil, siyasi ve bilimsel ortamın değişmesine bağlı pratik bir uyarlama olduğunu özellikle vurguladı
Düzenleme ve bilimsel sınırlamalar
- Anthropic, RSP'yi ilk duyurduğunda diğer şirketlerin de benzer önlemler benimsemesini umuyordu ancak bu gerçekleşmedi
- ABD federal düzeyinde AI düzenleme yasasının olmaması, Trump yönetiminin deregülasyon eğilimi ve uluslararası iş birliğinin sekteye uğraması devam etti
- AI değerlendirme biliminin karmaşıklığı da ayrı bir sorun olarak gösteriliyor
- 2025'te Anthropic, kendi modelinin biyoterör amaçlı kötüye kullanılma ihtimalini dışlayamayacağını açıkladı; ancak bunu kanıtlayacak bilimsel dayanaklar yetersizdi
İç tartışmalar ve karar süreci
- Yaklaşık bir yıl boyunca yönetim ekibi, yeni ortama uygun bir RSP revizyonunu tartıştı
- Temel tartışma noktası, AI güvenlik araştırması için en ön saftaki modellerin doğrudan geliştirilmesi gerektiği yönündeki kurucu ilkeydi
- Kaplan'a göre CEO Dario Amodei, “Rakipler geliştirmeye devam ederken yalnızca Anthropic'in durması aslında daha tehlikeli” sonucuna vardı
- Yeni RSP'nin önsözünde, “En zayıf koruma önlemlerine sahip geliştirici hız belirleyici hale gelirse, sorumlu geliştiriciler güvenlik araştırması yapma kabiliyetini kaybeder” deniyor
Dış değerlendirmeler ve kaygılar
- Chris Painter (METR politika direktörü), bu değişikliğin anlaşılabilir olduğunu ancak AI felaket riski karşısında toplumsal hazırlığın yetersizliğini ortaya koyduğunu söyledi
- Anthropic'in, “risk değerlendirmesi ve azaltma yöntemleri teknolojik ilerleme hızına yetişemediği için acil müdahale moduna (triyaj modu) geçtiğini” ifade etti
- Painter, yeni politikanın şeffaf risk raporlaması ve güvenlik yol haritası paylaşımını olumlu değerlendirdi ancak
- eski RSP'deki ikili durdurma eşiğinin (binary threshold) ortadan kalkmasıyla, riskin yavaş yavaş arttığı bir ‘kurbağayı yavaş yavaş haşlama etkisi’ oluşabileceği uyarısında bulundu
Gelecek planları ve kamuya açık taahhütler
- Anthropic, yeni RSP'nin eski politikanın temel avantajlarını koruduğunu söylüyor
- Geçmişte model yayınlama kısıtları, güvenlik azaltım önlemlerinin geliştirilmesini teşvik eden bir motivasyon işlevi görüyordu
- Şirket, bu motivasyonu sürdürmek için ‘Frontier Safety Roadmaps’ belgelerini düzenli olarak yayımlamayı planlıyor
- Ayrıca her 3 ila 6 ayda bir ‘Risk Reports’ yayımlayarak
- modellerin yetenekleri, tehdit senaryoları, risk azaltma önlemleri ve genel risk seviyesini değerlendiren içerikler paylaşacak
- Kaplan, “Rakipler felaket riskleri konusunda şeffaf davranırsa, Anthropic de aynı ya da daha yüksek düzeyde güvenlik standardını koruyacaktır” dedi
2 yorum
Anthropic ne ne kadar diretirse dirensin, sonuçta ABD Savunma Bakanlığı ne derse onu yapmak zorunda kalacak, değil mi? Sonuçta bunun eninde sonunda böyle bir noktaya varacağı zaten belliydi, öyle değil mi.
Hacker News görüşleri
Anthropic'in yapay zeka model eğitimini durdurma taahhüdünü geri çekmesinin nedenini “rakipler öne geçtiği için” diye açıklamasını görünce, işin sonunda meselenin para olduğu ortaya çıkmış gibi görünüyor
“Herkes köpeğe tekme atıyorsa bizim de yapmamız gerekir” türü bir mantık gibi geliyor.
İnsanlar Anthropic'in ‘iyi bir şirket’ olduğuna inanıyordu ama sonuçta hepsi aynı şekilde yalnızca kârın peşinden gidiyor
Ama gerçekte çoğu yapay zeka şirketi ‘kâğıt üzerindeki bir devletin’ altında faaliyet gösteriyor
Bu yalnızca yapay zeka şirketlerine özgü bir sorun değil ama bu yüzden meşru da sayılamaz
Bu yüzden güvenlik, çevre ve yolsuzluk karşıtı düzenlemeler şart
Tipik bir yapay zeka startup döngüsü gibi görünüyor
“İnsanlığı kurtarmak için hendek kuralım” → “açık kaynak rakipleri düzenleyelim” → “güvenlik Q3 sonuçlarına engel oluyor”
Gerçekte kapalıyken “açığız” diye gaslighting yapıyorlar
Eskiden Anthropic'te çalışmıştım; Jared Kaplan gibi insanlar gerçekten güvenlik araştırması ile frontier teknolojinin dengesi üzerine samimiyetle düşünen kişilerdi
Ama bu karar hayal kırıklığı yaratıcı. ‘Responsible Scaling Policy’nin böyle durumlarda da geçerli olacak gerçek bir taahhüt olduğuna inanıyordum
Bu taahhüt, Anthropic'i “en az riskli laboratuvar” gibi gösteriyordu ama artık bu sinyal zayıfladı
Bundan sonra ilkelerin değil, koltuğu korumanın öncelikli olup olmayacağından endişeliyim
Yine de ortada hâlâ değerler varsa, tamamen değersiz laboratuvarlar arasında bile olsa etkide bulunmanın daha iyi olduğunu düşünüyorum
Ahlaki sorumluluğu hepimiz paylaşmalıyız
Bu sinyali kendi elleriyle geri çekmeleri, artık başka bir pazara yöneldikleri anlamına geliyor
Adaylara yapay zeka güvenliği üzerine bir deneme yazdırıyorlar ve herkes “dünyayı kurtarıyoruz” oyunu oynuyordu
Sonunda şimdi olduğu gibi işin içine para girince kimse sesini çıkarmıyor
Çünkü şirketler yapısal olarak kâr maksimizasyonu içgüdüsünden kaçamaz
Bu karar, Mozilla'nın DRM'yi benimsediği ana benziyor
Mükemmel değil ama yine de Anthropic en azından sorumluluk göstermeye çalışıyor
OpenAI ile kıyaslandığında, en azından şimdilik hâlâ bir miktar güven veriyor
Haber başlığı abartılı. Bu tartışma Pentagon ile pazarlıklar hakkında değil, Anthropic'in yayımladığı Responsible Scaling Policy 3.0 ile ilgili
Hatta bu bir önleyici hamle bile olabilir
Devlet baskısı vardı ama haberde buna hiç değinilmiyor
“Başta modeller güvenlik doğrulaması olmadan yayımlandığında kimse bir şey söylemedi…” diye başlayan yazı bir uyarı masalı gibi geliyor
Sonunda kimse hazırlık yapmadı ve sorun patladığında artık çok geçti, diyor
Asıl sorun teknoloji değil, daha çok siyaset ve kültür alanında
Güvenlik taahhüdünün tam bu zamanda geri çekilmesi manidar
Bu tür şirketler etik kodlara uyuyormuş gibi yapar ama kâr tehdit altına girince onları hemen terk eder
Sonuçta hedef beyaz yakalı emeğin değerini düşürmek
Acaba bu geçişi etik biçimde mi yönetecekler, yoksa serveti hissedarlara mı aktaracaklar
Kendi kuyruğunu yiyen bir yılan gibi
Şirketlerin özü kâr arayışıdır; bunun kendisi kötü değil ama bu ahlaki jestler ikiyüzlü hissettiriyor
Google'ın “Don’t be evil” sözü 15 yıl dayandı ama Anthropic'in Responsible Scaling Policysi iki buçuk yılda ortadan kalktı
Yapay zeka idealizminin yarı ömrü giderek kısalıyor
Anthropic'teki değişim üzücü ama gerçekçi bakarsak, güvenlik için bile rekabette fazla geri kalmamak gerekiyor
Şu an pragmatizme ihtiyaç var. İleride Anthropic “kötüleşebilir” ama bugün için yine de en güvenli taraf o gibi görünüyor
CEO’nun yapay zekanın savaş amaçlı kullanımını reddetmiş olmasını olumlu buluyorlar
Çok geç olmadan tetikte olmak gerek