14 puan yazan GN⁺ 2026-02-26 | 2 yorum | WhatsApp'ta paylaş
  • Yapay zeka araştırma şirketi Anthropic, temel güvenlik politikası olan Responsible Scaling Policy (RSP) kapsamındaki başlıca taahhütlerini geri çekti
  • Şirket daha önce, güvenlik önlemleri yeterince garanti edilmezse AI model eğitimini durduracağını vaat etmişti; yeni politikada ise bu madde kaldırıldı
  • Yeni RSP, daha fazla şeffaflık ve rakiplerle aynı düzeyde ya da daha güçlü güvenlik çabaları sözü veriyor; risk ciddi hale gelirse geliştirmeyi “geciktirebileceğini” belirtiyor
  • Şirket, bu değişikliğin piyasa baskısından değil, siyasi ve bilimsel gerçeklere verilen bir yanıt olduğunu söylüyor
  • Uzmanlar bu adımı, AI felaket riski karşısında toplumsal hazırlığın yetersiz olduğuna işaret eden bir sinyal olarak değerlendiriyor

RSP (Responsible Scaling Policy) değişikliğinin arka planı

  • Anthropic, 2023'te güvenlik önlemleri yeterince kanıtlanmadıkça AI sistemlerini eğitmeyeceğine dair bir taahhüt açıklamıştı
    • Bu, piyasa rekabeti yerine güvenliği önceleyen şirket imajını güçlendiren temel politikalardan biriydi
  • Şirket kısa süre önce RSP'yi baştan aşağı yenileyerek, önceden güvenlik güvencesi olmadan modeli piyasaya sürmeyeceğine dair vaadini geri çekti
  • Jared Kaplan (Chief Science Officer), “AI ilerlemesinin hızı çok yüksek olduğu için tek taraflı taahhütler gerçekçi değil” dedi

Yeni politikanın ana başlıkları

  • Yeni RSP, AI güvenlik risklerine dair şeffaflığın artırılmasını içeriyor
    • Anthropic modellerinin güvenlik testi sonuçlarının daha fazlasını kamuoyuna açıklamayı ve rakiplerle aynı seviyede veya daha güçlü güvenlik önlemlerini korumayı ya da aşmayı belirtiyor
  • Şirket AI yarışında önde olduğuna ve felaket düzeyindeki riskin yüksek olduğuna karar verirse geliştirmeyi “geciktirebilir”
  • Ancak önceki politikanın aksine, belirli bir seviyenin üzerindeki model eğitimini yasaklayan açık bir sınır artık yok

Politika değişikliğinin sektörel bağlamı

  • Anthropic, son dönemde Claude modeli ve Claude Code başarısıyla ticari açıdan güçlü sonuçlar elde ediyor
    • Şubat 2026'da 30 milyar dolarlık yatırım, yaklaşık 380 milyar dolar değerleme ve yıllık gelirde 10 kat büyüme bildirdi
  • Şirketin B2B odaklı iş modeli, OpenAI'ın tüketici odaklı stratejisine kıyasla daha güvenilir görülüyor
  • Kaplan, bu değişimin piyasa baskısından değil, siyasi ve bilimsel ortamın değişmesine bağlı pratik bir uyarlama olduğunu özellikle vurguladı

Düzenleme ve bilimsel sınırlamalar

  • Anthropic, RSP'yi ilk duyurduğunda diğer şirketlerin de benzer önlemler benimsemesini umuyordu ancak bu gerçekleşmedi
  • ABD federal düzeyinde AI düzenleme yasasının olmaması, Trump yönetiminin deregülasyon eğilimi ve uluslararası iş birliğinin sekteye uğraması devam etti
  • AI değerlendirme biliminin karmaşıklığı da ayrı bir sorun olarak gösteriliyor
    • 2025'te Anthropic, kendi modelinin biyoterör amaçlı kötüye kullanılma ihtimalini dışlayamayacağını açıkladı; ancak bunu kanıtlayacak bilimsel dayanaklar yetersizdi

İç tartışmalar ve karar süreci

  • Yaklaşık bir yıl boyunca yönetim ekibi, yeni ortama uygun bir RSP revizyonunu tartıştı
    • Temel tartışma noktası, AI güvenlik araştırması için en ön saftaki modellerin doğrudan geliştirilmesi gerektiği yönündeki kurucu ilkeydi
  • Kaplan'a göre CEO Dario Amodei, “Rakipler geliştirmeye devam ederken yalnızca Anthropic'in durması aslında daha tehlikeli” sonucuna vardı
  • Yeni RSP'nin önsözünde, “En zayıf koruma önlemlerine sahip geliştirici hız belirleyici hale gelirse, sorumlu geliştiriciler güvenlik araştırması yapma kabiliyetini kaybeder” deniyor

Dış değerlendirmeler ve kaygılar

  • Chris Painter (METR politika direktörü), bu değişikliğin anlaşılabilir olduğunu ancak AI felaket riski karşısında toplumsal hazırlığın yetersizliğini ortaya koyduğunu söyledi
    • Anthropic'in, “risk değerlendirmesi ve azaltma yöntemleri teknolojik ilerleme hızına yetişemediği için acil müdahale moduna (triyaj modu) geçtiğini” ifade etti
  • Painter, yeni politikanın şeffaf risk raporlaması ve güvenlik yol haritası paylaşımını olumlu değerlendirdi ancak
    • eski RSP'deki ikili durdurma eşiğinin (binary threshold) ortadan kalkmasıyla, riskin yavaş yavaş arttığı bir ‘kurbağayı yavaş yavaş haşlama etkisi’ oluşabileceği uyarısında bulundu

Gelecek planları ve kamuya açık taahhütler

  • Anthropic, yeni RSP'nin eski politikanın temel avantajlarını koruduğunu söylüyor
    • Geçmişte model yayınlama kısıtları, güvenlik azaltım önlemlerinin geliştirilmesini teşvik eden bir motivasyon işlevi görüyordu
    • Şirket, bu motivasyonu sürdürmek için ‘Frontier Safety Roadmaps’ belgelerini düzenli olarak yayımlamayı planlıyor
  • Ayrıca her 3 ila 6 ayda bir ‘Risk Reports’ yayımlayarak
    • modellerin yetenekleri, tehdit senaryoları, risk azaltma önlemleri ve genel risk seviyesini değerlendiren içerikler paylaşacak
  • Kaplan, “Rakipler felaket riskleri konusunda şeffaf davranırsa, Anthropic de aynı ya da daha yüksek düzeyde güvenlik standardını koruyacaktır” dedi

2 yorum

 
tsboard 2026-02-26

Anthropic ne ne kadar diretirse dirensin, sonuçta ABD Savunma Bakanlığı ne derse onu yapmak zorunda kalacak, değil mi? Sonuçta bunun eninde sonunda böyle bir noktaya varacağı zaten belliydi, öyle değil mi.

 
GN⁺ 2026-02-26
Hacker News görüşleri
  • Anthropic'in yapay zeka model eğitimini durdurma taahhüdünü geri çekmesinin nedenini “rakipler öne geçtiği için” diye açıklamasını görünce, işin sonunda meselenin para olduğu ortaya çıkmış gibi görünüyor
    “Herkes köpeğe tekme atıyorsa bizim de yapmamız gerekir” türü bir mantık gibi geliyor.
    İnsanlar Anthropic'in ‘iyi bir şirket’ olduğuna inanıyordu ama sonuçta hepsi aynı şekilde yalnızca kârın peşinden gidiyor

    • Anthropic piyasadaki aklıselimi temsil edemez. Bu rolü devletin düzenleme ve denetim sistemi üstlenmeli
      Ama gerçekte çoğu yapay zeka şirketi ‘kâğıt üzerindeki bir devletin’ altında faaliyet gösteriyor
    • Aslında “önemli olan tek şey kazanmak” neredeyse her sektörün ortak gerçeği
      Bu yalnızca yapay zeka şirketlerine özgü bir sorun değil ama bu yüzden meşru da sayılamaz
    • Sonuçta her şey paraysa, ben de cüzdanımla oy vermeye karar verip Max aboneliğimi iptal ettim
    • Rekabet düzenleme olmadan başıboş bırakılırsa, sonunda başarılı olan her şirket dolandırıcılık ve zarar üretir
      Bu yüzden güvenlik, çevre ve yolsuzluk karşıtı düzenlemeler şart
  • Tipik bir yapay zeka startup döngüsü gibi görünüyor
    “İnsanlığı kurtarmak için hendek kuralım” → “açık kaynak rakipleri düzenleyelim” → “güvenlik Q3 sonuçlarına engel oluyor”

    • Sonunda bu, “güvenlikten daha önemli olan şey Pentagon bütçesi” türü bir beyana varıyor
    • Pazar hâkimi olduktan sonra, finanse ettikleri kâr amacı gütmeyen kuruluşlar üzerinden devlet düzenlemelerini yönlendirmeye çalışacaklar
    • Şaşırtıcı olan, bu değişimin çok hızlı gerçekleşmiş olması
    • Sadece yapay zekada değil, “open” kelimesini öne çıkaran başka şirketler de benzer
      Gerçekte kapalıyken “açığız” diye gaslighting yapıyorlar
    • Siyasetçiler de düzenlemeyi sever. Özellikle yanında şarap ve biftek varsa daha da çok, şeklinde alaycı bir eleştiri var
  • Eskiden Anthropic'te çalışmıştım; Jared Kaplan gibi insanlar gerçekten güvenlik araştırması ile frontier teknolojinin dengesi üzerine samimiyetle düşünen kişilerdi
    Ama bu karar hayal kırıklığı yaratıcı. ‘Responsible Scaling Policy’nin böyle durumlarda da geçerli olacak gerçek bir taahhüt olduğuna inanıyordum
    Bu taahhüt, Anthropic'i “en az riskli laboratuvar” gibi gösteriyordu ama artık bu sinyal zayıfladı
    Bundan sonra ilkelerin değil, koltuğu korumanın öncelikli olup olmayacağından endişeliyim

    • “Değerlerine göre hareket etmelerini ummak” fazla naif bir beklenti olabilir
      Yine de ortada hâlâ değerler varsa, tamamen değersiz laboratuvarlar arasında bile olsa etkide bulunmanın daha iyi olduğunu düşünüyorum
    • RSU’lardan (hisse bazlı tazminat) vazgeçmiyorsan, yöneticilerden de aynısını bekleyemezsin
      Ahlaki sorumluluğu hepimiz paylaşmalıyız
    • Taahhüt yasal olarak bağlayıcı değil ama piyasaya verilen bir sinyal olarak anlam taşıyor
      Bu sinyali kendi elleriyle geri çekmeleri, artık başka bir pazara yöneldikleri anlamına geliyor
    • Geçen yıl Anthropic ile mülakat yaptım; bana etik gösterisi gibi gelmişti
      Adaylara yapay zeka güvenliği üzerine bir deneme yazdırıyorlar ve herkes “dünyayı kurtarıyoruz” oyunu oynuyordu
      Sonunda şimdi olduğu gibi işin içine para girince kimse sesini çıkarmıyor
    • Bu tür ilkeler sonuçta ancak devlet düzeyinde korunabilir
      Çünkü şirketler yapısal olarak kâr maksimizasyonu içgüdüsünden kaçamaz
  • Bu karar, Mozilla'nın DRM'yi benimsediği ana benziyor
    Mükemmel değil ama yine de Anthropic en azından sorumluluk göstermeye çalışıyor
    OpenAI ile kıyaslandığında, en azından şimdilik hâlâ bir miktar güven veriyor

  • Haber başlığı abartılı. Bu tartışma Pentagon ile pazarlıklar hakkında değil, Anthropic'in yayımladığı Responsible Scaling Policy 3.0 ile ilgili

    • Elbette bu iki konunun tamamen alakasız olduğunu kesin biçimde söyleyemeyiz
      Hatta bu bir önleyici hamle bile olabilir
    • Hatta Pentagon meselesinden çok bu politika değişikliğinin daha önemli bir dönüşüm olduğunu düşünüyorum
  • Devlet baskısı vardı ama haberde buna hiç değinilmiyor

    • İlgili haberlere göre, Hegseth ile Anthropic CEO’su Dario Amodei’nin görüşmesi doğrulandı
    • Bu yüzden özel haberi elde etmiş olabilecekleri yönünde görüşler de var
    • Bazıları bunu rıza üretimi (Consent manufacturing) olarak görüyor
    • Haberde Hegseth adının bile geçmemesi eleştiriliyor
  • “Başta modeller güvenlik doğrulaması olmadan yayımlandığında kimse bir şey söylemedi…” diye başlayan yazı bir uyarı masalı gibi geliyor
    Sonunda kimse hazırlık yapmadı ve sorun patladığında artık çok geçti, diyor

    • Bu tür kolektif görmezden gelme, insan toplumunun kronik sorunlarından biri
    • Uyarılar yeterince vardı ama insanlar açgözlülük ve kısa vadeli düşünceye sıkışıp kaldı
    • HN tarzında yeniden söylersek, sonuçta hepimiz o sistemin suç ortağıydık
    • Biraz Terminator anlatısının giriş bölümü gibi geldiğini söyleyenler de var
    • Ama gerçekçi bakarsak, yapay zekanın kontrolden çıkacağı senaryo hâlâ uzakta
      Asıl sorun teknoloji değil, daha çok siyaset ve kültür alanında
  • Güvenlik taahhüdünün tam bu zamanda geri çekilmesi manidar
    Bu tür şirketler etik kodlara uyuyormuş gibi yapar ama kâr tehdit altına girince onları hemen terk eder
    Sonuçta hedef beyaz yakalı emeğin değerini düşürmek
    Acaba bu geçişi etik biçimde mi yönetecekler, yoksa serveti hissedarlara mı aktaracaklar

    • Bu zamanlama devlet baskısının bir işaret fişeği de olabilir
    • Ama orta sınıf çökerse, sonunda tüketici tabanı da yok olur
      Kendi kuyruğunu yiyen bir yılan gibi
    • “Don’t be evil” gibi sloganlar sonuçta sadece kâr için ambalajdan ibaret
      Şirketlerin özü kâr arayışıdır; bunun kendisi kötü değil ama bu ahlaki jestler ikiyüzlü hissettiriyor
  • Google'ın “Don’t be evil” sözü 15 yıl dayandı ama Anthropic'in Responsible Scaling Policysi iki buçuk yılda ortadan kalktı
    Yapay zeka idealizminin yarı ömrü giderek kısalıyor

  • Anthropic'teki değişim üzücü ama gerçekçi bakarsak, güvenlik için bile rekabette fazla geri kalmamak gerekiyor
    Şu an pragmatizme ihtiyaç var. İleride Anthropic “kötüleşebilir” ama bugün için yine de en güvenli taraf o gibi görünüyor

    • Neden Anthropic'e bu kadar güvendiği sorulanlar da vardı
      CEO’nun yapay zekanın savaş amaçlı kullanımını reddetmiş olmasını olumlu buluyorlar
    • Ama bu tür değişiklikler zaten kötüye gidişin işareti olabilir
      Çok geç olmadan tetikte olmak gerek
    • Dünyanın pragmatistler yüzünden mahvolduğunu söyleyen alaycı tepkiler de vardı