1 puan yazan GN⁺ 2026-03-14 | 1 yorum | WhatsApp'ta paylaş
  • Claude Opus 4.6 ve Sonnet 4.6 artık 1 milyon tokenlık (1M) bağlam penceresini standart fiyatlandırmayla destekliyor; ek bir premium olmadan tam aralık kullanılabiliyor
  • Fiyatlandırma aynı birim ücretle uygulanıyor; Opus 4.6 için $5/$25, Sonnet 4.6 için $3/$15 (girdi/çıktı bazında) ve 9K ya da 900K istekler aynı oranda ücretlendiriliyor
  • Medya girdi limiti 6 kat artırıldı; artık tek seferde en fazla 600 görsel veya PDF sayfası işlenebiliyor ve Azure Foundry, Google Vertex AI gibi platformlarda da hemen kullanılabiliyor
  • Claude Code'un Max, Team ve Enterprise kullanıcıları 1M bağlamı otomatik olarak kullanabiliyor; böylece oturum sıkıştırması azalıyor ve konuşma sürekliliği iyileşiyor
  • Büyük kod tabanları, sözleşmeler, operasyon günlükleri gibi alanlarda karmaşık uzun dönemli bağlamı koruyarak doğruluğu ve verimliliği artıran bir özellik olarak değerlendiriliyor

1M bağlamın genel kullanıma açılmasına genel bakış

  • Opus 4.6 ve Sonnet 4.6, Claude Platform üzerinde 1M bağlam penceresini standart fiyatla sunuyor
    • Opus 4.6 için milyon token başına $5 (girdi) / $25 (çıktı), Sonnet 4.6 için $3 / $15
    • İstek boyutuna göre farklı fiyatlandırma yok
  • Uzun bağlam primi kaldırıldı ve tüm bağlam uzunluklarında aynı işlem kapasitesi korunuyor
  • Medya girdi limiti 6 kat arttı: en fazla 600 görsel veya PDF sayfası destekleniyor
  • Beta header gerekmiyor; 200K tokenı aşan istekler de otomatik olarak işleniyor

Claude Code entegrasyonu

  • Claude Code'un Max, Team ve Enterprise planlarında Opus 4.6 kullanıldığında 1M bağlam otomatik olarak etkinleşiyor
    • Oturum içi konuşma sıkıştırması (compaction) azalıyor
    • Daha önce ek kullanım gerekiyordu, artık varsayılan olarak dahil

Model performansı ve doğruluk

  • Opus 4.6, MRCR v2 ölçümünde %78,3 ile aynı bağlam uzunluğundaki modeller arasında en yüksek performansı gösteriyor
  • 1M bağlamda da doğruluk korunuyor ve uzun metin arama performansı artıyor
  • Büyük kod tabanları, sözleşmeler, uzun süreli ajan günlükleri gibi içerikler tüm bağlam korunarak işlenebiliyor
    • Özetleme veya bağlam sıfırlama olmadan tüm konuşma sürdürülebiliyor

Gerçek kullanım örnekleri

  • Bilimsel araştırma: Yüzlerce makale, matematiksel çerçeve ve simülasyon kodu tek seferde birleştirilip analiz edilebiliyor (Alex Wissner-Gross)
  • Hukuk işleri: 100 sayfalık sözleşmenin birden çok sürümü tek bir oturumda karşılaştırılabiliyor (Bardia Pourvakil)
  • Operasyonel sistem analizi: Arıza müdahalesi sırasında tüm sinyaller ve hipotezler aynı anda görülebiliyor (Mayank Agarwal)
  • Yapay zeka araştırması ve kod inceleme: Büyük diff dosyaları tek seferde işlenerek kalite artırılabiliyor (Adhyyan Sekhsaria)
  • Veri analizi ve hata ayıklama: Datadog, veritabanı ve kaynak kod aramalarında ayrıntılar kaybolmadan korunabiliyor (Anton Biryukov)
  • Ajan verimliliğinin artırılması: Bağlam sıkıştırma olaylarında %15 azalma, uzun oturumlarda bile ilk bilgilerin korunması (Jon Bell)

Kullanılabildiği platformlar ve başlangıç yöntemi

  • 1M bağlam Claude Platform, Amazon Bedrock, Google Cloud Vertex AI ve Microsoft Foundry üzerinde hemen kullanılabiliyor
  • Opus 4.6 tabanlı Claude Code Max, Team ve Enterprise kullanıcılarında 1M bağlam varsayılan olarak uygulanıyor
  • Ayrıntılar resmi dokümantasyon (documentation) ve fiyatlandırma (pricing) sayfalarında görülebilir

1 yorum

 
GN⁺ 2026-03-14
Hacker News yorumları
  • Opus 4.6 gerçekten inanılmaz düzeyde
    Frontend, backend, algoritmalar; önüne hangi işi koyarsanız koyun iyi hallediyor
    Bir PRD ile başlayıp adım adım plan yapıp tek tek uygularsanız, birkaç saat içinde gerçekten çalışan bir çıktı ortaya çıkıyor
    İlk kez “bu benden daha zeki galiba” diye düşündüren bir yapay zeka oldu
    Üstelik mevcut teknolojiyle saniyede 1k token hızında birden fazla agent’ı aynı anda çalıştırmak da mümkün

    • Ben de böyle bir deneyim yaşamak isterdim
      Opus 4.6 tabanlı Claude Code’a React kodu refactor ettirdim; konu useState/useEffect → useMemo dönüşümüydü
      Planı harikaydı ama bazı kodlarda değişken bildirimlerini yanlış yere koyduğu için undefined referansları oluştu
      Düzeltmeye çalıştığında ise bu kez yapıyı fazla büyük ölçüde değiştirmeye kalktı; sonunda elle düzeltmek zorunda kaldım
      Yine de genel olarak zaman kazandırdı ama epey sinir bozucu bir deneyimdi
    • Ne yaptığını merak ettim
      Ben Opus 4.6 ile bir veritabanı diff aracı test harness’i oluşturmaya çalıştım ama alakasız bir mevcut araç için testler üretti
      Test kodu gerçek fonksiyonları çağırmak yerine mantığı doğrudan kendi içinde uyguladı
      4 saat ve 75 dolar harcadıktan sonra ancak çalışan bir şey elde ettim ama kalite pek iyi değildi
      Şirkette de Claude kullanım bütçesini artırma talimatı gelmişti ama herkes benzer şekilde zorlanıyor
      Şu anda VS Studio’da kısmi düzenleme ya da debug için kullanmak çok daha verimli
    • Bir kez AI loop içine düştüm
      Arazi profiline su dolmasıyla tortu birikimini hesaplayan bir problemdi; Opus üç farklı çelişkili açıklamayı durmadan tekrar etti
      Üç denemede de aynı döngüye girdiği için sonunda brute force yaklaşımını zorla uygulatıp çözdüm
      Bir insan olsa ikinci denemede böyle bir döngüye girmezdi diye düşünüyorum
    • Bana göre Opus 4.6 zaten AGI seviyesinde
      Sadece verilen talimatları izlemiyor, istenmemiş iyileştirme fikirlerini de kendiliğinden öneriyor
  • Bu güncellemenin asıl noktası, 1M token pencerenin tamamında standart ücretlendirme uygulanması ve 600 görsel/PDF sayfası desteği
    Claude Code kullanıcıları için büyük bir değişiklik

    • 1M pencereyi tamamen doldurarak kullanmanın gerçekten faydalı olup olmadığından emin değilim
      Benim deneyimimde, Dex Horthy’nin araştırmasında olduğu gibi bunu %40’ın altında tutmak (yaklaşık 80k token) daha istikrarlıydı
      Bu arada “No vibes allowed” videosu burada
    • Şirkette 1M pencereyi gerçek işlerde kullanıyoruz
      700k token’a kadar iyiydi ama onun üstünde yavaş yavaş köreliyor gibi hissettirdi
      Tam otomasyondan ziyade pair programming modu olarak kullanmak daha güvenilir
    • Bağlam büyüdükçe giriş token maliyeti de artıyor
      800k input, 100k’nın 8 katı maliyet demek; bu yüzden cache tutmazsa API faturası patlayabilir
    • “O zaman bir görsel 1.666 kelime mi ediyor?” diye şaka yaptı
    • Benim durumumda 1M pencerede kodlama kalitesi keskin biçimde düştü
      Sohbet sırasında bağlamı sık sık unutuyor
  • Sadece kodu doğrudan yazmanın daha iyi olduğu görüşü paylaşıldı

  • Kariyerim Python’dan C/C++’a kaydı
    Opus, Python’da bazen benden daha iyi olabilir, ama embedded tarafta hâlâ junior seviyesinde
    Sonuçta bunun eğitim verisinin kalitesi meselesi olduğunu düşünüyorum
    Bu yüzden LLM’lerin donanım mühendislerinin yerini alması yakın zamanda olacak gibi görünmüyor

  • AI’nin ürettiği koddaki thrashing sorununu önlemek için CI kontrolleri oluşturdum
    Agent, test başarısızlıklarını tekrar tekrar düzeltmeye çalışırken sık sık hayali import’lar ya da deprecated API’ler ekliyordu
    Bu yüzden her PR’da hafif bir tarama çalıştırıp var olmayan npm paketlerini ya da bağlamdan kopmaları yakalıyorum
    Klasik statik analiz araçları sadece sözdizimine bakıyor ama AI kodu çoğu zaman anlamsal olarak hatalı oluyor
    İleride bu tür alan bilgisine dayalı doğrulama zorunlu hâle gelecek diye düşünüyorum

  • 100k token civarında performansın neden düştüğünü soran bir yorum vardı
    Gerçekte kullanılabilir bağlamın daha küçük olduğu görüşü yaygın

    • Ben Opus 4.6’da böyle bir performans düşüşünü neredeyse hiç hissetmedim
      Muhtemelen eski deneyimlerin bıraktığı bir algı olabilir
    • Benim deneyimimde context rot hâlâ var
      90k token kullanınca 100k ya da 1M fark etmeksizin benzer şekilde kötüleşiyor
      Büyük kod tabanlarında asıl kritik nokta prompt kalitesi
    • Benchmark grafiğinin zaten bu sorunun cevabı olduğunu düşünüyorum
    • Transformer’lardaki attention karmaşıklığı, bağlam boyutuna göre karesel olarak arttığı için
      1M token işlemek adına çeşitli yaklaşık yöntemler kullanmak gerekiyor ve performans düşüşünün nedeni bu olabilir
  • Claude Code 2.1.75’te varsayılan Opus ile 1M Opus ayrımı ortadan kalktı
    Pro planda da öyle görünüyor ama gerçekte hâlâ sınırlar var
    Muhtemelen Anthropic’in GPT 5.4’ün 1M pencere rekabetine yanıt verme stratejisi bu

    • Max 20x’te hâlâ ayrı bir model olarak duruyor
    • Pro’da da 1M bağlam için hâlâ ek ücret alınıyor
  • Claude’un fiyatlandırma politikası tuhaf
    5X planı, önceki planın tam 5 katı fiyatlandırılmış
    Normalde toplu alımda indirim olur, burada yok

    • Anthropic’te zaten talep arzı aşıyor, bu yüzden insanları daha fazla kullanmaya teşvik etmeleri gerekmiyor
      Hatta muhtemelen bir kişinin 5 kat kullanmasındansa 5 kişinin paylaşıp kullanmasını daha mantıklı buluyorlar
    • 5X planı bir yönlendirme hamlesi; asıl amaç 20x planını satmak gibi duruyor
    • “Hacimle kapatırız herhalde” diye şaka yaptı
    • Her iki planın da sübvansiyonlu, iyi fırsatlar olduğunu düşünenler de var
  • Bugün denedim; gerçekten ilginç bir değişiklik
    Birden çok alt agent paralel oturumunu tek bir master oturuma sığdırmak mümkün hâle geldi
    Opus 1M’in GPT 5.4’ün 256k seviyesiyle benzer olduğu söyleniyor ama kalite kaybı neredeyse yok
    Yine de q4 ’25 modelindeki kadar sert bir düşüş yaşamıyor

    • Sonnet 4.5 1M’i sık kullanıyordum; performans benzerdi ama hız çok daha iyiydi
      Muhtemelen token tasarrufu yapmadan daha agresif kullanabildiği için
    • Ödemenin kişisel mi şirket tarafından mı yapıldığını soran bir yorum da vardı
      Şirketin sadece GitHub Copilot desteklediği söylendi
  • Uzun oturumların token bütçesini hızla tüketip tüketmediğini soran bir yorum vardı
    Çünkü sohbet uzadıkça önceki bağlam sürekli yeniden gönderiliyor

    • Evet. Cache kullanılsa bile 800k token, istek başına yaklaşık 0,40 dolar ediyor ve hızla birikiyor
      Tool call sık olursa dakikada birden fazla kez ücret yansıyabilir
    • Context caching iyi kullanılırsa maliyet ciddi biçimde düşürülebilir
      En fazla 900k token’a kadar cache yapılabiliyor