- Claude Opus 4.6 ve Sonnet 4.6 artık 1 milyon tokenlık (1M) bağlam penceresini standart fiyatlandırmayla destekliyor; ek bir premium olmadan tam aralık kullanılabiliyor
- Fiyatlandırma aynı birim ücretle uygulanıyor; Opus 4.6 için $5/$25, Sonnet 4.6 için $3/$15 (girdi/çıktı bazında) ve 9K ya da 900K istekler aynı oranda ücretlendiriliyor
- Medya girdi limiti 6 kat artırıldı; artık tek seferde en fazla 600 görsel veya PDF sayfası işlenebiliyor ve Azure Foundry, Google Vertex AI gibi platformlarda da hemen kullanılabiliyor
- Claude Code'un Max, Team ve Enterprise kullanıcıları 1M bağlamı otomatik olarak kullanabiliyor; böylece oturum sıkıştırması azalıyor ve konuşma sürekliliği iyileşiyor
- Büyük kod tabanları, sözleşmeler, operasyon günlükleri gibi alanlarda karmaşık uzun dönemli bağlamı koruyarak doğruluğu ve verimliliği artıran bir özellik olarak değerlendiriliyor
1M bağlamın genel kullanıma açılmasına genel bakış
- Opus 4.6 ve Sonnet 4.6, Claude Platform üzerinde 1M bağlam penceresini standart fiyatla sunuyor
- Opus 4.6 için milyon token başına $5 (girdi) / $25 (çıktı), Sonnet 4.6 için $3 / $15
- İstek boyutuna göre farklı fiyatlandırma yok
- Uzun bağlam primi kaldırıldı ve tüm bağlam uzunluklarında aynı işlem kapasitesi korunuyor
- Medya girdi limiti 6 kat arttı: en fazla 600 görsel veya PDF sayfası destekleniyor
- Beta header gerekmiyor; 200K tokenı aşan istekler de otomatik olarak işleniyor
Claude Code entegrasyonu
- Claude Code'un Max, Team ve Enterprise planlarında Opus 4.6 kullanıldığında 1M bağlam otomatik olarak etkinleşiyor
- Oturum içi konuşma sıkıştırması (compaction) azalıyor
- Daha önce ek kullanım gerekiyordu, artık varsayılan olarak dahil
Model performansı ve doğruluk
- Opus 4.6, MRCR v2 ölçümünde %78,3 ile aynı bağlam uzunluğundaki modeller arasında en yüksek performansı gösteriyor
- 1M bağlamda da doğruluk korunuyor ve uzun metin arama performansı artıyor
- Büyük kod tabanları, sözleşmeler, uzun süreli ajan günlükleri gibi içerikler tüm bağlam korunarak işlenebiliyor
- Özetleme veya bağlam sıfırlama olmadan tüm konuşma sürdürülebiliyor
Gerçek kullanım örnekleri
- Bilimsel araştırma: Yüzlerce makale, matematiksel çerçeve ve simülasyon kodu tek seferde birleştirilip analiz edilebiliyor (Alex Wissner-Gross)
- Hukuk işleri: 100 sayfalık sözleşmenin birden çok sürümü tek bir oturumda karşılaştırılabiliyor (Bardia Pourvakil)
- Operasyonel sistem analizi: Arıza müdahalesi sırasında tüm sinyaller ve hipotezler aynı anda görülebiliyor (Mayank Agarwal)
- Yapay zeka araştırması ve kod inceleme: Büyük diff dosyaları tek seferde işlenerek kalite artırılabiliyor (Adhyyan Sekhsaria)
- Veri analizi ve hata ayıklama: Datadog, veritabanı ve kaynak kod aramalarında ayrıntılar kaybolmadan korunabiliyor (Anton Biryukov)
- Ajan verimliliğinin artırılması: Bağlam sıkıştırma olaylarında %15 azalma, uzun oturumlarda bile ilk bilgilerin korunması (Jon Bell)
Kullanılabildiği platformlar ve başlangıç yöntemi
- 1M bağlam Claude Platform, Amazon Bedrock, Google Cloud Vertex AI ve Microsoft Foundry üzerinde hemen kullanılabiliyor
- Opus 4.6 tabanlı Claude Code Max, Team ve Enterprise kullanıcılarında 1M bağlam varsayılan olarak uygulanıyor
- Ayrıntılar resmi dokümantasyon (documentation) ve fiyatlandırma (pricing) sayfalarında görülebilir
1 yorum
Hacker News yorumları
Opus 4.6 gerçekten inanılmaz düzeyde
Frontend, backend, algoritmalar; önüne hangi işi koyarsanız koyun iyi hallediyor
Bir PRD ile başlayıp adım adım plan yapıp tek tek uygularsanız, birkaç saat içinde gerçekten çalışan bir çıktı ortaya çıkıyor
İlk kez “bu benden daha zeki galiba” diye düşündüren bir yapay zeka oldu
Üstelik mevcut teknolojiyle saniyede 1k token hızında birden fazla agent’ı aynı anda çalıştırmak da mümkün
Opus 4.6 tabanlı Claude Code’a React kodu refactor ettirdim; konu useState/useEffect → useMemo dönüşümüydü
Planı harikaydı ama bazı kodlarda değişken bildirimlerini yanlış yere koyduğu için undefined referansları oluştu
Düzeltmeye çalıştığında ise bu kez yapıyı fazla büyük ölçüde değiştirmeye kalktı; sonunda elle düzeltmek zorunda kaldım
Yine de genel olarak zaman kazandırdı ama epey sinir bozucu bir deneyimdi
Ben Opus 4.6 ile bir veritabanı diff aracı test harness’i oluşturmaya çalıştım ama alakasız bir mevcut araç için testler üretti
Test kodu gerçek fonksiyonları çağırmak yerine mantığı doğrudan kendi içinde uyguladı
4 saat ve 75 dolar harcadıktan sonra ancak çalışan bir şey elde ettim ama kalite pek iyi değildi
Şirkette de Claude kullanım bütçesini artırma talimatı gelmişti ama herkes benzer şekilde zorlanıyor
Şu anda VS Studio’da kısmi düzenleme ya da debug için kullanmak çok daha verimli
Arazi profiline su dolmasıyla tortu birikimini hesaplayan bir problemdi; Opus üç farklı çelişkili açıklamayı durmadan tekrar etti
Üç denemede de aynı döngüye girdiği için sonunda brute force yaklaşımını zorla uygulatıp çözdüm
Bir insan olsa ikinci denemede böyle bir döngüye girmezdi diye düşünüyorum
Sadece verilen talimatları izlemiyor, istenmemiş iyileştirme fikirlerini de kendiliğinden öneriyor
Bu güncellemenin asıl noktası, 1M token pencerenin tamamında standart ücretlendirme uygulanması ve 600 görsel/PDF sayfası desteği
Claude Code kullanıcıları için büyük bir değişiklik
Benim deneyimimde, Dex Horthy’nin araştırmasında olduğu gibi bunu %40’ın altında tutmak (yaklaşık 80k token) daha istikrarlıydı
Bu arada “No vibes allowed” videosu burada
700k token’a kadar iyiydi ama onun üstünde yavaş yavaş köreliyor gibi hissettirdi
Tam otomasyondan ziyade pair programming modu olarak kullanmak daha güvenilir
800k input, 100k’nın 8 katı maliyet demek; bu yüzden cache tutmazsa API faturası patlayabilir
Sohbet sırasında bağlamı sık sık unutuyor
Sadece kodu doğrudan yazmanın daha iyi olduğu görüşü paylaşıldı
Kariyerim Python’dan C/C++’a kaydı
Opus, Python’da bazen benden daha iyi olabilir, ama embedded tarafta hâlâ junior seviyesinde
Sonuçta bunun eğitim verisinin kalitesi meselesi olduğunu düşünüyorum
Bu yüzden LLM’lerin donanım mühendislerinin yerini alması yakın zamanda olacak gibi görünmüyor
AI’nin ürettiği koddaki thrashing sorununu önlemek için CI kontrolleri oluşturdum
Agent, test başarısızlıklarını tekrar tekrar düzeltmeye çalışırken sık sık hayali import’lar ya da deprecated API’ler ekliyordu
Bu yüzden her PR’da hafif bir tarama çalıştırıp var olmayan npm paketlerini ya da bağlamdan kopmaları yakalıyorum
Klasik statik analiz araçları sadece sözdizimine bakıyor ama AI kodu çoğu zaman anlamsal olarak hatalı oluyor
İleride bu tür alan bilgisine dayalı doğrulama zorunlu hâle gelecek diye düşünüyorum
100k token civarında performansın neden düştüğünü soran bir yorum vardı
Gerçekte kullanılabilir bağlamın daha küçük olduğu görüşü yaygın
Muhtemelen eski deneyimlerin bıraktığı bir algı olabilir
90k token kullanınca 100k ya da 1M fark etmeksizin benzer şekilde kötüleşiyor
Büyük kod tabanlarında asıl kritik nokta prompt kalitesi
1M token işlemek adına çeşitli yaklaşık yöntemler kullanmak gerekiyor ve performans düşüşünün nedeni bu olabilir
Claude Code 2.1.75’te varsayılan Opus ile 1M Opus ayrımı ortadan kalktı
Pro planda da öyle görünüyor ama gerçekte hâlâ sınırlar var
Muhtemelen Anthropic’in GPT 5.4’ün 1M pencere rekabetine yanıt verme stratejisi bu
Claude’un fiyatlandırma politikası tuhaf
5X planı, önceki planın tam 5 katı fiyatlandırılmış
Normalde toplu alımda indirim olur, burada yok
Hatta muhtemelen bir kişinin 5 kat kullanmasındansa 5 kişinin paylaşıp kullanmasını daha mantıklı buluyorlar
Bugün denedim; gerçekten ilginç bir değişiklik
Birden çok alt agent paralel oturumunu tek bir master oturuma sığdırmak mümkün hâle geldi
Opus 1M’in GPT 5.4’ün 256k seviyesiyle benzer olduğu söyleniyor ama kalite kaybı neredeyse yok
Yine de q4 ’25 modelindeki kadar sert bir düşüş yaşamıyor
Muhtemelen token tasarrufu yapmadan daha agresif kullanabildiği için
Şirketin sadece GitHub Copilot desteklediği söylendi
Uzun oturumların token bütçesini hızla tüketip tüketmediğini soran bir yorum vardı
Çünkü sohbet uzadıkça önceki bağlam sürekli yeniden gönderiliyor
Tool call sık olursa dakikada birden fazla kez ücret yansıyabilir
En fazla 900k token’a kadar cache yapılabiliyor