- Aynı Opus 4.6 modeli kullanılıyor, ancak API yapılandırması değiştirilerek gecikme en aza indiriliyor
- Hızlı yineleme, canlı hata ayıklama gibi zamana duyarlı etkileşimli işler için optimize edildi
- CLI veya VS Code uzantısında
/fast yazarak aç/kapat geçişi yapılabiliyor ya da kullanıcı ayar dosyasında "fastMode": true ile sürekli etkinleştirilebiliyor
- Etkinleştirildiğinde otomatik olarak Opus 4.6'ya geçiliyor ve durum mesajı ile
↯ simgesi gösteriliyor
- Fast Mode'da standart Opus 4.6'ya kıyasla token birim fiyatı artıyor
- 200K altı bağlamda giriş için $30/MTok, çıkış için $150/MTok uygulanıyor (standartta giriş $5, çıkış $25)
- 200K üzeri bağlamda giriş için $60/MTok, çıkış için $225/MTok uygulanıyor (standartta giriş $10, çıkış $37.5)
- 16 Şubat'a kadar %50 indirim uygulanıyor
- Fast Mode'a özel ayrı bir rate limit uygulanıyor; limit aşıldığında veya kredi tükendiğinde otomatik olarak standart moda geri düşüyor
- Fast Mode, araştırma önizlemesi olarak sunuluyor; özellikler ve fiyat değişebilir
3 yorum
Hacker News görüşleri
Hız 2,5 kat artmış ama fiyat 6 kat olmuş
Oldukça pahalı bir prim. Özellikle Gemini 3 Pro, Opus 4.6'ya kıyasla saniye başına token hızında 1,8 kat önde, fiyatı ise yaklaşık 0,45 kat seviyesinde
Ancak kodlama performansı daha düşük ve Gemini CLI'ın ajan yeteneği hâlâ Claude Code kadar iyi değil
Sonuçta büyük müşterilerin (whale) hızlı para harcamasını sağlayan ilginç bir yapı
Bir yavaş modun (slow-mode) olması güzel olurdu. Düşük maliyetli spot GPU ile işleri zamanlayıp çalıştırmayı sağlayan bir özellikten bahsediyorum
Ben sık sık öğle arasında ya da işten çıkmadan önce süreç başlatıyorum; anında çalışması gerekmiyor. Boştaki GPU'larda ucuza çalışması yeterli
Bu modda abonelik planındaki kalan kullanım değerlendirilemiyor
Hızlı mod kullanımı her zaman ayrı ücretlendiriliyor ve plana dahil token'lardan bağımsız olarak ilk token'dan itibaren ek ücret alınıyor
Şu anda 50 $'lık ücretsiz ek kullanım kampanyası var
ccusage aracında bakınca API tarafında günlük 200 $'a kadar çıkabiliyor. 6 kat ücrette 50 $ 20 dakikada eriyip gider
Bana göre bu özellik çok da faydalı olmayacak
Darboğaz model değil, LLM'in ürettiği kodu benim anlama hızım
“Fast mode'u ne zaman kullanmalı” belgesine bakınca,
gibi bir ayrım amaçlanmış görünüyor. Ama ücret yapısının makul olup olmadığı şüpheli
Fiyat/performansa önem verenler bunu paralel çalıştırmayla çözer
Benim genel iş akışım planlama aşaması ve uygulama aşaması olarak ayrılıyor
Hızlı mod en çok planlama aşamasında faydalı olabilir gibi görünüyor
Sadece “konteksti sıfırlayıp hızlı modda çalıştır” değil,
“konteksti sıfırlayıp normal hızda çalıştır” seçeneği de olmalı
Keşif odaklı ajanlar yavaş olabilir ama planı hızlı yineleyebilmek çok daha verimli olur
Normal Pro hesabı aslında fiilen yavaş mod
Ben şu anda Kimi2.5 CLI test ediyorum; hem hızlı hem de web arayüzü sunduğu için VPN ortamında uzaktan da kullanılabiliyor
Artık Hacker News'i doğrudan Claude pazarlama blogu olarak CNAME'lemek gerekebilir
Hız artışının nedenini merak ediyorum. Sadece öncelik ayarlaması ile açıklanması zor görünüyor
Yeni donanım (Groq, Cerebras vb.) olabilir. Sadece bazı bulutlarda sunuluyor olması bunu mümkün kılıyor
Gelecekte LLM sağlayıcılarının “hız vs zekâ” ayrımını fiyatlandırıp fiyatlandırmayacağını da merak ediyorum
Batch büyüdükçe paralellik artıyor ama tekil isteklerin hızı düşüyor.
SemiAnalysis InferenceMAX™ grafiği, GPU başına hacim ile token hızı arasında bir Pareto eğrisi olduğunu gösteriyor
“Claude bir C derleyicisi yaptı” yazısını görünce, Anthropic ve OpenAI gibi laboratuvarların kurum içi çıkarım hızını merak etmeye başladım
Çıkarım ne kadar hızlıysa yazılım pazarına hâkim olmak o kadar kolay olur
Anthropic 2,5 kat hız artışını açıkladıysa, içeride 5 ila 10 kat daha hızlı bir mod kullanıyor da olabilir
Ajanların birbiriyle pazarlık yaptığı bir gelecekte en hızlı hesaplama gücü kazanan olacak
Bazı sunucular, tekil istek hızını artırmak için toplam işleme kapasitesinden fedakârlık etmiş olabilir.
Büyük olasılıkla yeni nesil donanımda çalışıyordur
Gerçekte olan şey büyük ihtimalle paralelleştirme ile 2,5 kat hız artışı sağlanmış olması
"Bir sonraki görev için hangisi iyi olur?"
Tek seferde 3.46$ ek ücret alınıyor ve abonelik modeliyle karşılanmıyor gibi görünüyor.
Kısa süre önce verilen 50$ da galiba bunu deneyeyim diye verilmişti lol
Artık yapay zeka giderek sadece zenginlerin kullandığı bir şeye dönüşüyor ...