4 puan yazan GN⁺ 2025-09-21 | 2 yorum | WhatsApp'ta paylaş
  • xAI tarafından duyurulan Grok 4 Fast, mevcut Grok 4'ün eğitim kazanımlarını temel alarak maliyet verimliliği ve hızı en üst düzeye çıkaran yeni nesil bir akıl yürütme modeli
  • Bu model, 2M token bağlam penceresi, web ve X arama özellikleri ve reasoning / non-reasoning birleşik mimarisi ile gerçek zamanlı kullanım için uygun
  • Benchmark'larda Grok 4'e benzer performans sunarken ortalama %40 daha az token kullanıyor; böylece aynı performans çok daha düşük maliyetle elde edilebiliyor
  • Ayrıca araç kullanımı pekiştirmeli öğrenmesi sayesinde kod çalıştırma, web'de gezinme gibi alanlarda yüksek performans gösteriyor ve LMArena Search Arena'da 1. sıraya yerleşti

Maliyet verimli zekada ilerleme

  • Grok 4 Fast, Grok 3 Mini'den daha iyi performans gösterirken token maliyetini de önemli ölçüde azaltıyor
    • Ortalama olarak Grok 4'e kıyasla %40 daha az 'Thinking Tokens' kullanarak benzer performans elde ediyor
    • Örnek benchmark skorları (pass@1):
      • Grok 4 Fast: 85.7%, 92.0%, 93.3%, 20.0%, 80.0%
      • Rakip modellere (GPT-5 vb.) kıyasla denk veya daha iyi sonuçlar
  • GPQA, AIME, HMMT, LiveCodeBench gibi çeşitli akıl yürütme benchmark'larında Grok 4'e yakın sonuçlar veriyor
  • Grok 4 Fast'in token verimliliğindeki %40 iyileşmeyle birlikte token başına fiyat da ciddi biçimde düşürülmüş durumda
  • Aynı performans düzeyine ulaşırken fiyat Grok 4'e göre %98 azalıyor; böylece açık modeller arasında 'en iyi fiyat-zeka oranı (SOTA Price-to-Intelligence Ratio)' kaydına ulaşıyor
    • Bağımsız kuruluş Artificial Analysis Intelligence Index'in dış değerlendirmesinde güçlü sonuçlar ile doğrulandı

Yerel araç kullanımı ve SOTA arama

  • Araç kullanımı pekiştirmeli öğrenme (RL) ile eğitildiği için gerektiğinde kod çalıştırma veya web'de gezinmeyi otomatik olarak gerçekleştirebiliyor
  • Web'i ve X'i gerçek zamanlı tarayarak çok adımlı arama ve medya (görsel, video) içeriklerini de işleyebilen ajanik arama yeteneğine sahip
  • BrowseComp, SimpleQA, X Bench Deepsearch(zh) gibi çeşitli benchmark'larda Grok 4'ü aşan performans elde ediyor

Genel alan post-training sonuçları

  • LMArena'nın Search Arena sıralamasında Grok 4 Fast(menlo), Elo 1163 ile 1. sırada yer alıyor ve rakip modellere karşı 17 puan önde
  • Text Arena'da grok-4-fast (kod adı tahoe) 8. sırada; benzer sınıftaki diğer modellere (18. sıra ve altı) kıyasla açık ara daha iyi
  • Gerçek arama ve metin görevlerinde büyük modellerin ötesinde verimlilik sergiliyor

Reasoning ve non-reasoning birleşik model

  • Daha önce ayrı modeller gerektiren reasoning / non-reasoning modları tek bir mimaride birleştiriliyor
    • Yalnızca sistem prompt'u ile reasoning (derin düşünme) ve non-reasoning (hızlı yanıt) modları arasında geçiş yapılabiliyor
    • Uçtan uca gecikme süresini ve token maliyetini azaltarak gerçek zamanlı uygulamalar için uygun hale geliyor
  • xAI API'de geliştiriciler hız/derinlik dengesini ayrıntılı biçimde ayarlayabiliyor

Dağıtım ve fiyatlandırma

  • Grok 4 Fast hemen kullanılabiliyor ve OpenRouter ile Vercel AI Gateway üzerinde geçici olarak ücretsiz sunuluyor
  • xAI API'de de grok-4-fast-reasoning ve grok-4-fast-non-reasoning olmak üzere iki sürüm halinde sunuluyor; 2M token bağlam penceresi destekleniyor
  • Fiyatlandırma, giriş token'larında $0.20/1M, çıkış token'larında $0.50/1M seviyesinden başlıyor; 128k token üzeri için 2 kat ücret uygulanıyor
  • Önbelleğe alınmış giriş token'ları $0.05/1M fiyatla sunularak maliyetin düşürülmesine yardımcı oluyor

Gelecek planları

  • Kullanıcı geri bildirimleri yansıtılarak modelin sürekli geliştirilmesi planlanıyor
  • Çok modlu özellikler ve ajanik yeteneklerin güçlendirilmesi, bir sonraki güncellemenin temel hedefleri arasında
  • Model kartı ve ek ayrıntılar Grok 4 Fast model kartı (PDF) üzerinden incelenebilir

2 yorum

 
kuber 2025-09-21

gpt-oss'tan daha pahalı ve daha yavaş görünüyor; insanların bunu neden bu kadar çok kullandığını merak ediyorum..

 
GN⁺ 2025-09-21
Hacker News görüşleri
  • Musk ürünlerini para verseler bile kullanmak istemem, özellikle de bilgi filtreleme·dönüştürme·sentezleme gibi bir rol söz konusuysa daha da istemem; faydalı olabilir ama güven vermiyor ve Musk’ın daha da zenginleşmesine katkıda bulunmak istemiyorum
    • Musk’ın kendisine karşı özel bir antipatim olmasa bile, Grok’un çalışma biçimine doğrudan müdahale edip kendi ideolojisine uygun sonuçlar üretmesini sağladığını defalarca gördüm; bu şekildeyse o ürünü kullanamam diye düşünüyorum, Musk ile aynı görüşü paylaşanlar olabilir ama bir yapay zeka ürününün değeri çeşitli veri ve algoritmaları kullanarak yanıt üretmesindedir, tek tek bireylerin fikirlerini yeniden üretmesinin bir anlamı yok
    • Grok’un cevap vermeden önce Twitter’da Musk’ın görüşlerini aradığı söyleniyordu; bunun tüm Grok sürümleri için mi geçerli olduğunu yoksa yalnızca Twitter gömülü sürümde mi böyle olduğunu merak ediyorum
    • Gerçekten çok fazla alternatif var, bu yüzden Grok’u kullanmak için hiçbir sebep olmadığını düşünüyorum
    • Musk’ın, Kirk suikastıyla ilgili Fox News propagandası çıkmıyor diye Grok’a bizzat müdahale ettiği bir örnek var örnek1 ve bu tür şeyler defalarca yaşandı NYT makalesi Grok, propaganda tartışmaları olan bir teknoloji; sanki sıradan bir teknoloji hizmetiymiş gibi tartışılması bile anlamsız
  • Model adının "Fast" olmasına rağmen neden token işleme hızını açıklamadıklarını merak ediyorum; hız anlamında değil de başka bir şeyi mi ifade ediyor, yoksa çok mu değişken bilmiyorum
    • Bence fiilen sadece “grok 4 mini”; insanlar “mini” denince pek kullanmadığı için adını ‘fast’ koymuş gibiler, böylece tercih etmek için bir neden doğuyor
    • OpenRouter’a göre şu anda saniyede yaklaşık 160 token seviyesinde kaynak
    • Sanırım ‘token verimliliği’ne odaklanıp hızlı diye konumlandırıyorlar; daha az token kullanarak sonucu daha çabuk vermesi gibi
  • Grok 4, NYT Connections extended leaderboard’da üst sıralarda bağlantı
    • Yakın zamanda OpenRouter’da geri bildirim alınan Sonoma sky Alpha’nın bu model olabileceğini düşünmüştüm; ücretsiz olduğu için epey kullandım ama mevcut grok 4’ten daha kötüydü, o yüzden olmayabilir diyen bir görüş var
  • Son zamanlarda grok-code-fast-1 modelini keyifle kullanıyorum ama bu yeni üründe ondan söz edilmemesi üzücü; belki daha iyi bir sürüm gelir diye umut ediyorum, grok-code-fast-1 Gemini 2.5 Pro’dan biraz geri kalsa da iterasyon hızı açısından en iyisi
    • Biraz basit bir model olsa da benim kullanımımda somnet’ten daha iyiydi
  • Daha hızlı olup daha yavaş sürümden birçok benchmark’ta daha iyi performans göstermesini anlamıyorum; sadece benchmark sınavlarına mı sürekli çalıştırıldı diye merak ediyorum
    • Tüm benchmark’larda daha iyi değil; Grok 4 Fast, GPQA Diamond, HLE gibi yoğun şekilde olgusal bilgiye dayalı alanlarda Grok 4’ten daha zayıf, büyük(=yavaş) model bu alanlarda daha iyi oluyor; buna karşılık akıl yürütme ya da araç kullanımı odaklı benchmark’larda token geçiş yeteneği ön planda olduğu için küçük ve hızlı model de rekabetçi olabiliyor, muhtemelen eğitim verisinin kendisi belirli görevleri daha fazla öne çıkaracak şekilde ayarlanmıştır, görünen sonuçlar da sanki bu tür benchmark’ları seçip tanıtıyorlar gibi; tersine yalnızca bilgi hatırlama benchmark’larını seçip performansın düşük olduğunu vurgulayan bir ‘karşı tanıtım materyali’ de hazırlanabilir diye düşünüyorum
    • Teknik olarak çeşitli mimari değişiklikleri, daha fazla veri, RL gibi hangi yöntemleri kullandıkları farklı olabilir; son dönemde RL kullanımında açık modellere kıyasla belirgin biçimde öne geçiyorlar
    • Aslında bunlar sadece isimleri benzer iki model; Grok 4 Fast, Grok 4’ün daha hızlı sürümü gibi bir ilişki içinde değil, gpt-4 ile gpt-4o arasındaki ilişki gibi tamamen farklı
    • Grok 4 Fast büyük olasılıkla Grok 4 modelinin gerçek üretim ortamında neredeyse hiç kullanılmayan kısımlarının azaltıldığı, daha hafif ve daha odaklı hale getirilmiş bir versiyonu; bu yüzden temel mantık yapısı aynı olsa da daha belirli amaçlara odaklanıp verimliliği artırıyor
  • Bugünlerde büyük modeller benzer ölçeklerde ve benzer verilerle eğitiliyor; esas fark fiyatlandırma politikaları... grok’un ayırt edici yanı filtreleri ve korumaları çıkarması gibi görünüyor, ayrıca benchmark’ların kendisi de kolayca manipüle edilebilen kusurlu yönler taşıyor, bu ilgili sektörde çalışanların bildiği bir şey
  • Fiyatına göre benchmark performansı iyi görünüyor, gerçek kullanıcı testlerinde nasıl olacağını merak ediyorum
    • Eğer bu, daha önce OpenRouter’da önizleme olarak sunulan sonoma-dusk ise oldukça işe yarıyordu; kodu reverse engineering göreviyle test etmiştim, hız ve performans olarak gpt5-mini ile benzer ya da daha iyiydi, 110 bin~130 bin token’a kadar iyi dayanıyordu, ondan sonra ise koşullar yetersiz olsa bile yine de tamamlandığını iddia etme eğilimi vardı (ör. 400 testten xx tanesi geçti, geri kalanı sonra yapılabilir gibi)
  • Hepimiz hızlı ve doğru model istiyoruz ama gerçekten ‘doğruluğu’ da sağlayabilen bir model mi, merak ediyorum; çok doğruysa birkaç saniye daha beklemeye razıyım
    • Bunu gerçekten kesin şekilde başarmanın tek yolu araç kullanımı
  • Büyük model karşılaştırma tablosu referans bağlantısı
  • Ben şahsen özel bir frontend kullandığım için, Qwen3 coder’dan farklı olarak grok4 fast için ücretsiz API testi olmaması üzücü; iş ortaklığı yaptığı araçlar da benim ağırlıklı kullandıklarım değil