4 puan yazan GN⁺ 2026-02-05 | 1 yorum | WhatsApp'ta paylaş
  • GPT-5.2 ve GPT-5.2-Codex modellerinin işlem hızı önceye kıyasla %40 artırıldı
  • Tüm API kullanıcıları için çıkarım yığını optimize edildi
  • Aynı model ve aynı ağırlıklar korunurken, daha düşük gecikme süresi sağlandı

1 yorum

 
GN⁺ 2026-02-05
Hacker News yorumları
  • OpenAI son bir ayda Codex kullanıcıları için birkaç özellik yayınladı

    • subagents desteği
    • geliştirilmiş multi-agent arayüzü (Codex app)
    • %40 daha hızlı çıkarım hızı
      İlk iki özellik bile tek başına üretkenliği 3 kat artırmış gibi hissettiriyor. Bu güncellemeyi gerçekten dört gözle bekliyorum
    • subagents'in nasıl çalıştığını merak ediyorum
    • bu yalnızca API'ye özel bir özellik
    • Claude'u kullanınca performans x² seviyesinde artıyor. OpenAI de muhtemelen tetikte
  • Hafta sonu aynı prompt'u GPT-5.2, Gemini 3, Grok üzerinde çalıştırdım
    Gemini 3 ve Grok 'thinking mode'da 2 dakika içinde bitirdi, ama GPT-5.2 6 dakika boyunca yerinde saydı

  • Kısa süre önce roon, çalışan hesaplarının normal kullanıcılardan çok daha hızlı olduğunu fark ettiğini söyledi
    Bu yüzden dahili API çağrılarını normal kullanıcılara kıyasla daha verimli çalıştırabildiklerini anladığını söyledi
    Sonuç olarak normal kullanıcılar yalnızca kalan kapasiteden pay alıyor gibi görünüyor
    İlgili yazı: Choose Your Fighter (The Zvi)

  • Bence OpenAI'nin modeli yayınladıktan sonra kaliteyi kasıtlı olarak düşürme alışkanlığı var
    ChatGPT 5.2'nin web sürümü başlangıçta çok daha iyiydi, ama 1-2 hafta sonra kalite birden düştü
    Bu, basını ve benchmark'ları kandırmaya yönelik bir strateji gibi görünüyordu
    Hızı artırmak için sadece çıkarım yoğunluğunu azaltmak yeterli olduğundan, %40 iyileşme iddiasına da inanmak zor
    ChatGPT Plus kullanıcılarına başta Pro modeli verip sonra Standard'a geçirme gibi bir 'kurnazlık' da olabilir

    • şüpheci bakışı anlıyorum ama biz böyle bir aldatmaca yapmıyoruz
      Model kalitesini tutarlı tutuyoruz ve performans düşüşü bildirimleri gelirse hemen inceliyoruz
      Bu hız artışı, token başına işlem süresindeki iyileşmeden geliyor; model kalitesi ve ağırlıkları aynı kaldı
    • bunu yapan yalnızca OpenAI değil. Anthropic'te de benzer örnekler var
      Bakınız: Claude Code Tracker (MarginLab)
    • Codex için günlük benchmark sitesi olsa iyi olurdu
    • benchmark'ı kendin yeniden çalıştırabilirsin
  • İlginç olan, Cerebras'ta çıkarım maliyeti çok daha yüksek olmasına rağmen fiyatın aynı kalması

    • ama bunun Cerebras olması pek olası değil
      Eğer Cerebras olsaydı modelin davranışı değişir ve hız muhtemelen 10 kat kadar artardı
      Büyük olasılıkla Blackwell serisi için optimize edilmiş yeni kernel'lar yazdılar
    • neredeyse kesin olarak Cerebras üzerinde çalışmıyor
  • Hız her zaman en büyük şikayetimdi; bu iyileştirmeyle tekrar denemeyi düşünebilirim

  • Bu hız artışını nasıl sağladıklarını merak ediyorum

  • Reddit'te de kalitenin düştüğüne dair çok sayıda gönderi var

    • ama Reddit'te her gün böyle gönderiler oluyor
      Claude subreddit'lerinde de aynı durum var ve güvenilir kanıt neredeyse hiç yok