5 puan yazan GN⁺ 2025-10-16 | 2 yorum | WhatsApp'ta paylaş
  • Claude Haiku 4.5, küçük bir model olmasına rağmen Claude Sonnet 4 düzeyinde kod performansını üçte bir maliyetle ve iki kattan fazla hızla sunuyor
  • SWE-bench Verified gibi gerçek geliştirme benchmark'larında önceki nesil modelleri aşan yapay zeka kodlama verimliliği ve tepkiselliği gösteriyor
  • Sonnet 4.5 ile birlikte çok ajanlı yapılandırmalar veya karmaşık problemlerin bölünerek yürütülmesi mümkün; gerçek zamanlı işler ve düşük gecikmeli ortamlar için uygun
  • Gerçek zamanlı chatbot'lar, müşteri desteği, pair programming gibi alanlarda yüksek zeka ve hız avantajı sunuyor
  • Güvenlik değerlendirmelerine göre Anthropic modelleri arasında en yüksek hizalanma seviyesini gösterdi ve AI Safety Level 2(ASL-2) standardıyla yayımlandı
  • Milyon giriş/çıkış token başına $1/$5

Giriş

  • Claude Haiku 4.5, Anthropic'in en yeni küçük model serisi olarak, tüm kullanıcılar için performans, hız ve maliyet verimliliği dengesini hedefleyen bir model
  • Claude Sonnet 4 ile benzer kodlama yeteneği sunarken maliyeti üçte bir, hızı ise iki kattan fazla yüksek
  • Belirli görevlerde (bilgisayar kullanımı gibi) Sonnet 4'ten bile daha yüksek performans gösteriyor
  • Özellikle Claude for Chrome veya Claude Code gibi gerçek zamanlı araçlarda gecikmesiz yapay zeka destekli çalışma ortamı sağlıyor

Temel özellikler ve kullanım senaryoları

  • Gerçek zamanlı, düşük gecikmeli işler için uygun olduğundan chatbot'lar, müşteri hizmetleri, pair programming gibi alanlarda yüksek verimlilik sağlıyor
  • Claude Code kullanıcıları için çok ajanlı projeler, hızlı prototipleme gibi senaryolarda hızlı tepki süresi sunarak ideal performans veriyor
  • Şu anda Sonnet 4.5 hâlâ en üst seviye model olarak konumlansa da, Haiku 4.5 benzer performans ve yüksek maliyet verimliliği sunuyor
  • İki model birlikte de kullanılabiliyor; örneğin Sonnet 4.5 karmaşık bir problemi parçalara ayırırken, birden fazla Haiku 4.5 alt görevleri paralel olarak işleyebiliyor
  • Claude Haiku 4.5 bugünden itibaren dünya genelinde kullanılabiliyor ve geliştiriciler Claude API'de claude-haiku-4-5 adıyla doğrudan kullanabiliyor
  • Fiyatlandırma, milyon giriş/çıkış token başına $1/$5 olarak sunuluyor

Benchmark'lar ve kullanıcı değerlendirmeleri

  • Haiku 4.5, Anthropic'in piyasaya sürdüğü en güçlü modellerden biri
  • Augment, Warp, Gamma gibi çeşitli şirketler, gerçek testlerde Sonnet 4.5'e kıyasla %90'ın üzerinde kod kalitesi doğruladıklarını belirtiyor
  • Ajan tabanlı kodlama, alt ajan koordinasyonu, bilgisayar kullanımı görevleri gibi alanlarda çarpıcı ilerleme göstererek geliştirme deneyimindeki anlıklığı en üst düzeye çıkarıyor
  • Geleneksel olarak kalite, hız ve maliyet arasında ödünleşim vardı; Haiku 4.5 ise hem hız hem de maliyet verimliliğini aynı anda sağlıyor
  • Hem zeka hem de gerçek zamanlı tepki sunarak yeni yapay zeka uygulaması olanaklarının önünü açıyor
  • Daha 6 ay önce son teknoloji düzeyinde sayılan performans artık daha ucuz ve daha hızlı şekilde sunuluyor
  • Karmaşık iş akışlarını hızlı ve güvenilir biçimde işliyor, ayrıca gerçek zamanlı öz düzeltme yapabiliyor
  • Slayt metni üretimi gibi belirli komutların işlenmesinde önceki modellere kıyasla çok daha yüksek başarı oranı kaydediyor
  • GitHub Copilot gibi araçlarla birlikte kullanıldığında Sonnet 4'e benzer kod kalitesini daha hızlı sunuyor

Güvenlik değerlendirmesi

  • Çeşitli güvenlik ve hizalanma değerlendirmeleri sonuçlarına göre sorunlu davranış oranı düşük ve önceki sürüme (Claude Haiku 3.5) kıyasla hizalanma da iyileştirilmiş
  • Sonnet 4.5/Opus 4.1'den bile daha düşük hizasız davranış oranı göstererek, Anthropic'in ürettiği modeller arasında en güvenli model olarak değerlendiriliyor
  • Kimyasal, biyolojik, radyolojik ve nükleer (CBRN) riskler de çok düşük değerlendirildiği için ASL-2 standardıyla yayımlandı
  • Daha sıkı kısıtlamalar uygulanan ASL-3'e (Sonnet 4.5, Opus 4.1) kıyasla daha serbest biçimde kullanılabiliyor

Ek bilgiler

  • Claude Haiku 4.5, Claude Code ve Anthropic uygulaması gibi ortamlarda hemen kullanılabiliyor
  • Verimli işlem yapısı sayesinde kullanım limitleri içinde premium model performansı sunabiliyor
  • API, Amazon Bedrock, Google Cloud Vertex AI gibi platformlarda Haiku 3.5 ve Sonnet 4 yerine daha uygun maliyetli bir seçenek olarak tercih edilebiliyor
  • Teknik ayrıntılar ve değerlendirme sonuçları resmî system card, model tanıtım sayfası ve dokümantasyon üzerinden incelenebilir

2 yorum

 
skageektp 2025-10-16

claude code içinde /model haiku yazınca kullanılabiliyor. Sonnet'ten daha hızlı ve çıktıları da iyi olduğu için kullanması oldukça hoş.

 
GN⁺ 2025-10-16
Hacker News yorumları
  • Biraz şüpheli görünen bir bisiklete binen sevimli bir pelikan çizimini paylaşıyor bağlantı

    • Gemini Pro ilk başta SVG kodu vermeyi reddetti, ama “SVG kodunun doğru olup olmadığını kontrol etmek istediğimi” biraz daha ayrıntılı isteyince sonunda SVG kodunu döndürdü
    • Bu benchmark’ın arka planını bilmeyenler için bazı referanslar paylaşıyor
      Six months in LLMs,
      Pelikanın bisiklete binmesi etiketi açıklaması,
      Benchmark metodolojisi
    • Benchmark manipülasyonunu önlemek için “sandala binen shiitake mantarı” örneğini de paylaşıyor
      Shitaki Mushroom riding a rowboat
      Prompt: t3.chat prompt Claude 4.5 Haiku (Reasoning High): 178.98 token/sec, 1691 tokens, Time-to-First: 0.69 saniye
      Ayrıca Grok 4 Fast, pelikan+bisiklet tarzında fena değil ama diğer isteklerde zayıf kalıyor
      Grok örneği, prompt: t3.chat prompt Grok 4 Fast (Reasoning High): 171.49 token/sec, 1291 tokens, Time-to-First: 4.5 saniye
      Son olarak GPT-5 sonucu: örnek, prompt: t3.chat prompt GPT-5 (Reasoning High): 115.11 tok/sec, 4598 tokens, Time-to-First: 4.5 saniye
      Öznel olsa da Haiku’nun mantar benekleri çok etkileyici
      Ayrıca kamuya açık benchmark’lar ile gayriresmî test senaryoları arasındaki performans farkı Anthropic modellerinde en az seviyede
      Hatta Anthropic modelleri bazen açık benchmark’lardan daha iyi sonuç veriyor
      Haiku’nun Time-to-First değeri de ciddi bir avantaj
    • En ileri düzey model şirketlerinin bu tür testleri bir easter egg olarak eklememiş olması şaşırtıcı
    • Görüntü üretim modelleri okçunun kollarını çizerken hep zorlanıyor gibi görünüyor; bu yüzden göldeki yelkenliye ateşli ok atan atlı okçu gibi basit bir test promptuyla tüm modelleri karşılaştırmayı öneriyor
  • Daha çok erken testler olmasına rağmen sonuçlar oldukça etkileyici
    GPT-5’in aksine, kod değişikliklerinde gereksiz kod bölümlerini daha az içerdiği için daha isabetli değişiyor
    Bu yüzden gerçek ortamda Haiku 4.5, görünen maliyet artışına rağmen kullanım verimliliği açısından daha ucuz olabilir
    Sorun marka gücü
    Haiku 4.5, Sonnet 4 ile benzer kalitede olabilir ama küçük modellere yönelik algı ve son dönemdeki bazı performans düşüşleri nedeniyle Haiku 4.5’i Sonnet 4.5 yerine seçmek kolay olmayacak
    Haiku 3, 3.5 ve 4.5’in kabaca aynı parametre aralığında olup olmadığını merak ediyorum; keşke tüm model bilgileri şeffaf biçimde açıklansa
    Bu yüzden çoğu kişi psikolojik olarak büyük modele yöneliyor ama bence fiyat/performans açısından en etkileyici olan hâlâ GPT-5
    Referans fiyatlar:
    Haiku 3: giriş $0.25/M, çıkış $1.25/M
    Haiku 4.5: giriş $1.00/M, çıkış $5.00/M
    GPT-5: giriş $1.25/M, çıkış $10.00/M
    GPT-5-mini: giriş $0.25/M, çıkış $2.00/M
    GPT-5-nano: giriş $0.05/M, çıkış $0.40/M
    GLM-4.6: giriş $0.60/M, çıkış $2.20/M

    • Güncelleme: Haiku 4.5 yalnızca kod değişikliklerinde isabetli değil, aynı zamanda çok da hızlı
      Ortalama 220 token/sec ile benzer modellere kıyasla neredeyse 2 kat hız sunuyor
      Bu hız istikrarlı kalırsa muazzam bir değer
      Referans olarak Gemini 2.5 Flash Lite ile benzer hızda
      Groq, Cerebras gibi servisler 1000 token/sec’e kadar çıkıyor ama bunlar karşılaştırılabilir modeller değil
      Anthropic, yaptığım kişisel benchmark’larda hep açık benchmark’lardan daha iyi çıktı; bu yüzden beklentim yüksek
      Hız, performans ve fiyat böyle kalabilirse çoğu kodlama işi için Haiku 4.5 harika bir seçenek
      Sonnet’i ancak belli durumlarda kullanırım
      Geçmişte Claude modellerinde uzun zincirli işlerde (7 dakikayı aşan) performans düşüşü oluyordu; Haiku 4.5’te de böyleyse bu bir dezavantaj
      Ama henüz uzun iş testleri yapamadım
      Sorun şu ki Claude Code şu anda Haiku 4.5 ile Sonnet 4.5 kullanımını aynı şekilde sayıyor (oysa fiyat farkı çok büyük)
      Destek sayfası da güncellenmemiş destek dokümanı
      Böyle bilgilerin lansman gününde mutlaka duyurulmuş olması gerekir
      Bu tür araçlar, testler ve duyuru sistemleri, Anthropic modellerinin etkileyici performansına gölge düşürüyor
    • Haiku güncellemesini gerçekten bekliyordum; önceki sürümleri de ucuz ve akıllı oldukları için düzenli kullanıyordum
      Nihayet çıktığına göre tüm botlarıma (hayır, ajanlarıma) yükseltme uyguluyorum
    • Bence normal token kullanım ortalaması olmadan yalnızca fiyatlara bakmanın pek anlamı yok
  • Son zamanlarda model ve özellik karşılaştırmaları fazla zahmetli ve yorucu
    Her LLM ekosisteminin kısıtları farklı olduğu için sürekli gidip gelmek gerekiyor; hem Claude Code’a hem de Codex’e aylık $20 ödüyorum
    Cursor da kullanıyorum ama içeride hangi modelin çalıştığıyla ilgilenmiyorum
    Tek istediğim tutarlı ve birleşik bir araç
    Arka planda ne olduğunu düşünmek zorunda kalmadan sistemin otomatik olarak daha iyi hâle gelmesini istiyorum
    Tıpkı bir TLS sunucusu gibi, CLI/Neovim/IDE fark etmeksizin entegre olmalı

    • Tek bir yaklaşım seçsen bile, önce prompt tabanlı geliştirme deniyor, sonra bağlam odaklı, sonra ayrıntılı spesifikasyon kullanımı, şimdi de konuşma tabanlı yaklaşımın iyi olduğu söyleniyor
      Sonra da örnek odaklı yaklaşımın daha iyi olduğu söyleniyor; her yaklaşımın artıları eksileri var ama sektör genelinde standart bir uzlaşı olmadığı için iyi örnek bulmak da zor
      Eskiden biri yanıtta “bug-driven development” demişti ve aklıma yatmıştı; sonuçta hangi yöntemi kullanırsam kullanayım, bir şey ortaya çıkınca bütün bug’lara ve hatalara bakıp düzeltmekle bitiyor
    • İster CLI, ister neovim, ister IDE olsun; araç değiştirme stresi olmadan kullanılabilen entegrasyon benim için birinci öncelik
      Bu yüzden GitHub Copilot Pro+ kullanıyorum
      Yeni bir model çıkınca hemen seçilebiliyor (Claude Haiku 4.5 de geldi)
      Premium kullanım hakkımı hiç bitirmedim, çok ağır kullanıcı değilim
      CLI sürümünü denemedim ama ilgimi çekiyor
      IntelliJ eklentisi güncellenmeden önce prompt’ları VS Code’dan gönderip sonra geri dönüyordum
      Web sürümündeki Spaces de niş işler için faydalı
      Copilot’un tekil LLM’lere göre ne kadar iyi olduğunu çok bilmiyorum ama benim için istediğimde ortaya çıkması ve sessizce işini iyi yapması yeterli
    • Bir seçenek olarak OpenRouter openrouter.ai üzerindeki openrouter/auto modeli kullanılabilir; GPT-5, Gemini 2.5 Pro, Claude Sonnet 4.5 gibi çeşitli modelleri otomatik seçiyor
    • Crystal ile Codex ve Claude Code’u aynı anda çalıştırıp en iyi sonucu seçmek de mümkün
    • Ben de benzer nedenlerle OpenRouter kullanıyorum
      Bir yandan lock-in’i önlemek, öte yandan araç değiştirme zahmetini azaltmak ve lock-in olsam bile kolayca taşınabilmek için
  • Opus’un geleceğini merak ediyorum
    “Canavar” seviyesinde performans ve fiyat çizgisinde mi devam edecek, yoksa 4’ten 4.5’e geçiş daha mı yumuşak olacak, merak konusu

    • Opus 4.1 yakın zamanda çıktığına göre 4.1’den 4.5’e değişim, Sonnet 4’ten 4.5’e yükseltmeye kıyasla daha küçük olacaktır
      Tabii sürüm numaralandırmasının gerçekten anlamlı mı yoksa sadece pazarlama etkisi mi olduğu da belirsiz
    • Bana kalırsa Sonnet ve Haiku 4.5, 4 ile aynı temel modele dayanıyor; ana iyileştirme Opus tarafından üretilen verilerle fine-tuning yapılması olabilir
      Sektörü takip eden ama doğrudan model geliştirmeyen biri olarak konuşuyorum; büyük modellerle küçük modelleri fine-tune etmek sektörde yaygın bir pratik
      GPT-4 Turbo’nun orijinal GPT-4’ten çok daha hızlı ve ucuz olmasının başka açıklaması yok
      OpenAI’nin reasoning token’larını gizlemesi de rakiplerin veri öğrenmesini engellemeye yönelik bir strateji
    • Opus bir süre ortalıktan kaybolmuştu, yakın zamanda geri döndü
      Muhtemelen büyük/orta/küçük üç farklı boyutta modeli sürekli geliştiriyorlar ve çıkış zamanlamasını pazar talebi ile model yeteneklerine göre belirliyorlar
    • Haiku’dan daha küçük bir modelin adı ne olur diye merak ediyorum. Belki de "Claude Phrase"?
  • Gerçek kod dokümantasyonu gerektiren bir soruda Haiku ile Sonnet’i karşılaştırdım
    Haiku fonksiyon çıktısının kendisini uydurdu ve yanlış cevap verdi, Sonnet ise doğruyu buldu

  • Giriş $1, çıkış $5 fiyatlandırması Sonnet 4.5’e göre ucuz ama artık çok fazla küçük ve hızlı LLM var; bu yüzden büyük ölçekli ajan kodlamasında daha ucuz modeller önemli
    Sonnet hâlâ pahalı olmasına rağmen çok kullanıldığı için, kalite yeterince iyiyse Haiku da rahatlıkla popüler olabilir

    • Caching kullanıldığında giriş başına milyon token maliyeti 10 sente kadar düşüyor
      Neredeyse bütün açık kaynak düşük maliyetli modeller bu kadar etkili caching sunmuyor
      Bu gerçekten çok büyük olabilir
    • Ben profesyonel geliştiriciyim, maliyeti pek umursamıyorum
      Hız çok daha önemli; Haiku 4.5 için Sonnet 4.5’ten daha fazla ödemeye razıyım
      Cevap beklemek çok zaman kaybı
      SWE Bench’te %73’ü geçmesi benim için yeterli
    • API kullanımı açısından Claude Code daha pahalı hâle geldi (yalnızca benchmark’lara inanırsan kalitenin de arttığı söylenebilir)
    • 3.5 Haiku $0.8/$4 idi, 4.5’in $1/$5 olması biraz hayal kırıklığı yarattı Şu an OpenAI ve Gemini’nin düşük maliyetli modellerine kıyasla (GPT-5-Nano $0.05/$0.40 · Gemini 2.0 Flash Lite $0.075/$0.30) fiyat rekabeti zayıf kalıyor
  • Bildiğim kadarıyla bu, Anthropic’in ilk küçük Reasoner ürünü ve sistem kartı bilgisi de eklenmiş
    Sistem kartı PDF
    (ilgili tartışma için buraya bakılabilir)

  • Extended NYT Connections (bağlantı bulmacası benchmark’ı) içinde Haiku 4.5 20.0 puan, Haiku 3.5 10.0 puan, Sonnet 3.7 19.2 puan, Sonnet 4.0 26.6 puan, Sonnet 4.5 ise 46.1 puan alıyor

  • Serbest çalışan bir geliştirici olarak yanıt hızının 3 kat artmış olması bile tek başına yeterince değerli geliyor
    claude 4.5 yerine buna geçersem üretkenliğimin çok artacağını düşündüğüm için heyecanlıyım

  • Bu tür küçük modellerin kullanım amacı ne acaba? Hız mı? On-device geçiş için mi? API ücretlerini hafifletmek için mi? Çoğu kişi zaten Claude aboneliği kullanıyorsa pek bir kullanım alanı yokmuş gibi geliyor

    • Artık GPT-5-mini ve Haiku 4.5 de çıktığına göre, bence asıl soru “büyük modelin hangi durumlarda gerektiği” olmalı
      Bizim şirkette de karmaşık iç kod işleri dışında neredeyse her şey küçük modellerle yapılıyor
      Kullanıcıya açık ortamlar ve iş akışları (çıkarma, dönüştürme, çeviri, birleştirme, değerlendirme vb.) mini/nano modellerle gayet yürütülüyor
    • Claude Code’da küçük modeller, bağlamsallığın yüksek ve görevin net olduğu durumlarda (ayarlanabilir) Sonnet 4.5’ten otomatik devralma için kullanılıyor
      Bu, ana oturumun context window’unu koruyor ve token throughput’u artırıyor
    • Büyük modelin çağırdığı, daha özelleşmiş tool call alt modülleri yapmak için ideal
    • Kullandığım Cerebras Qwen Coder iş akışı neredeyse gerçek zamanlı hissettiriyor (3k tps), bu yüzden ajan gibi değil de doğal dilli bir shell gibi geliyor
      Plan kurup büyük modele vermeden önce hızlı yinelemeli denemeler yapılabiliyor
    • OpenRouter LLM sıralamasına bakılırsa, vibe/agentic coding’de gerçekten kullanılan modellerin çoğu “small class” içinde
      OpenRouter sıralaması bağlantısı
      Tabii Gemini 2.5 Pro da beklenenden daha üst sıralarda görünüyor