- Claude Haiku 4.5, küçük bir model olmasına rağmen Claude Sonnet 4 düzeyinde kod performansını üçte bir maliyetle ve iki kattan fazla hızla sunuyor
- SWE-bench Verified gibi gerçek geliştirme benchmark'larında önceki nesil modelleri aşan yapay zeka kodlama verimliliği ve tepkiselliği gösteriyor
- Sonnet 4.5 ile birlikte çok ajanlı yapılandırmalar veya karmaşık problemlerin bölünerek yürütülmesi mümkün; gerçek zamanlı işler ve düşük gecikmeli ortamlar için uygun
- Gerçek zamanlı chatbot'lar, müşteri desteği, pair programming gibi alanlarda yüksek zeka ve hız avantajı sunuyor
- Güvenlik değerlendirmelerine göre Anthropic modelleri arasında en yüksek hizalanma seviyesini gösterdi ve AI Safety Level 2(ASL-2) standardıyla yayımlandı
- Milyon giriş/çıkış token başına $1/$5
Giriş
- Claude Haiku 4.5, Anthropic'in en yeni küçük model serisi olarak, tüm kullanıcılar için performans, hız ve maliyet verimliliği dengesini hedefleyen bir model
- Claude Sonnet 4 ile benzer kodlama yeteneği sunarken maliyeti üçte bir, hızı ise iki kattan fazla yüksek
- Belirli görevlerde (bilgisayar kullanımı gibi) Sonnet 4'ten bile daha yüksek performans gösteriyor
- Özellikle Claude for Chrome veya Claude Code gibi gerçek zamanlı araçlarda gecikmesiz yapay zeka destekli çalışma ortamı sağlıyor
Temel özellikler ve kullanım senaryoları
- Gerçek zamanlı, düşük gecikmeli işler için uygun olduğundan chatbot'lar, müşteri hizmetleri, pair programming gibi alanlarda yüksek verimlilik sağlıyor
- Claude Code kullanıcıları için çok ajanlı projeler, hızlı prototipleme gibi senaryolarda hızlı tepki süresi sunarak ideal performans veriyor
- Şu anda Sonnet 4.5 hâlâ en üst seviye model olarak konumlansa da, Haiku 4.5 benzer performans ve yüksek maliyet verimliliği sunuyor
- İki model birlikte de kullanılabiliyor; örneğin Sonnet 4.5 karmaşık bir problemi parçalara ayırırken, birden fazla Haiku 4.5 alt görevleri paralel olarak işleyebiliyor
- Claude Haiku 4.5 bugünden itibaren dünya genelinde kullanılabiliyor ve geliştiriciler Claude API'de
claude-haiku-4-5 adıyla doğrudan kullanabiliyor
- Fiyatlandırma, milyon giriş/çıkış token başına $1/$5 olarak sunuluyor
Benchmark'lar ve kullanıcı değerlendirmeleri
- Haiku 4.5, Anthropic'in piyasaya sürdüğü en güçlü modellerden biri
- Augment, Warp, Gamma gibi çeşitli şirketler, gerçek testlerde Sonnet 4.5'e kıyasla %90'ın üzerinde kod kalitesi doğruladıklarını belirtiyor
- Ajan tabanlı kodlama, alt ajan koordinasyonu, bilgisayar kullanımı görevleri gibi alanlarda çarpıcı ilerleme göstererek geliştirme deneyimindeki anlıklığı en üst düzeye çıkarıyor
- Geleneksel olarak kalite, hız ve maliyet arasında ödünleşim vardı; Haiku 4.5 ise hem hız hem de maliyet verimliliğini aynı anda sağlıyor
- Hem zeka hem de gerçek zamanlı tepki sunarak yeni yapay zeka uygulaması olanaklarının önünü açıyor
- Daha 6 ay önce son teknoloji düzeyinde sayılan performans artık daha ucuz ve daha hızlı şekilde sunuluyor
- Karmaşık iş akışlarını hızlı ve güvenilir biçimde işliyor, ayrıca gerçek zamanlı öz düzeltme yapabiliyor
- Slayt metni üretimi gibi belirli komutların işlenmesinde önceki modellere kıyasla çok daha yüksek başarı oranı kaydediyor
- GitHub Copilot gibi araçlarla birlikte kullanıldığında Sonnet 4'e benzer kod kalitesini daha hızlı sunuyor
Güvenlik değerlendirmesi
- Çeşitli güvenlik ve hizalanma değerlendirmeleri sonuçlarına göre sorunlu davranış oranı düşük ve önceki sürüme (Claude Haiku 3.5) kıyasla hizalanma da iyileştirilmiş
- Sonnet 4.5/Opus 4.1'den bile daha düşük hizasız davranış oranı göstererek, Anthropic'in ürettiği modeller arasında en güvenli model olarak değerlendiriliyor
- Kimyasal, biyolojik, radyolojik ve nükleer (CBRN) riskler de çok düşük değerlendirildiği için ASL-2 standardıyla yayımlandı
- Daha sıkı kısıtlamalar uygulanan ASL-3'e (Sonnet 4.5, Opus 4.1) kıyasla daha serbest biçimde kullanılabiliyor
Ek bilgiler
- Claude Haiku 4.5, Claude Code ve Anthropic uygulaması gibi ortamlarda hemen kullanılabiliyor
- Verimli işlem yapısı sayesinde kullanım limitleri içinde premium model performansı sunabiliyor
- API, Amazon Bedrock, Google Cloud Vertex AI gibi platformlarda Haiku 3.5 ve Sonnet 4 yerine daha uygun maliyetli bir seçenek olarak tercih edilebiliyor
- Teknik ayrıntılar ve değerlendirme sonuçları resmî system card, model tanıtım sayfası ve dokümantasyon üzerinden incelenebilir
2 yorum
claude codeiçinde/model haikuyazınca kullanılabiliyor. Sonnet'ten daha hızlı ve çıktıları da iyi olduğu için kullanması oldukça hoş.Hacker News yorumları
Biraz şüpheli görünen bir bisiklete binen sevimli bir pelikan çizimini paylaşıyor bağlantı
Six months in LLMs,
Pelikanın bisiklete binmesi etiketi açıklaması,
Benchmark metodolojisi
Shitaki Mushroom riding a rowboat
Prompt: t3.chat prompt Claude 4.5 Haiku (Reasoning High): 178.98 token/sec, 1691 tokens, Time-to-First: 0.69 saniye
Ayrıca Grok 4 Fast, pelikan+bisiklet tarzında fena değil ama diğer isteklerde zayıf kalıyor
Grok örneği, prompt: t3.chat prompt Grok 4 Fast (Reasoning High): 171.49 token/sec, 1291 tokens, Time-to-First: 4.5 saniye
Son olarak GPT-5 sonucu: örnek, prompt: t3.chat prompt GPT-5 (Reasoning High): 115.11 tok/sec, 4598 tokens, Time-to-First: 4.5 saniye
Öznel olsa da Haiku’nun mantar benekleri çok etkileyici
Ayrıca kamuya açık benchmark’lar ile gayriresmî test senaryoları arasındaki performans farkı Anthropic modellerinde en az seviyede
Hatta Anthropic modelleri bazen açık benchmark’lardan daha iyi sonuç veriyor
Haiku’nun Time-to-First değeri de ciddi bir avantaj
Daha çok erken testler olmasına rağmen sonuçlar oldukça etkileyici
GPT-5’in aksine, kod değişikliklerinde gereksiz kod bölümlerini daha az içerdiği için daha isabetli değişiyor
Bu yüzden gerçek ortamda Haiku 4.5, görünen maliyet artışına rağmen kullanım verimliliği açısından daha ucuz olabilir
Sorun marka gücü
Haiku 4.5, Sonnet 4 ile benzer kalitede olabilir ama küçük modellere yönelik algı ve son dönemdeki bazı performans düşüşleri nedeniyle Haiku 4.5’i Sonnet 4.5 yerine seçmek kolay olmayacak
Haiku 3, 3.5 ve 4.5’in kabaca aynı parametre aralığında olup olmadığını merak ediyorum; keşke tüm model bilgileri şeffaf biçimde açıklansa
Bu yüzden çoğu kişi psikolojik olarak büyük modele yöneliyor ama bence fiyat/performans açısından en etkileyici olan hâlâ GPT-5
Referans fiyatlar:
Haiku 3: giriş $0.25/M, çıkış $1.25/M
Haiku 4.5: giriş $1.00/M, çıkış $5.00/M
GPT-5: giriş $1.25/M, çıkış $10.00/M
GPT-5-mini: giriş $0.25/M, çıkış $2.00/M
GPT-5-nano: giriş $0.05/M, çıkış $0.40/M
GLM-4.6: giriş $0.60/M, çıkış $2.20/M
Ortalama 220 token/sec ile benzer modellere kıyasla neredeyse 2 kat hız sunuyor
Bu hız istikrarlı kalırsa muazzam bir değer
Referans olarak Gemini 2.5 Flash Lite ile benzer hızda
Groq, Cerebras gibi servisler 1000 token/sec’e kadar çıkıyor ama bunlar karşılaştırılabilir modeller değil
Anthropic, yaptığım kişisel benchmark’larda hep açık benchmark’lardan daha iyi çıktı; bu yüzden beklentim yüksek
Hız, performans ve fiyat böyle kalabilirse çoğu kodlama işi için Haiku 4.5 harika bir seçenek
Sonnet’i ancak belli durumlarda kullanırım
Geçmişte Claude modellerinde uzun zincirli işlerde (7 dakikayı aşan) performans düşüşü oluyordu; Haiku 4.5’te de böyleyse bu bir dezavantaj
Ama henüz uzun iş testleri yapamadım
Sorun şu ki Claude Code şu anda Haiku 4.5 ile Sonnet 4.5 kullanımını aynı şekilde sayıyor (oysa fiyat farkı çok büyük)
Destek sayfası da güncellenmemiş destek dokümanı
Böyle bilgilerin lansman gününde mutlaka duyurulmuş olması gerekir
Bu tür araçlar, testler ve duyuru sistemleri, Anthropic modellerinin etkileyici performansına gölge düşürüyor
Nihayet çıktığına göre tüm botlarıma (hayır, ajanlarıma) yükseltme uyguluyorum
Son zamanlarda model ve özellik karşılaştırmaları fazla zahmetli ve yorucu
Her LLM ekosisteminin kısıtları farklı olduğu için sürekli gidip gelmek gerekiyor; hem Claude Code’a hem de Codex’e aylık $20 ödüyorum
Cursor da kullanıyorum ama içeride hangi modelin çalıştığıyla ilgilenmiyorum
Tek istediğim tutarlı ve birleşik bir araç
Arka planda ne olduğunu düşünmek zorunda kalmadan sistemin otomatik olarak daha iyi hâle gelmesini istiyorum
Tıpkı bir TLS sunucusu gibi, CLI/Neovim/IDE fark etmeksizin entegre olmalı
Sonra da örnek odaklı yaklaşımın daha iyi olduğu söyleniyor; her yaklaşımın artıları eksileri var ama sektör genelinde standart bir uzlaşı olmadığı için iyi örnek bulmak da zor
Eskiden biri yanıtta “bug-driven development” demişti ve aklıma yatmıştı; sonuçta hangi yöntemi kullanırsam kullanayım, bir şey ortaya çıkınca bütün bug’lara ve hatalara bakıp düzeltmekle bitiyor
Bu yüzden GitHub Copilot Pro+ kullanıyorum
Yeni bir model çıkınca hemen seçilebiliyor (Claude Haiku 4.5 de geldi)
Premium kullanım hakkımı hiç bitirmedim, çok ağır kullanıcı değilim
CLI sürümünü denemedim ama ilgimi çekiyor
IntelliJ eklentisi güncellenmeden önce prompt’ları VS Code’dan gönderip sonra geri dönüyordum
Web sürümündeki
Spacesde niş işler için faydalıCopilot’un tekil LLM’lere göre ne kadar iyi olduğunu çok bilmiyorum ama benim için istediğimde ortaya çıkması ve sessizce işini iyi yapması yeterli
Bir yandan lock-in’i önlemek, öte yandan araç değiştirme zahmetini azaltmak ve lock-in olsam bile kolayca taşınabilmek için
Opus’un geleceğini merak ediyorum
“Canavar” seviyesinde performans ve fiyat çizgisinde mi devam edecek, yoksa 4’ten 4.5’e geçiş daha mı yumuşak olacak, merak konusu
Tabii sürüm numaralandırmasının gerçekten anlamlı mı yoksa sadece pazarlama etkisi mi olduğu da belirsiz
Sektörü takip eden ama doğrudan model geliştirmeyen biri olarak konuşuyorum; büyük modellerle küçük modelleri fine-tune etmek sektörde yaygın bir pratik
GPT-4 Turbo’nun orijinal GPT-4’ten çok daha hızlı ve ucuz olmasının başka açıklaması yok
OpenAI’nin reasoning token’larını gizlemesi de rakiplerin veri öğrenmesini engellemeye yönelik bir strateji
Muhtemelen büyük/orta/küçük üç farklı boyutta modeli sürekli geliştiriyorlar ve çıkış zamanlamasını pazar talebi ile model yeteneklerine göre belirliyorlar
Gerçek kod dokümantasyonu gerektiren bir soruda Haiku ile Sonnet’i karşılaştırdım
Haiku fonksiyon çıktısının kendisini uydurdu ve yanlış cevap verdi, Sonnet ise doğruyu buldu
Sonnet sonucu: bağlantı
Giriş $1, çıkış $5 fiyatlandırması Sonnet 4.5’e göre ucuz ama artık çok fazla küçük ve hızlı LLM var; bu yüzden büyük ölçekli ajan kodlamasında daha ucuz modeller önemli
Sonnet hâlâ pahalı olmasına rağmen çok kullanıldığı için, kalite yeterince iyiyse Haiku da rahatlıkla popüler olabilir
Neredeyse bütün açık kaynak düşük maliyetli modeller bu kadar etkili caching sunmuyor
Bu gerçekten çok büyük olabilir
Hız çok daha önemli; Haiku 4.5 için Sonnet 4.5’ten daha fazla ödemeye razıyım
Cevap beklemek çok zaman kaybı
SWE Bench’te %73’ü geçmesi benim için yeterli
Bildiğim kadarıyla bu, Anthropic’in ilk küçük Reasoner ürünü ve sistem kartı bilgisi de eklenmiş
Sistem kartı PDF
(ilgili tartışma için buraya bakılabilir)
Extended NYT Connections (bağlantı bulmacası benchmark’ı) içinde Haiku 4.5 20.0 puan, Haiku 3.5 10.0 puan, Sonnet 3.7 19.2 puan, Sonnet 4.0 26.6 puan, Sonnet 4.5 ise 46.1 puan alıyor
Serbest çalışan bir geliştirici olarak yanıt hızının 3 kat artmış olması bile tek başına yeterince değerli geliyor
claude 4.5 yerine buna geçersem üretkenliğimin çok artacağını düşündüğüm için heyecanlıyım
Bu tür küçük modellerin kullanım amacı ne acaba? Hız mı? On-device geçiş için mi? API ücretlerini hafifletmek için mi? Çoğu kişi zaten Claude aboneliği kullanıyorsa pek bir kullanım alanı yokmuş gibi geliyor
Bizim şirkette de karmaşık iç kod işleri dışında neredeyse her şey küçük modellerle yapılıyor
Kullanıcıya açık ortamlar ve iş akışları (çıkarma, dönüştürme, çeviri, birleştirme, değerlendirme vb.) mini/nano modellerle gayet yürütülüyor
Bu, ana oturumun context window’unu koruyor ve token throughput’u artırıyor
Plan kurup büyük modele vermeden önce hızlı yinelemeli denemeler yapılabiliyor
OpenRouter sıralaması bağlantısı
Tabii Gemini 2.5 Pro da beklenenden daha üst sıralarda görünüyor