- Qwen3.5-397B-A17B, dil ve görmeyi birleştiren bir model olarak akıl yürütme, kodlama, ajan ve multimodal anlama genelinde güçlü performans gösteriyor
- GDN tabanlı doğrusal attention ile seyrek MoE birleştiren hibrit yapı sayesinde, 397 milyar parametrenin yalnızca 17 milyarı etkinleştirilerek çıkarım verimliliği ve maliyet düşüşü aynı anda sağlanıyor
- Dil ve lehçe desteği 119'dan 201'e genişletildi, küresel kullanıcı erişilebilirliği ve çok dilli işleme performansı güçlendirildi
- Alibaba Cloud Model Studio üzerinden sunulan Qwen3.5-Plus, varsayılan olarak 1 milyon token context window ve uyarlanabilir araç kullanımı desteği sunuyor
- Genişletilmiş pekiştirmeli öğrenme ortamı ve verimli altyapı tasarımıyla büyük ölçekli multimodal ajan eğitimi ve çıkarımında kararlılık ile ölçeklenebilirlik sağlanıyor
Qwen3.5 genel bakış
- Qwen3.5, görme-dil entegre bir model olarak akıl yürütme, kodlama, ajan ve multimodal anlama gibi çeşitli benchmark'larda üstün performans gösteriyor
- Model adı Qwen3.5-397B-A17B; toplam 397 milyar parametrenin yalnızca 17 milyarı etkinleştiriliyor
- Gated Delta Networks tabanlı doğrusal attention ile seyrek Mixture-of-Experts yapısının birleşimi, hız ve maliyeti optimize ediyor
- Dil desteği 119'dan 201'e genişletildi, çok dilli erişilebilirlik geliştirildi
- Qwen3.5-Plus, Alibaba Cloud Model Studio'da sunuluyor ve
- 1M context window, resmî yerleşik araçlar ve uyarlanabilir araç kullanımı özelliklerini içeriyor
Performans değerlendirmesi
- Qwen3.5, GPT5.2, Claude 4.5 Opus, Gemini-3 Pro gibi güncel modellerle karşılaştırıldığında
- dil, akıl yürütme, kodlama, ajan ve multimodal alanlarının tamamında rekabetçi skorlar elde ediyor
- Dil değerlendirmelerinde MMLU-Pro 94.9, SuperGPQA 70.4, IFBench 76.5 ile üst düzey performans sergiliyor
- Görme-dil değerlendirmelerinde MathVision 88.6, AI2D_TEST 93.9, OCRBench 93.1 gibi ölçümlerde yüksek puanlar alıyor
- Multimodal anlama ve STEM problem çözme yeteneklerinde Qwen3-VL'ye kıyasla daha iyi sonuçlar veriyor
- Pekiştirmeli öğrenme ortamının genişletilmesi sayesinde genel ajan performansı yükseldi; BFCL-V4 ve VITA-Bench gibi testlerde ortalama sıralama iyileşti
Ön eğitim (Pretraining)
- Power: Qwen3'e kıyasla daha büyük ölçekli görsel-metin token eğitimi, güçlendirilmiş çok dilli, STEM ve akıl yürütme verileri
- Qwen3.5-397B-A17B, 1T parametre sınıfı bir model olan Qwen3-Max-Base ile eşdeğer performansa ulaşıyor
- Efficiency: Qwen3-Next mimarisi temel alınarak MoE seyrekleştirme, Gated DeltaNet ve multi-token prediction uygulanıyor
- 32k/256k context'te Qwen3-Max'e kıyasla 8.6 kat / 19 kat decoding throughput sağlıyor
- Versatility: Erken metin-görme füzyonu ile doğal multimodal işleme sunuyor
- Sözlük boyutunun 250 bine çıkarılmasıyla (önceden 150 bin), encoding ve decoding verimliliği %10 ila %60 artırıldı
Altyapı ve eğitim çerçevesi
- Görme ve dil için paralel stratejileri ayıran heterojen altyapı, verimli multimodal eğitimi destekliyor
- Seyrek etkinleştirmeden yararlanarak metin, görüntü ve video karışık verilerde bile %100'e yakın işlem verimliliği elde ediliyor
- FP8 pipeline ile activation, MoE routing ve GEMM işlemlerinin hassasiyeti optimize ediliyor
- Bellek kullanımı %50 azalıyor, hız %10'dan fazla artıyor
- Asenkron pekiştirmeli öğrenme çerçevesi kurularak metin, multimodal ve çok turlu model eğitimi destekleniyor
- Uçtan uca FP8 eğitim, speculative decoding, multi-turn rollout locking gibi tekniklerle
3 ila 5 kat işlem hızı artışı ve istikrarlı ölçeklenebilirlik sağlanıyor
Kullanım ve entegrasyon
- Qwen Chat içinde Auto, Thinking ve Fast modları sunuluyor
- Auto: otomatik araç kullanımı ve uyarlanabilir düşünme
- Thinking: derin akıl yürütme
- Fast: anında yanıt
- ModelStudio API üzerinden reasoning, web search ve Code Interpreter özellikleri etkinleştirilebiliyor
enable_thinking, enable_search parametreleriyle kontrol ediliyor
- Qwen Code, OpenClaw gibi araçlarla entegre edilerek doğal dil tabanlı kodlama ve multimodal içerik üretimi destekleniyor
Demo ve uygulamalar
- Web geliştirme: Doğal dil komutlarıyla web sayfası ve UI kodu üretimi
- Visual Agent: Akıllı telefon ve PC üzerinde doğal dil tabanlı otomatik kullanım
- Visual Coding: 1 milyon token girdiyle 2 saate kadar video işleme
- Elle çizilmiş UI'dan koda dönüşüm, video özetleme gibi kullanım senaryolarını destekliyor
- Spatial Intelligence: Nesne sayma, konum ilişkileri ve mekânsal betimleme doğruluğu artırıldı
- Otonom sürüş ve robotik uygulamalar için potansiyel ortaya koyuyor
- Visual Reasoning: Bilimsel problem çözme ve görsel mantık yürütmede Qwen3-VL'ye kıyasla gelişme sağlıyor
Özet ve gelecek yönelim
- Qwen3.5, verimli hibrit yapı ve yerel multimodal akıl yürütme temelinde
genel amaçlı dijital ajanlar kurmak için zemin hazırlıyor
- Gelecekteki hedef, model ölçeklendirmeden sistem entegrasyonuna geçiş
- Kalıcı bellek, gerçek dünya arayüzleri, kendini iyileştirme ve ekonomik karar verme yeteneklerine sahip özerk ve sürekli ajan sistemleri geliştirmek
1 yorum
Hacker News yorumları
Bugünün LLM bilmecesinde “drive the car to the wash” ifadesinin seçilmiş olması ilginç
LLM tüm korpusları tükettiği için, yapılan iyileştirmenin gerçekten öğrenme mi yoksa sadece üstüne bir 'post-it notu' yapıştırmak mı olduğunu ayırt etmek zor
Doğal dilde ifade edilse de LLM'e 'şifrelenmiş' bir problem gibi görünecek bir yöntem gerekli
Örneğin basit bir LUA program üreticisi rastgele kod üretip bunu İngilizceye çevirebilir, ardından LLM'den sonucu tahmin etmesi istenir ve gerçek çalıştırma sonucu ile karşılaştırılabilir
Bu yaklaşım bir tür bilgi savaşı senaryosu gibi hissettiriyor
İlgilenenler için MXFP4 GGUFs'u Hugging Face üzerine yükledim; çalıştırma rehberi de unsloth.ai dokümanlarında toparlandı
Pelican fena değil ama iyi bir bisiklet değil — bkz. ilgili örnek
Qwen 3.5 80~110B boyutunda çıkarsa 128GB'lık bir cihaza tam uyacak gibi görünüyor. Qwen3-Next 80B ama görsel kodlayıcı yok
Sadece amiral gemisi modelin yayımlanıp küçük distill sürümlerinin olmaması üzücü. Eski Qwen'lerin farklı boyutlarda gelmesi güzeldi
Geçen yıl Ay Yeni Yılı'nda Sonnet 4.5 seviyesinde bir modelin yerelde hızlı çalışacağını hayal bile etmezdim; şimdi ise bunun 2026 M5 Max MacBook Pro'da mümkün olabileceği düşünülüyor
Qwen çok güçlü bir açık model ve özellikle görsel serisi etkileyici
AI raporunda Fennec'in (Sonnet 5) 4 Şubat'ta çıkacağı söyleniyordu ama gerçekte bu, söylentiler ile AI haber aracının halüsinasyonunun karışımından ibaretti. İlginç bir örnekti
Qwen blogunda yüklenmeme sorunu var. Reklam engelleyiciyi kapatsam da hâlâ sadece placeholder görünüyor
Bahsettikleri 15.000 RL ortamının tam olarak ne olduğunu merak ediyorum. Birkaç yüzünü anlayabilirim ama fazlasını hayal etmek zor
Bugünlerde herkes sadece benchmark skorlarına odaklanıyor ama asıl önemli olan, modelin çok adımlı araç kullanımı sırasında bağlamı koruyup koruyamadığı
Açık modellerin çoğu hâlâ bu noktada dağılıyor