- 27 milyar parametreli dense çok modlu model olarak duyuruldu; tek bir birleşik checkpoint içinde thinking·non-thinking modlarını ve görüntü·video işlemeyi birlikte destekliyor
- Agentic coding performansı, başlıca kodlama benchmark’larının genelinde önceki nesil açık kaynak amiral gemisi Qwen3.5-397B-A17B’yi aşıyor; toplam parametre sayısı en fazla 15 kat daha büyük modellere kadar üstün geliyor
- SWE-bench Verified 77.2, SWE-bench Pro 53.5, Terminal-Bench 2.0 59.3, SkillsBench 48.2 elde etti; ayrıca GPQA Diamond 87.8, AIME26 94.1 gibi metin akıl yürütme ve STEM değerlendirme sonuçları da paylaşıldı
- Dense mimarinin benimsenmesiyle MoE routing karmaşıklığı ortadan kalkıyor ve dağıtım sadeleşiyor; open weights, API, Qwen Studio üzerinden anında kullanım yolları ile OpenClaw·Qwen Code·Claude Code entegrasyon desteği sunuluyor
- İyi eğitilmiş bir dense modelin, geliştiriciler için kritik görevlerde çok daha büyük önceki nesli geride bırakabileceğini gösteriyor; ayrıca Qwen3.6 ailesinde agentic coding’in genişlemesine de işaret ediyor
Genel bakış
- Qwen3.6-27B, 27 milyar parametreli bir dense çok modlu model olarak duyuruldu ve çok modlu thinking modu ile non-thinking modunu birlikte destekliyor
- Agentic coding performansında, önceki nesil açık kaynak amiral gemisi Qwen3.5-397B-A17B’yi başlıca kodlama benchmark’larının genelinde geride bırakıyor
- MoE routing karmaşıklığı olmayan dense mimari sayesinde dağıtım daha basit; pratik ve geniş çapta dağıtılabilir bir ölçekte üst düzey kodlama performansı sunuyor
- Qwen Studio üzerinden hemen kullanılabiliyor; topluluk için open weights ve API erişim yolu da birlikte sağlanıyor
- Temel özellikleri arasında amiral gemisi düzeyinde agentic coding, güçlü metin akıl yürütme ve çok modlu akıl yürütme yetenekleri yer alıyor
Performans
- Qwen3.6-27B için dense ve MoE referans modellere karşı kapsamlı değerlendirmeler sunuldu; agentic coding benchmark’larında büyük ilerleme kaydedildi
- Toplam parametre sayısı 15 kata kadar daha büyük modelleri bile geçtiği özellikle belirtiliyor
- Değerlendirme başlıkları dil, bilgi, STEM ve akıl yürütme, vision-language, belge anlama, video anlama ve visual agent alanlarından oluşuyor
-
Dil
- Yalnızca 27 milyar parametreyle, başlıca tüm kodlama benchmark’larında Qwen3.5-397B-A17B’yi aşıyor
- SWE-bench Verified 77.2’ye karşı 76.2
- SWE-bench Pro 53.5’e karşı 50.9
- Terminal-Bench 2.0 59.3’e karşı 52.5
- SkillsBench 48.2’ye karşı 30.0
- Benzer ölçekteki diğer dense modelleri de açık farkla geride bırakıyor
- Akıl yürütme görevlerinde GPQA Diamond 87.8 puan aldı; kendisinden birkaç kat daha büyük modellerle yarışabilecek bir seviye
- Ayrıntılı tabloda Qwen3.5-27B, Qwen3.5-397B-A17B, Gemma4-31B, Claude 4.5 Opus, Qwen3.6-35B-A3B ve Qwen3.6-27B karşılaştırmaları yer alıyor
- Coding Agent başlığındaki önemli değerler
- SWE-bench Multilingual 71.3
- QwenWebBench 1487
- NL2Repo 36.2
- Claw-Eval Avg 72.4
- Claw-Eval Pass^3 60.6
- QwenClawBench 53.4
- Knowledge başlığındaki önemli değerler
- MMLU-Pro 86.2
- MMLU-Redux 93.5
- SuperGPQA 66.0
- C-Eval 91.4
- STEM ve akıl yürütme başlığındaki önemli değerler
- HLE 24.0
- LiveCodeBench v6 83.9
- HMMT Feb 25 93.8
- HMMT Nov 25 90.7
- HMMT Feb 26 84.3
- IMOAnswerBench 80.8
- AIME26 94.1
- Yalnızca 27 milyar parametreyle, başlıca tüm kodlama benchmark’larında Qwen3.5-397B-A17B’yi aşıyor
-
Dil değerlendirme ayarları
- SWE-Bench Series, dahili agent scaffold ile bash ve file-edit araçlarını kullandı; ölçümler temp 1.0, top_p 0.95 ve 200K context window temelinde yapıldı
- Açık SWE-bench Pro setindeki sorunlu bazı görevlerin düzeltilmiş olduğu refined benchmark üzerinde tüm referans modeller değerlendirildi
- Terminal-Bench 2.0, Harbor veya Terminus-2 harness kullandı
- 3 saat timeout, 32 CPU, 48 GB RAM
- temp 1.0, top_p 0.95, top_k 20, max_tokens 80K, 256K ctx
- 5 çalıştırmanın ortalaması
- SkillsBench, OpenCode ile 78 görevi değerlendirdi
- API bağımlı görevlerin çıkarıldığı self-contained alt küme kullanıldı
- 5 çalıştırmanın ortalaması
- NL2Repo için diğer modellerin değerlendirmesi Claude Code ile yapıldı
- temp 1.0, top_p 0.95, max_turns 900
- QwenClawBench, gerçek kullanıcı dağılımına dayalı bir Claw agent benchmark’ı
- temp 0.6, 256K ctx
- QwenWebBench, dahili bir frontend kod üretim benchmark’ı
- EN ve CN olmak üzere iki dilli yapı
- Web Design, Web Apps, Games, SVG, Data Visualization, Animation ve 3D olmak üzere 7 kategori
- Kod ile görsel uyumu değerlendirmek için auto-render ve çok modlu judge kullanılıyor
- BT veya Elo rating system kullanılıyor
- AIME 26, AIME 2026 I ve II’nin tamamını kullanıyor
- Puanların Qwen 3.5 notlarındakinden farklı olabileceği belirtiliyor
- SWE-Bench Series, dahili agent scaffold ile bash ve file-edit araçlarını kullandı; ölçümler temp 1.0, top_p 0.95 ve 200K context window temelinde yapıldı
-
Vision-language
- Qwen3.6-27B, tek bir birleşik checkpoint içinde vision-language thinking ve non-thinking modlarını birlikte destekliyor
- Metinle birlikte görüntü ve video işleyebiliyor
- Çok modlu akıl yürütme, belge anlama ve görsel soru-cevap görevlerini destekliyor
- Karşılaştırma tablosu Qwen3.5-27B, Qwen3.5-397B-A17B, Gemma4-31B, Claude 4.5 Opus, Qwen3.6-35B-A3B ve Qwen3.6-27B temelinde sunuluyor
-
STEM ve bulmacalar
- MMMU 82.9
- MMMU-Pro 75.8
- MathVista mini 87.4
- DynaMath 85.6
- VlmsAreBlind 97.0
-
Genel VQA
- RealWorldQA 84.1
- MMStar 81.4
- MMBench EN-DEV-v1.1 92.3
- SimpleVQA 56.1
-
Belge anlama
- CharXiv RQ 78.4
- CC-OCR 81.2
- OCRBench 89.4
-
Mekânsal zekâ
- ERQA 62.5
- CountBench 97.8
- RefCOCO avg 92.5
- EmbSpatialBench 84.6
- RefSpatialBench 70.0
-
Video anlama
- VideoMME(w sub.) 87.7
- VideoMMMU 84.4
- MLVU 86.6
- MVBench 75.5
-
Visual Agent
- V* 94.7
- AndroidWorld 70.3
-
Not
- Tablodaki boş alanlar (--), puanın henüz bulunmadığını veya uygulanabilir olmadığını ifade ediyor
Qwen3.6-27B kullanımı
- Alibaba Cloud Model Studio desteğinin yakında sunulacağı belirtiliyor
- Hugging Face ve ModelScope üzerinden open weights sağlanıyor; self-hosting mümkün
- Alibaba Cloud Model Studio API üzerinden kullanım yolu ve Qwen Studio içinde anında deneme seçeneği sunuluyor
- OpenClaw, Claude Code, Qwen Code gibi üçüncü taraf kodlama yardımcılarıyla entegrasyon desteği var
- Geliştirme iş akışını sadeleştirme ve context-aware coding experience desteğinden söz ediliyor
-
API kullanımı
- Bu sürüm
preserve_thinkingözelliğini destekliyor - Mesajın tüm önceki turlarında üretilen thinking içeriğini koruyan bir özellik ve agentic task için önerildiği belirtiliyor
- Bu sürüm
-
Alibaba Cloud Model Studio
- OpenAI biçimiyle uyumlu chat completions ve responses API desteği sunuluyor
- Anthropic uyumlu API arayüzü de birlikte destekleniyor
- Resmî dokümantasyona göre ortam değişkeni örnekleri veriliyor
DASHSCOPE_API_KEYDASHSCOPE_BASE_URLDASHSCOPE_MODEL
- Base URL için örnek bölgeler de belirtiliyor
- Örnek kodda varsayılan model adı olarak
qwen3.6-27bkullanılıyor extra_bodyiçineenable_thinking: Trueekleniyorpreserve_thinking: Trueise yorum satırı biçiminde gösteriliyor
- Streaming yanıtta reasoning_content ile answer content’in ayrı toplanmasına dair örnek de yer alıyor
- Ek bilgi için API doc bağlantısına bakılması öneriliyor
-
Coding & Agents
- Qwen3.6-27B, agentic coding yeteneklerine sahip ve OpenClaw, Claude Code, Qwen Code ile sorunsuz biçimde entegre olabiliyor
-
OpenClaw
- OpenClaw, self-hosted açık kaynak bir AI coding agent; önceki adı Moltbot veya Clawdbot idi
- Model Studio ile bağlanarak terminalde tam agentic coding deneyimi sunuyor
- Başlangıç betiğinde Node.js 22+, kurulum betiğini çalıştırma,
DASHSCOPE_API_KEYayarlama veopenclaw dashboardveyaopenclaw tuiçalıştırma adımları yer alıyor - İlk kullanımda
~/.openclaw/openclaw.jsondosyasının düzenlenmesi gerekiyor- Tüm dosyanın üzerine yazılmaması gerektiği özellikle belirtiliyor
- Mevcut ayarları korumak için yalnızca gerekli alanların birleştirilmesi isteniyor
- Örnek yapılandırmada
modelstudiosağlayıcısı veqwen3.6-27bmodel kaydı bulunuyorapideğeriopenai-completionsreasoningdeğeri true- Girdi türleri
text,image contextWindow131072maxTokens16384- Varsayılan birincil model
modelstudio/qwen3.6-27b
-
Qwen Code
- Qwen Code, terminal için açık kaynak bir AI agent ve Qwen Series için derinlemesine optimize edilmiş bir araç
- Başlangıç betiğinde Node.js 20+,
@qwen-code/qwen-code@latestkurulumu veqwençalıştırma adımları yer alıyor - Oturum içinde
/help,/authkomutlarının kullanım örnekleri veriliyor - İlk kullanımda giriş istemi gösteriliyor;
/authile kimlik doğrulama yöntemi değiştirilebiliyor
-
Claude Code
- Qwen APIs, Anthropic API protocol desteği de sunuyor
- Claude Code gibi araçlarla birlikte kullanılabileceği belirtiliyor
- Yapılandırma örneğinde şu ortam değişkenleri yer alıyor
ANTHROPIC_MODEL="qwen3.6-27b"ANTHROPIC_SMALL_FAST_MODEL="qwen3.6-27b"ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropicANTHROPIC_AUTH_TOKEN=<your_api_key>
- Çalıştırma komutu
claude
Kapanış
- İyi eğitilmiş bir dense modelin, geliştiriciler için önemli görevlerde çok daha büyük önceki nesli geçebileceğini Qwen3.6-27B kanıtlıyor
- 27 milyar parametre ölçeğinde olmasına rağmen Qwen3.5-397B-A17B’yi başlıca agentic coding benchmark’larının tamamında aşıyor
- Dağıtımı ve servise alınması basit bir yapıya sahip; Qwen3.6 açık kaynak ailesi, Qwen3.6-27B’nin eklenmesiyle daha geniş bir model yelpazesine kavuşuyor
4 yorum
Ancak a3b olmalı ki en azından biraz yerelde çalıştırılabilsin haha
Benchmark sonuçlarının iyi olduğu söyleniyor ama gerçek kullanımda hâlâ bir kodlama ajanı olarak kullanılabilecek seviyede değil gibi görünüyor.
Kullandım; agentic coding açısından büyük bir sorun yok. Ancak dediğiniz gibi, gerçek kullanım + genel kodlama tarafında parametre sayısı daha büyük modellere kıyasla geride kalması kaçınılmaz. Ayar değerleri de 3.5'ten farklı ve
preserve_thinkingmodu da eklenmiş, bilginize. 27B yaklaşık 4bit kuantizasyon seviyesinde olduğunda yerelde kullanmakta sorun yaşamadım.Hacker News görüşleri
unsloth/Qwen3.6-27B-GGUF:Q4_K_Mmodelinillama-serverile çalıştırdım; 35B-A3B modelinde ise yaklaşık 25 t/s gördüm. Karşılaştırma için A100’de sırasıyla yaklaşık 41 t/s ve 97 t/s alıyordum. 27B’yi henüz uzun test etmedim ama 35B-A3B, context 15k~20k token’ı geçince sık sık raydan çıkıyordu. Temel işleri güvenle yaptırabiliyorsunuz ama bunu frontier model seviyesinde saymak zor bence