- Qwen3-Coder, 480B parametreli Mixture-of-Experts mimarisi, 35B aktif parametre ve 256K~1M token bağlamı desteğiyle açık modeller arasında ajan tabanlı kodlama alanında en üst düzey performansa ulaşıyor
- Code RL, uzun ufuklu RL gibi gerçek yazılım mühendisliği problemlerine optimize edilmiş büyük ölçekli pekiştirmeli öğrenme tekniklerini kullanarak çalıştırma başarı oranını ve çeşitli görev performanslarını önemli ölçüde artırıyor
- Qwen Code ve Claude Code gibi komut satırı araçları ve API'lerle entegre oluyor; Node.js ve OpenAI uyumlu API dahil çeşitli geliştirme ortamlarında doğrudan kullanılabiliyor
- Büyük ölçekli paralel ortam ve altyapı sayesinde gerçek kodlama işlerinde gereken planlama, geri bildirim, araç kullanımı gibi karmaşık etkileşimleri de işleyebiliyor
- İleride daha çeşitli model boyutları, düşük maliyetli dağıtım ve kodlama ajanlarının kendi kendini geliştirme olasılığı gibi alanlarda yeni deneyler ve gelişmeler planlanıyor
Qwen3-Coder
- Qwen3-Coder, mevcut kod üretim modelleri arasında agentic yetenekleri en fazla güçlendirilmiş açık kaynaklı yapay zeka modeli
- İlk yayımlanan amiral gemisi sürüm olan Qwen3-Coder-480B-A35B-Instruct, 480 milyar parametrenin 35 milyarını etkinleştiren bir Mixture-of-Experts mimarisi kullanıyor
- Varsayılan olarak 256K token bağlamı destekliyor ve 1M tokena kadar genişletilebiliyor
- Güçlü performansıyla Agentic Coding, Browser-Use, Tool-Use gibi başlıca benchmark'larda açık modeller arasında en üst düzey sonuçlar verdi ve Claude Sonnet 4 ile kıyaslanabilecek kod/ajan görev kalitesi sundu
- Birlikte yayımlanan Qwen Code CLI aracı, Gemini Code temel alınarak fork edildi; özel prompt'lar ve function calling protokolü uygulanarak Qwen3-Coder'ın ajan yeteneklerini en üst düzeye çıkarması sağlandı
- Qwen3-Coder, OpenAI SDK, Claude Code ve çeşitli topluluk geliştirme araçlarıyla da sorunsuz şekilde entegre olabiliyor
- Yazılım dünyasının geneline ajan tabanlı kodlamayı taşımayı hedefleyen genel amaçlı bir temel model olmayı amaçlıyor
Ön eğitim (Pre-Training)
- Büyük ölçekli token kullanımı: Toplam 7,5 trilyon tokenın (%70'i kod) kullanılmasıyla kod yeteneğinin yanında genel ve matematiksel yetenekler de dengeli biçimde güçlendirildi
- Bağlam aralığının genişletilmesi: Varsayılan 256K ve YaRN tabanlı 1M token desteği ile büyük depo ölçeğinde dinamik veriler (Pull Request vb.) bile işlenebiliyor
- Sentetik veri kalitesinin artırılması: Önceki Qwen2.5-Coder'dan alınan gürültüsü temizlenmiş ve yeniden yazılmış verilerin kullanılmasıyla genel veri kalitesi önemli ölçüde artırıldı
Son eğitim (Post-Training)
-
Kod pekiştirmeli öğrenmesinin (Code RL) ölçeklendirilmesi: çözmesi zor, doğrulaması kolay
- Kod üretim topluluğundaki rekabet odaklı yaklaşımlardan farklı olarak, tüm kod görevlerinin büyük ölçekli pekiştirmeli öğrenme (RL) tabanında çalıştırılıp doğrulandığı bir yöntem benimsendi
- Çeşitli gerçek kodlama görevleri için otomatik test case'ler genişletildi, çok sayıda pekiştirmeli öğrenme eğitim örneği üretildi ve başarı oranı en üst düzeye çıkarıldı
- Bu yaklaşımın yalnızca kod çalıştırma başarı oranını değil, diğer görevlerdeki performansı da birlikte artırdığı gösterildi
- Bundan sonra da çözmesi zor ama doğrulaması kolay yeni alanların keşfine odaklanılacak
-
Uzun ufuklu pekiştirmeli öğrenme (Long-Horizon RL)
- SWE-Bench gibi gerçek yazılım mühendisliği görevlerinde planlama, araç kullanımı, geri bildirim işleme, karar verme gibi çok turlu etkileşimler zorunlu
- Qwen3-Coder, uzun ufuklu RL (Agent RL) ile gerçek ortamda araçlarla etkileşime girip çok turlu görevleri çözebilecek şekilde eğitildi
- Alibaba Cloud altyapısıyla 20.000 bağımsız paralel ortam kurularak büyük ölçekli pekiştirmeli öğrenme ve gerçek zamanlı değerlendirme desteklendi
- SWE-Bench Verified benchmark'ında açık kaynak modeller arasında en iyi performansı elde etti
Qwen3-Coder kullanım şekli
-
Qwen Code: komut satırında ajan tabanlı kodlama
- Qwen Code, araştırma amacıyla geliştirilmiş bir CLI aracı; Gemini CLI temel alınarak Qwen-Coder'a özel parser ve araç desteği eklenmiş
- Node.js 20+ ortamı gerektiriyor ve npm üzerinden kolayca kurulup çalıştırılabiliyor
- OpenAI SDK protokolünü desteklediği için ortam değişkenleri veya .env dosyasıyla yapılandırılarak çeşitli LLM altyapılarında kullanılabiliyor
- Qwen-Code komutuyla Qwen3-Coder'ın gücünden kolayca yararlanılabiliyor
-
Claude Code entegrasyonu
- Qwen3-Coder, Claude Code ortamında da kullanılabiliyor
- Alibaba Cloud Model Studio'dan API anahtarı alınarak Claude Code ile entegre kurulum yapılabiliyor
- Proxy API ve claude-code-config paketi üzerinden farklı backend modelleri seçme ve kolay yapılandırma desteği sunuluyor
-
Cline entegrasyonu
- Cline geliştirme ortamında da Qwen3-Coder-480B-A35B-Instruct modeli yapılandırılarak kullanılabiliyor
- API Provider olarak OpenAI Compatible seçiliyor; Dashscope'tan alınan API Key ve Custom Base URL giriliyor
Kullanım örnekleri (Use Cases)
- Fizik tabanlı baca yıkım simülasyonu
- Qwen + Cline entegre kullanım örneği
- Qwen Chat tabanlı web geliştirme
- Ünlü alıntılarla yazma hızı ölçümü
- Dönen hiperküp içinde zıplayan top simülasyonu
- Güneş sistemi ortam simülasyonu
- DUET oyunu üretimi dahil çeşitli kodlama ve simülasyon örnekleri sunuluyor
API entegrasyonu
- Alibaba Cloud Model Studio üzerinden Qwen3-Coder API'si doğrudan kullanılabiliyor
- Python OpenAI SDK kullanılarak Qwen API ile diyalog tabanlı kod üretimi gösteriliyor
Gelecekteki geliştirme yönü
- Coding Agent performansını artırmak ve yazılım mühendisliğindeki karmaşık, tekrarlı görevleri devralmak için aktif araştırmalar sürdürülüyor
- Daha çeşitli model boyutları hazırlık aşamasında; aynı zamanda dağıtım maliyetlerini düşürme hedefleniyor
- Coding Agent'ın kendi kendini geliştirme olasılığı dahil, nihai olarak karmaşık ve tekrarlı yazılım mühendisliği işlerinde insan üretkenliğini en üst düzeye çıkarma hedefleniyor
1 yorum
Hacker News görüşleri
Şu anda yerelde kullanıma uygun olacak şekilde 2bit'ten 8bit'e kadar GGUF sürümleri hazırlıyorum
Bunları bir saat içinde HuggingFace Unsloth Qwen3-Coder-480B-A35B-Instruct-GGUF üzerinden sunacağım
24GB GPU ve 128~256GB RAM için çalıştırma dokümanı burada
"Recommended context: 65,536 tokens (can be increased)" yerine, resmi belgede çıktı uzunluğu için "We recommend using an output length of 65,536 tokens for most queries, which is adequate for instruct models" deniyor
Yani bu önerilen çıktı uzunluğu
Qwen3-Coder farklı boyutlarda çıkıyor ama ben en çok küçük boyutları merak ediyorum
Yerelde hafifçe çalıştırılabilen modellerin giderek daha iyi kod yazabildiğini düşünüyorum
Bir süre daha büyük modellere ihtiyaç olabilir ama kendi başına barındırmanın pratik olmadığı durumlarda açık ağırlıklı yüksek kaliteli modeller arasından seçim yapabilmek güzel
Küçük modelleri özgürce kullanıp ihtiyaç oldukça daha büyük modellere ücretli geçebilmek de iyi bir deneyim
Qwen ekibini bu sürüm için tebrik ediyorum, hemen deneyeceğim
Büyük modeller çok daha fazla bilgiye ve akıllılığa sahip oluyor
Küçük modeller gelişiyor ama büyük modeller de aynı anda gelişiyor
Bir zamanlar HN, LLM alanının teknik merkeziydi ama bugünlerde Reddit'te çok daha fazla kullanıcı doğrudan devasa modeller çalıştırıyor
Araştırıp denerseniz kendi başınıza host etmek gayet gerçekçi
"qwen-code" uygulaması gemini-cli'ın fork sürümü gibi görünüyor
QwenLM/qwen-code
Lisans
OSS CC (open source code companion) klonlarının bir gün tek bir standartta birleşmesini isterdim
Zaten sayfada açıkça "we’re also open-sourcing a command-line tool for agentic coding: Qwen Code. Forked from Gemini Code" yazıyor
Ben şu anda ağırlıklı olarak claude-code kullanıyorum ama ağır muhakeme işlerini zen mcp üzerinden openai ve gemini pro'ya veriyorum
gemini-cli da zen tarafından destekleniyor, yani onun yerine de kullanılabilir; qwen-coder gemini-cli tabanlıysa destek eklemek de muhtemelen zor olmaz
Biz zaten geçen '24 yılının sonunda RA.Aid'i yayımladık
Bu, aider'ın başlattığı yönde bir adım daha ileri giden, CLI öncelikli, gerçekten açık kaynak topluluğu odaklı bir proje
Farklı tüzel kişiliklere bağlı 5 bağımsız maintainer'ın tam commit yetkisi var (bunlardan biri benim bulunduğum Gobii'ye katıldı ve web gezinti ajanı geliştiriyor)
Cursor, Windsurf ve diğer agentic coding çözümleriyle karşılaştırıldığında da yeterince rekabetçi olduğumuzu düşünüyoruz
Belirli bir büyük şirkete ya da modele bağımlı olmayan, FOSS tabanlı bir standarda gerçekten ihtiyaç var
Claude Code'un da desteklendiğini biliyorum ama bu yapı kapalı kaynaklı ve yalnızca Anthropic API endpoint'lerini destekliyor; tam olarak nasıl çalıştığını merak ediyorum
Kendi projem Plandex'ten de bahsetmek isterim
Claude Code'dan daha önce başladı ve yalnızca birden fazla sağlayıcının (Anthropic, Google, OpenAI) model kombinasyonlarını değil, açık kaynak ve yerel modelleri de kullanabiliyor
Özellikle büyük bağlam ve çok adımlı uzun işlere odaklanıyor
plandex-ai/plandex GitHub
Repoya ajan kılavuzu olarak
QWEN.mdekleme önerisi varAma son zamanlarda takım depolarında her ajan için ayrı ayrı çoğalan Markdown dosyaları verimsiz olmaya başladı
Tüm açıklamalar aynı olduğu için model başına ayrı dosya tutmaya gerek yok
Ayrıca model bazlı sürümleri gitignore ile hariç tutuyorum
Bu değişim hızına nasıl ayak uydurmak gerektiğini merak ediyorum
2~3 yıl sonra tek bir kazanan araç ortaya çıkar mı diye düşünüyorum
O noktada herkesin tereddütsüz tek bir aracı kullanacağını hayal etmek kolay
İnsanlar ilgi duydukları alanları zaten doğal olarak takip eder
Hafta sonu Kimi K2'yi çalıştırdım, son 2 gündür de Ernie4.5-300B kullanıyorum
Bu sabah en yeni Qwen3-235b'yi indirdim, bu akşam kullanmaya başlayacağım
Bu gece de Qwen3-Coder-480B iniyor — benim internet hızımla 2~3 gün sürecek gibi
Bu bir takıntı mı?
İşe yarar görünene kadar görmezden gelebilirsiniz
Dürüst olmak gerekirse, bir prompt kutusuna metin yazmak için 3 yıllık deneyime gerek yok; o yüzden çok da dert etmeye değmez
Çok da önem vermemek mümkün
Karlılık gibi meseleler patlamadığı sürece bir noktada açık ara öne çıkan araçlar mutlaka ortaya çıkar
Neden böyle düşünüyorsunuz?
Bu alanın lider tabloları çok istikrarsız ve bu kadar oynaklığın yakında ortadan kalkacağına dair bir işaret de yok
2~3 yıl sonra da tablo benzer olabilir, sadece oyuncular biraz değişmiş olur
Qwen3-Coder-480B-A35B-Instruct'ı çalıştırmak için ne kadar donanım gerektiğini merak ediyorum
Performansı Sonnet'e yakınsa birçok Claude Code kullanıcısı yerelde çalıştırmaya ilgi duyabilir
Yerel bir örneği takım olarak birlikte kullanmanın gerçekten ekonomik olup olmayacağını da merak ediyorum
Claude Code ile entegrasyon kullanımına dair belgeler de var
X'te (Twitter) devasa kullanım faturalarını paylaşan örnekler de sık görülüyor
Şu anda derin öğrenme modeli için dinamik GGUF kuantizasyon sürümü hazırlıyorum
Yaklaşık 24GB VRAM + 128GB RAM ile 2bit dinamik olarak çalıştırılabilecek gibi görünüyor ve bir saat içinde yayımlamayı planlıyorum
Başvuru dokümanı: docs.unsloth.ai/basics/qwen3-coder
4bit sürüm, 512GB M3 Mac Studio'da yaklaşık 272GB RAM kullanıyor
İndirme bağlantısı
Gerçek çalışma videosu: X videosu
Bu makinenin fiyatı yaklaşık 10.000 dolar
Kuantize edilmemiş ve distile edilmemiş sürümle benchmark almak için muhtemelen 8 adet H200'lük bir küme gerekir
Yeni B200 daha hızlı ama çok daha pahalı
300.000 doların üzerinde tutar
İnsanlar kuantize/distile sürümleri çıkardığında benchmark sonuçlarını çoğu zaman paylaşmıyor
Yalnızca RAM için bile 500GB'tan fazlası gerekir, bağlam da hesaba katılırsa ek 100~200GB boşluk lazım
24GB GPU ile birlikte saniyede yaklaşık 10 token hız beklerim
Mutlaka aşırı büyük bir donanım gerekmiyor
RTX Pro 6000 ve 256GB RAM kombinasyonu yeterli
Cloud 4 ile rekabet eden açık ağırlıklı bir model olması ilgi çekici
MoE mimarisi sayesinde gerçekten yerelde çalıştırma ihtimali var gibi duruyor
480GB'ı nereye koyup kullanmak gerekiyor da bu performans çıkıyor diye insan düşünüyor
O kadar RAM var mı?
Coder'ın gelişi gerçekten çok heyecan verici
Son dönemde başlıca benchmark'ların hepsinde OpenHands(All-Hands-AI/OpenHands)'in varsayılan scaffold olarak kullanılmaya başlaması sevindirici
Açık benchmark'larda yalnızca "private scaffold" gördüğüm zamanlar kadar sinir bozucu bir şey yok
robert'ın AllHands hakkında ayrıntılı konuştuğu bir YouTube videosu var
Cognition'ın bu kadar beceriksiz görünebilmesi şaşırtıcı
Milyonlarca dolar yatırım aldı, Cursor ve Claude Code'a karşı geride kaldı, şimdi de pazarını kendi klonuna (eskiden OpenDevin diye biliniyordu) kaptırıyor gibi görünüyor
Bunun OpenRouter'da doğrudan kullanılabilir hale geldiğini gördüm (openrouter.ai/qwen/qwen3-coder)
Keşke biri bunu Rust/Ratatui ile bir CLI haline getirse