- MLX kütüphanesi kullanılarak doğrudan Mac üzerinde çalıştırılıp güçlü ve güncel Qwen3-30B-A3B-8bit modeli yerelde servis ediliyor
- Bunun ardından Localforge ile OpenAI API tarzında entegre edilerek bir ajan döngüsü kuruluyor
- ollama tabanlı yardımcı model (Gemma3) ek olarak yapılandırılarak ajanın yardımcı rolü ayrıştırılıyor ve araçların daha verimli kullanılması sağlanıyor
- Ajan, Localforge arayüzünde yapılandırıldıktan sonra "LS aracını çalıştır", web sitesi oluşturma ve Snake oyununu otomatik çalıştırmaya kadar işlemleri yerine getiriyor
- Tüm bu süreç ücretsiz ve tamamen yerelde otonom çalışabilir; Mac kullanıcıları için doğrudan denemeye değer bir proje
Qwen3’ü Mac’te yerel olarak çalıştırmak
Localforge ayarları
- Resmi site: https://localforge.dev
- Kurulumdan sonra ayarlarda aşağıdaki yapılandırma gerekiyor:
-
Sağlayıcı ekleme
- a) Ollama sağlayıcısı (yardımcı model)
- Ad: LocalOllama
- Tür: ollama
- Gerekli kurulum:
gemma3:latest modeli (basit dil işleme için uygun)
-
b) Qwen3 sağlayıcısı (ana model)
-
Ajan oluşturma
- Ad: qwen3-agent
- Ana model: qwen3:mlx:30b (model adı:
mlx-community/Qwen3-30B-A3B-8bit)
- Yardımcı model: LocalOllama (model adı:
gemma3:latest)
Sonuç
- Mac’te ücretsiz olarak büyük bir modeli yerelde çalıştırıp ajan tabanlı otomatik kodlama yapmak mümkün
- Model seçimi veya sistem prompt’u ayarıyla daha rafine sonuçlar da elde edilebilir
- Localforge + MLX + Qwen3, kişisel LLM deneyleri için oldukça faydalı bir kombinasyon
3 yorum
Yerelde 30B ise gerçekten harika, değil mi? Qwen2.5-Coder pek iyi değildi ama bunu denemeye değer görünüyor.
Qwen3 - Daha derin düşünüp daha hızlı hareket eden yeni nesil dil modeli
Hacker News görüşleri
Qwen3-30B-A3B modelini yerelde kullanıyorum ve gerçekten çok etkileyici. GPT-4’ü bekleyenler için bir alternatif olabilir gibi görünüyor. M3 Max üzerinde 70 tok/s alıyorum, bu da kullanımı oldukça iyi hale getiriyor
qwen3 çalıştırıp
lsaraç çağrısı yapmak "vibe coding" değil. Bu daha çok LocalForge reklamı gibi görünüyorMLX ve MLX-LM için de övgüde bulunmak istiyorum. Gemma 3 modelini yerelde fine-tune etmek için kullanıyorum; Apple geliştiricilerinin yaptığı kütüphane ve araçlar iyi yapılandırılmış
Tesadüfen Qwen3’ü basit bir prompt ile döngüye soktum
MCP ile birlikte yerel LLM’lerin işleri işbirliği içinde yapabildiği, bağlamı sıkıştırabildiği ya da bulut ajanlarla birlikte çalışabildiği bir kurulum bilen var mı?
Yerelde gerçek otonom ajanlar çalıştırıp basit işler yaptırmaya yönelik hızlı bir öğretici paylaşmak istiyorum
LocalForge’u keşfettiğime sevindim. LocalForge hakkında bir sorum var. İki ajanı birleştirip bir görseli multimodal ajana vererek html/css üretmesini, diğer ajanın da kodun geri kalanını yazmasını sağlayabilir miyim?
Oldukça etkileyici. Ücretli token tabanlı modeller kadar iyi olmak zorunda değil
Güzel görünüyor. Google’ın Gemma 3 27B modeliyle çalışacak local-first bir yapay zeka destekli IDE arıyordum
Modelleri yerelde çalıştırmak artık ilginç hale geliyor. Özellikle 30B-A3B sürümü umut verici bir yön gibi görünüyor. 16 GB VRAM ile hâlâ erişilebilir değil ama oldukça yaklaşmış durumda