- 1.5B parametreye sahip Sweep Next-Edit modeli, kullanıcının bir sonraki kod düzenlemesini tahmin ederek otomatik tamamlama işlevi sunuyor
- Yerel ortamda 500 ms'nin altında hızda çalışıyor ve 4 kat daha büyük modellerden daha yüksek performans gösteriyor
- Q8_0 GGUF niceleme biçiminde sunuluyor; hafif yapısına rağmen uzun 8192 token bağlam uzunluğunu destekliyor
- Qwen2.5-Coder tabanlı ve JetBrains eklentisiyle entegre olabiliyor
- Apache 2.0 lisansı ile yayımlandığı için, açık kaynaklı yapay zeka geliştiricileri için deney ve entegrasyon açısından kullanışlı bir model
Modele genel bakış
- Sweep Next-Edit 1.5B, kod otomatik tamamlama için bir next-edit tahmin modeli
- Kullanıcı kodu düzenlemeden önce bir sonraki düzenlemeyi tahmin edip önerir
- Yerel dizüstü ortamında bile 500 ms'nin altında gecikmeyle çalışabilir
- Hızlı yanıt süresi için speculative decoding kullanır
- Next-edit benchmark'ında 4 kat daha büyük modellerden daha yüksek performans kaydetti
Model ayrıntıları
- Parametre sayısı: 1.5B
- Biçim: GGUF (Q8_0 niceleme)
- Bağlam uzunluğu: 8192 token
- Temel model: Qwen2.5-Coder
- Lisans: Apache 2.0
Kullanım
run_model.py ve model dosyasını indirip çalıştırın
- Yapı yerel çalıştırma odaklıdır; ayrı bir bulut inference sağlayıcısı yoktur
2 yorum
Son zamanlarda büyük teknoloji şirketleri parametre sayısını artırarak büyüdü; acaba yön değişiyor mu?
Ben kişisel olarak, parametreleri giderek artırarak büyümenin aslında bir çıkış yolu olmadığını düşünüyordum.
Sanki yakın geleceği feda edip büyüyorlarmış gibi diyebilir miyiz? Özellikle MoE’nin en belirgin olduğu dönemin bu olduğunu düşünmüştüm.
Google’ın Gemma 3 27b’si de oldukça yüksek sayılırdı ama artık LLM tarafında o kadarlık parametre sayısı bile azmış gibi görünüyordu.
Teknolojik ilerleme de önemli ama bunu gerçekten servis etme aşamasını hesaba katan bir şeylerin çıkması gerekmez mi diye düşünüyordum; bu seferki bana iyi bir deneme gibi görünüyor.
(Parametre artışına kuşkuyla yaklaşmamın nedeni, performansın iyi olduğunu bilsem de bunu servis etmenin daha yüksek maliyet gerektirmesiydi.)
Hacker News yorumları
Modeli bizzat denedim; performans ve kalite gerçekten etkileyiciydi
Bunu açık kaynak olarak yayımladığınız için teşekkürler
Ben Neovim için bir edit completion eklentisi geliştiren kişiyim ve Sweep Edit modeliyle entegre etmeyi başardım
İlgilenenler cursortab.nvim bağlantısına bakabilir
Daha önce Continue.dev üzerinde Qwen 2.5 Coder'ı otomatik tamamlama için denemiştim ama hem JetBrains IDE'lerinde hem de VS Code'da berbattı
Bu tür denemelerin paylaşılması gerçekten sevindirici. IDE eklentilerinin çoğu (Cline, RooCode, KiloCode vb.) otomatik tamamlama modeli yapılandırmasını düzgün desteklemiyor
Copilot aboneliğini sürdürmemin nedeni fiilen otomatik tamamlamaydı; şimdi bir alternatif çıkmış gibi görünüyor, buna sevindim
Bu tür eklentileri her kullandığımda, otomatik tamamlama yapay zekası olmadan kod yazmanın ne kadar verimsiz olduğunu yeniden fark ediyorum
Boilerplate kod ne kadar fazlaysa, Claude Code'a göre o kadar daha faydalı oluyor
Uzun süre JetBrains kullandığım için VSCode'a geçmem zordu ama JetBrains'in yapay zeka özellikleri çok geride kalmıştı
Nihayet düzgün bir otomatik tamamlama aracı çıktı; Copilot aboneliğimi buna çevirmeyi düşünüyorum
Ayrıca açık ağırlıkların yayımlanması ve gizlilik modu sunulması da hoşuma gitti
Yeni kod yazmaya odaklanan geliştiriciler otomatik tamamlamanın verimlilik artışını çok daha fazla hissediyor; bakım ağırlıklı çalışan geliştiriciler ise Claude Code gibi araçlardan daha çok yararlanıyor
Ama normalde LLM'leri kapalı tutup yalnızca ihtiyaç olduğunda açıyorum
Küçük, özelleşmiş modellerin potansiyelinin olduğundan az değerlendirildiğini düşünüyorum
Bununla ilgili olarak ‘Winning Big With Small AI’ adlı bir kitap yazıyorum
Bunların çoğunun utility ya da kütüphane olarak refactor edilebileceğini düşünüyorum
Ben daha çok araştırma amaçlı pipeline kodu yazdığım için bana farklı geliyor olabilir
Bu arada yasnippet, ultisnips, VSCode snippets gibi araçlarla da temel otomatik tamamlama yapılabilir
Bunu gerçekten uzun zamandır bekliyordum
Cursor sadece otomatik tamamlama için bile ayda 20 dolar istemesinden dolayı can sıkıcıydı
Kendim yapmayı da düşündüm ama yerelde çalıştırılabilecek kadar küçük bir modelin yeterince işe yarayıp yaramayacağından emin değildim
Bu yüzden alelacele bir VSCode uzantısı yaptım ve model aslında oldukça iyi çıktı
Geçmişte yerel modeller satır içi tamamlamada berbattı ama bu kez çok daha iyi
Rekabetin kızışmasını umuyorum
token healing gibi özelliklerle kaliteyi artırdıklarını belirtiyor — ilgili yazı
1.5B modelin yerelde çalışabilecek kadar küçük olduğunu duydum; Sweep AI JetBrains eklentisinde de gerçekten yerel çalıştırma yapılıp yapılmadığını merak ediyorum
Kurulumda modelin otomatik indirilip indirilmediğini ve dış iletişim olup olmadığını bilmek istiyorum
JetBrains'in yapay zeka uygulama seviyesi o kadar düşüktü ki şaşırdım
Aradan bu kadar yıl geçmişken hâlâ bu seviyede olması, yeni bir şirketin bile daha iyisini yapabileceğini düşündürüyor
Teknik yazı da ilginçti
GLM-4.7-Flash ve bu duyuruyu görünce, küçük modellerin sınırlarını aşması gerçekten çok ilginç geliyor
Artık elimdeki donanımda da rahatça çalışabilen modellerin giderek daha iyi hâle gelmesi heyecan verici
Gerçekten çok iyi
Özellikle depolarda next edit eğitim verisinin nasıl üretildiğini merak ediyorum
Bununla ilgili içgörüleri duymak isterim
Harika. İlgili blog yazısı da çok ilginçti
Neovim için bir eklentinin yakında gelmesini umuyorum
ilgili yazı
Qwen3 Coder ile iyi çalışıyordu; yalnızca infill desteklenirse sorun olmaz gibi görünüyor
Bugün test etmeyi planlıyorum
next-edit modeli ile FIM modeli arasındaki farkı tam anlayamadım
Hangisinin ne zaman kullanılmasının daha iyi olduğunu açıklayabilecek biri olursa sevinirim
Mümkünse Sublime için de bir eklenti yapıp bizzat denemek istiyorum
Temel otomatik tamamlama özelliğini kullanan bir yapı
AItoComplete üzerinden bakabilirsiniz
Klasik otomatik tamamlama sadece sonrasını tamamlarken, FIM kod blokları arasını doldurma yaklaşımı kullanıyor
Yani ekleme noktasının hem öncesindeki hem sonrasındaki bağlama bakıp en doğal orta kısmı tamamlayan bir modeldir