19 puan yazan GN⁺ 2026-01-23 | 2 yorum | WhatsApp'ta paylaş
  • 1.5B parametreye sahip Sweep Next-Edit modeli, kullanıcının bir sonraki kod düzenlemesini tahmin ederek otomatik tamamlama işlevi sunuyor
  • Yerel ortamda 500 ms'nin altında hızda çalışıyor ve 4 kat daha büyük modellerden daha yüksek performans gösteriyor
  • Q8_0 GGUF niceleme biçiminde sunuluyor; hafif yapısına rağmen uzun 8192 token bağlam uzunluğunu destekliyor
  • Qwen2.5-Coder tabanlı ve JetBrains eklentisiyle entegre olabiliyor
  • Apache 2.0 lisansı ile yayımlandığı için, açık kaynaklı yapay zeka geliştiricileri için deney ve entegrasyon açısından kullanışlı bir model

Modele genel bakış

  • Sweep Next-Edit 1.5B, kod otomatik tamamlama için bir next-edit tahmin modeli
    • Kullanıcı kodu düzenlemeden önce bir sonraki düzenlemeyi tahmin edip önerir
    • Yerel dizüstü ortamında bile 500 ms'nin altında gecikmeyle çalışabilir
  • Hızlı yanıt süresi için speculative decoding kullanır
  • Next-edit benchmark'ında 4 kat daha büyük modellerden daha yüksek performans kaydetti

Model ayrıntıları

  • Parametre sayısı: 1.5B
  • Biçim: GGUF (Q8_0 niceleme)
  • Bağlam uzunluğu: 8192 token
  • Temel model: Qwen2.5-Coder
  • Lisans: Apache 2.0

Kullanım

  • run_model.py ve model dosyasını indirip çalıştırın
    • Kurulum komutu:
      uv pip install llama-cpp-python huggingface_hub  
      python run_model.py  
      
  • Yapı yerel çalıştırma odaklıdır; ayrı bir bulut inference sağlayıcısı yoktur

2 yorum

 
minsuchae 2026-01-23

Son zamanlarda büyük teknoloji şirketleri parametre sayısını artırarak büyüdü; acaba yön değişiyor mu?
Ben kişisel olarak, parametreleri giderek artırarak büyümenin aslında bir çıkış yolu olmadığını düşünüyordum.
Sanki yakın geleceği feda edip büyüyorlarmış gibi diyebilir miyiz? Özellikle MoE’nin en belirgin olduğu dönemin bu olduğunu düşünmüştüm.
Google’ın Gemma 3 27b’si de oldukça yüksek sayılırdı ama artık LLM tarafında o kadarlık parametre sayısı bile azmış gibi görünüyordu.
Teknolojik ilerleme de önemli ama bunu gerçekten servis etme aşamasını hesaba katan bir şeylerin çıkması gerekmez mi diye düşünüyordum; bu seferki bana iyi bir deneme gibi görünüyor.
(Parametre artışına kuşkuyla yaklaşmamın nedeni, performansın iyi olduğunu bilsem de bunu servis etmenin daha yüksek maliyet gerektirmesiydi.)

 
GN⁺ 2026-01-23
Hacker News yorumları
  • Modeli bizzat denedim; performans ve kalite gerçekten etkileyiciydi
    Bunu açık kaynak olarak yayımladığınız için teşekkürler
    Ben Neovim için bir edit completion eklentisi geliştiren kişiyim ve Sweep Edit modeliyle entegre etmeyi başardım
    İlgilenenler cursortab.nvim bağlantısına bakabilir

    • Emacs için bir port ya da gptel entegrasyonlu sürüm de var mı merak ediyorum
    • İlginç görünüyor, hemen nvim eklentisini deneyeceğim
    • Harika. Ben de bizzat denemeyi düşünüyorum
  • Daha önce Continue.dev üzerinde Qwen 2.5 Coder'ı otomatik tamamlama için denemiştim ama hem JetBrains IDE'lerinde hem de VS Code'da berbattı
    Bu tür denemelerin paylaşılması gerçekten sevindirici. IDE eklentilerinin çoğu (Cline, RooCode, KiloCode vb.) otomatik tamamlama modeli yapılandırmasını düzgün desteklemiyor
    Copilot aboneliğini sürdürmemin nedeni fiilen otomatik tamamlamaydı; şimdi bir alternatif çıkmış gibi görünüyor, buna sevindim

    • llama.cpp'nin VS Code uzantısını da denedim ama ayar UX'i gerçekten berbattı
  • Bu tür eklentileri her kullandığımda, otomatik tamamlama yapay zekası olmadan kod yazmanın ne kadar verimsiz olduğunu yeniden fark ediyorum
    Boilerplate kod ne kadar fazlaysa, Claude Code'a göre o kadar daha faydalı oluyor
    Uzun süre JetBrains kullandığım için VSCode'a geçmem zordu ama JetBrains'in yapay zeka özellikleri çok geride kalmıştı
    Nihayet düzgün bir otomatik tamamlama aracı çıktı; Copilot aboneliğimi buna çevirmeyi düşünüyorum
    Ayrıca açık ağırlıkların yayımlanması ve gizlilik modu sunulması da hoşuma gitti

    • Otomatik tamamlamanın faydasını uzun zamandır vurguluyordum ama ancak şimdi iki farklı geliştirme kültürü olduğunu anlamaya başladım
      Yeni kod yazmaya odaklanan geliştiriciler otomatik tamamlamanın verimlilik artışını çok daha fazla hissediyor; bakım ağırlıklı çalışan geliştiriciler ise Claude Code gibi araçlardan daha çok yararlanıyor
    • Ben de katılıyorum. Emacs'te yerel modelleri ve gemini 3 flash'ı entegre ederek kullanıyorum
      Ama normalde LLM'leri kapalı tutup yalnızca ihtiyaç olduğunda açıyorum
      Küçük, özelleşmiş modellerin potansiyelinin olduğundan az değerlendirildiğini düşünüyorum
      Bununla ilgili olarak ‘Winning Big With Small AI’ adlı bir kitap yazıyorum
    • Konudan biraz sapıyor ama neden bu kadar çok boilerplate kod olduğunu merak ediyorum
      Bunların çoğunun utility ya da kütüphane olarak refactor edilebileceğini düşünüyorum
      Ben daha çok araştırma amaçlı pipeline kodu yazdığım için bana farklı geliyor olabilir
      Bu arada yasnippet, ultisnips, VSCode snippets gibi araçlarla da temel otomatik tamamlama yapılabilir
    • Junie pek iyi değil ama otomatik tamamlama şikâyetiniz varsa IntelliJ'de de yerel/bulut otomatik tamamlama özelliği var
    • Boilerplate sorununun çözümünün sonunda yine otomatik üretime çıkması biraz buruk hissettiriyor
  • Bunu gerçekten uzun zamandır bekliyordum
    Cursor sadece otomatik tamamlama için bile ayda 20 dolar istemesinden dolayı can sıkıcıydı
    Kendim yapmayı da düşündüm ama yerelde çalıştırılabilecek kadar küçük bir modelin yeterince işe yarayıp yaramayacağından emin değildim
    Bu yüzden alelacele bir VSCode uzantısı yaptım ve model aslında oldukça iyi çıktı
    Geçmişte yerel modeller satır içi tamamlamada berbattı ama bu kez çok daha iyi
    Rekabetin kızışmasını umuyorum

    • Merak ettiğiniz bir şey varsa sorabileceğinizi söylüyor
      token healing gibi özelliklerle kaliteyi artırdıklarını belirtiyor — ilgili yazı
  • 1.5B modelin yerelde çalışabilecek kadar küçük olduğunu duydum; Sweep AI JetBrains eklentisinde de gerçekten yerel çalıştırma yapılıp yapılmadığını merak ediyorum
    Kurulumda modelin otomatik indirilip indirilmediğini ve dış iletişim olup olmadığını bilmek istiyorum

    • Şu an hayır; JetBrains eklentisi barındırılan büyük bir model kullanıyor
    • JetBrains eklentisinde yerel endpoint ayarlamanın bir yolu görünmüyor
  • JetBrains'in yapay zeka uygulama seviyesi o kadar düşüktü ki şaşırdım
    Aradan bu kadar yıl geçmişken hâlâ bu seviyede olması, yeni bir şirketin bile daha iyisini yapabileceğini düşündürüyor
    Teknik yazı da ilginçti

    • Teşekkürler. Geri bildirim veya sorular her zaman memnuniyetle karşılanır
  • GLM-4.7-Flash ve bu duyuruyu görünce, küçük modellerin sınırlarını aşması gerçekten çok ilginç geliyor
    Artık elimdeki donanımda da rahatça çalışabilen modellerin giderek daha iyi hâle gelmesi heyecan verici

  • Gerçekten çok iyi
    Özellikle depolarda next edit eğitim verisinin nasıl üretildiğini merak ediyorum
    Bununla ilgili içgörüleri duymak isterim

  • Harika. İlgili blog yazısı da çok ilginçti
    Neovim için bir eklentinin yakında gelmesini umuyorum
    ilgili yazı

    • Bu modelle bağlantılı bir Neovim eklentisi yapan biri zaten var diye duydum
    • llama.vim de var
      Qwen3 Coder ile iyi çalışıyordu; yalnızca infill desteklenirse sorun olmaz gibi görünüyor
      Bugün test etmeyi planlıyorum
    • Eklentinin yazarı zaten bu başlıkta yorum bıraktı
  • next-edit modeli ile FIM modeli arasındaki farkı tam anlayamadım
    Hangisinin ne zaman kullanılmasının daha iyi olduğunu açıklayabilecek biri olursa sevinirim
    Mümkünse Sublime için de bir eklenti yapıp bizzat denemek istiyorum

    • Ben de merak ettiğim için Claude'dan bir eklenti yapmasını istedim
      Temel otomatik tamamlama özelliğini kullanan bir yapı
      AItoComplete üzerinden bakabilirsiniz
    • Tahminimce FIM, Fill-In-the-Middle anlamına geliyor
      Klasik otomatik tamamlama sadece sonrasını tamamlarken, FIM kod blokları arasını doldurma yaklaşımı kullanıyor
      Yani ekleme noktasının hem öncesindeki hem sonrasındaki bağlama bakıp en doğal orta kısmı tamamlayan bir modeldir