llama.cpp projesinde WASM hızını "2 kat artıran" bir PR yayımlandı
- SIMD komutları kullanılarak
qX_K_q8_K ve qX_0_q8_0 noktasal çarpım (dot product) fonksiyonları optimize edildi
- Kodun büyük bölümü (%99) "DeepSeek-R1" tarafından otomatik olarak üretildi
- DeepSeek-R1'in prompt'u işlemesi 3 ila 5 dakika sürüyor
DeepSeek-R1'in kod üretim performansı
- PR yazarı, optimizasyon kodunu üretmek ve iyileştirmek için DeepSeek-R1 kullandı; kendisi doğrudan yalnızca test kodunu ve prompt yazımını yaptı
- Kullanılan prompt bağlantısından görülebilir
- DeepSeek-R1,
llm_groq.py dosyasını optimize etme sürecinde etkileyici bir düşünce zinciri sergiledi
DeepSeek-R1 ve OpenAI o1 performans karşılaştırması
- Aynı görev OpenAI o1'e de verildi, ancak DeepSeek-R1'in sonucu daha iyiydi
- Örnek kodda
model_map optimizasyonuna dair düşünce süreci:
- İlk başta
model_map'in gerekli olduğuna karar verdi
- Daha sonra bunun API yanıtına göre dinamik olarak oluşturulabileceğini değerlendirdi
- Sonunda
model_map'i kaldırmanın en iyi çözüm olduğuna karar verdi
Sonuç
- DeepSeek-R1, otomatik kod üretimi ve optimizasyonda güçlü bir performans gösteriyor
- WASM'de SIMD kullanan optimizasyon sayesinde llama.cpp performansı önemli ölçüde arttı
- PR uygulanırsa, WebAssembly tabanlı uygulamaların çalışma hızının ciddi ölçüde artması bekleniyor
4 yorum
ollamailedeepseek r114b 30b 70b sürümlerini çalıştırdım; genel muhakeme iyi ama küçük hatalar çok. r1 gerçekten harika.8b damıtılmış sürümü denedim ama Korece performansı düşüktü.
Kod üretiminde anlamlı sonuçlar üretiyor gibi görünüyor.
Hacker News görüşü
DeekSeek-R1, llama.cpp PR’ındaki kodun %99’unu yazdı. Bu, yapay zekanın kodlamaya büyük katkı sağlayabileceğini gösteren bir örnek.
DeepSeek-R1-Distill-Qwen-32B, Ollama üzerinden bir dizüstü bilgisayarda çalıştırılıyor ve yaklaşık 20 GB RAM gerekiyor.
DeekSeek-R1’in llama.cpp PR’ındaki kodun %99’unu yazmış olması dikkat çekici bir kilometre taşı.
DeepSeek’ten ARM SIMD kodunu WASM koduna dönüştürmesi istendi ve bu, kod optimizasyonuna yardımcı oldu.
LLM’lerin kodlamada faydalı olmadığı iddiası yanlış.
o1 Pro ve Deepseek R1 kullanılarak e2e testleri yazıldı ve Deepseek daha iyi testler yazdı.
Xuan-Son, ARM NEON’u SIMD’e dönüştürmenin yanı sıra yeni bir yaklaşım geliştirmesini de istedi.
DeepSeek R1 kullanılarak llm_groq.py eklentisi yeniden yazıldı; bu, Llama modelinin fine-tune edilmiş sürümü olan deepseek-r1-distill-llama-70b ile yapıldı.
AGI’nin birkaç ay içinde gelebilme ihtimali var ve eğitim üç aşamada ilerleyecek.