12 puan yazan GN⁺ 2025-01-29 | 4 yorum | WhatsApp'ta paylaş
  • llama.cpp projesinde WASM hızını "2 kat artıran" bir PR yayımlandı
    • SIMD komutları kullanılarak qX_K_q8_K ve qX_0_q8_0 noktasal çarpım (dot product) fonksiyonları optimize edildi
    • Kodun büyük bölümü (%99) "DeepSeek-R1" tarafından otomatik olarak üretildi
    • DeepSeek-R1'in prompt'u işlemesi 3 ila 5 dakika sürüyor

DeepSeek-R1'in kod üretim performansı

  • PR yazarı, optimizasyon kodunu üretmek ve iyileştirmek için DeepSeek-R1 kullandı; kendisi doğrudan yalnızca test kodunu ve prompt yazımını yaptı
  • Kullanılan prompt bağlantısından görülebilir
  • DeepSeek-R1, llm_groq.py dosyasını optimize etme sürecinde etkileyici bir düşünce zinciri sergiledi

DeepSeek-R1 ve OpenAI o1 performans karşılaştırması

  • Aynı görev OpenAI o1'e de verildi, ancak DeepSeek-R1'in sonucu daha iyiydi
  • Örnek kodda model_map optimizasyonuna dair düşünce süreci:
    • İlk başta model_map'in gerekli olduğuna karar verdi
    • Daha sonra bunun API yanıtına göre dinamik olarak oluşturulabileceğini değerlendirdi
    • Sonunda model_map'i kaldırmanın en iyi çözüm olduğuna karar verdi

Sonuç

  • DeepSeek-R1, otomatik kod üretimi ve optimizasyonda güçlü bir performans gösteriyor
  • WASM'de SIMD kullanan optimizasyon sayesinde llama.cpp performansı önemli ölçüde arttı
  • PR uygulanırsa, WebAssembly tabanlı uygulamaların çalışma hızının ciddi ölçüde artması bekleniyor

4 yorum

 
bungker 2025-01-29

ollama ile deepseek r1 14b 30b 70b sürümlerini çalıştırdım; genel muhakeme iyi ama küçük hatalar çok. r1 gerçekten harika.

 
yangeok 2025-01-29

8b damıtılmış sürümü denedim ama Korece performansı düşüktü.

 
yangeok 2025-01-29

Kod üretiminde anlamlı sonuçlar üretiyor gibi görünüyor.

 
GN⁺ 2025-01-29
Hacker News görüşü
  • DeekSeek-R1, llama.cpp PR’ındaki kodun %99’unu yazdı. Bu, yapay zekanın kodlamaya büyük katkı sağlayabileceğini gösteren bir örnek.

    • Aider, her sürümde yeni kodun yaklaşık %70’ini yazıyor ve Sonnet’ten sonra yapay zeka tarafından üretilen kod oranı %50’nin üzerine çıktı.
    • Son birkaç ayda Aider’ın yazdığı yeni kod oranı %70 oldu; rekor ise %82.
    • Kodlama tarafında Sonnet’ten DeepSeek V3’e giderek daha fazla geçiliyor ve R1 deneniyor, ancak son API kesintisi nedeniyle zorluk yaşanıyor.
  • DeepSeek-R1-Distill-Qwen-32B, Ollama üzerinden bir dizüstü bilgisayarda çalıştırılıyor ve yaklaşık 20 GB RAM gerekiyor.

    • Kod refactoring için kullanışlı ve koddaki hataları bulmaya yardımcı oluyor.
  • DeekSeek-R1’in llama.cpp PR’ındaki kodun %99’unu yazmış olması dikkat çekici bir kilometre taşı.

  • DeepSeek’ten ARM SIMD kodunu WASM koduna dönüştürmesi istendi ve bu, kod optimizasyonuna yardımcı oldu.

    • SIMD komutlarıyla çalışmak, ileri seviye kod optimizasyonundan daha zor bir iş.
  • LLM’lerin kodlamada faydalı olmadığı iddiası yanlış.

    • Yapay zekanın geliştiricilerin yerini alabileceği iddiası tamamen blöf değil.
    • Daha fazla uygulamaya talep olmazsa işler azalabilir.
  • o1 Pro ve Deepseek R1 kullanılarak e2e testleri yazıldı ve Deepseek daha iyi testler yazdı.

    • Testler geçemedi.
  • Xuan-Son, ARM NEON’u SIMD’e dönüştürmenin yanı sıra yeni bir yaklaşım geliştirmesini de istedi.

    • Hafta sonu projesi olarak wllama optimize edilmeye çalışıldı ve LLM kullanılarak iş başarıyla tamamlandı.
  • DeepSeek R1 kullanılarak llm_groq.py eklentisi yeniden yazıldı; bu, Llama modelinin fine-tune edilmiş sürümü olan deepseek-r1-distill-llama-70b ile yapıldı.

  • AGI’nin birkaç ay içinde gelebilme ihtimali var ve eğitim üç aşamada ilerleyecek.

    • Uzun vadeli hayatta kalma için çeşitliliği güvence altına almak adına farklı modelleri eğitmek önemli.