1 yorum

 
GN⁺ 2024-11-30
Hacker News görüşleri
  • Blog yazılarının artması olumlu, ancak llama.cpp'yi derleme yöntemi karmaşık hissettiriyor

    • Donanıma uygun parametreler ccmake . komutuyla ayarlanıp derlenebilir
  • Eski bir Dell dizüstü bilgisayarda Llama.cpp'yi başarıyla çalıştırma deneyimi paylaşılıyor

    • Minimum özelliklerle bile çalıştı ve yavaş olsa da doğru yanıtlar verdi
    • Daha iyi donanımda daha büyük modelleri çalıştırmak istiyor
  • Llama.cpp kurmak istiyor ama daha iyi UX sunduğu için kobold.cpp kurmuş

  • Windows ve AMD üzerinde derleme denemesi deneyimi paylaşılıyor

    • Vulkan ve MSYS2 en kolay çalışan seçenekler olmuş
  • Llama.cpp'nin desteklediği LLM'lerin sınırlamaları hakkında soru

    • Yalnızca belirli transformer modellerini mi desteklediğini merak ediyor
  • Ollama'ya geçen bir deneyim paylaşılıyor

    • Ollama'nın sunucu ve istemci kurulumu basit şekilde çalışıyor
  • Ollama'nın sadece basit bir llama.cpp sarmalayıcısı olmadığı vurgulanıyor

    • Ollama, model arayüzü ve paketleme için çeşitli özellikler sunuyor
  • ChatGPT web arayüzü yerine neden Llama.cpp kullanıldığı soruluyor

    • Asıl nedenin gizlilik olup olmadığını merak ediyor
  • ChatGPT ve Claude'u her gün kullanıyor ama LLM'leri diğer servislerin dışında kullanmak için bir neden bulamıyor

  • Ollama ile llama.cpp'yi doğrudan çalıştırma üzerine tartışma

    • CUDA kurulumu her zaman kolay değil ve yerel inference daha hızlı olabilir
    • PyTorch'u çalıştırmak daha kolay ve AWQ modelleri basitçe kurulabiliyor