30 puan yazan xguru 2026-01-20 | 1 yorum | WhatsApp'ta paylaş
  • Kişisel donanımda LLM çalıştırmayı kolaylaştırmak için tasarlanmış grafik arayüz aracı
  • Arka uç yönetimi, model indirme, donanım hızlandırma ayarları gibi karmaşık süreçleri otomatikleştirir
  • llama.cpp'nin fork'u olan KoboldCpp tabanlı çalışır ve hem metin hem de görsel üretimini destekler
  • Windows, macOS, Linux'ta (özellikle Wayland dahil) yerel çalıştırma desteği
  • Yalnızca CPU kullanan sistemlerde de çalışır; CUDA, ROCm, Vulkan, CLBlast, Metal tabanlı GPU hızlandırmayı destekler
  • Yerleşik görsel üretim özelliği: Flux, Chroma, Qwen Image, Z-Image gibi başlıca iş akışı ön ayarlarını sunar
  • HuggingFace entegre arama özelliği ile uygulama içinden model keşfi, model kartlarını görüntüleme ve GGUF dosyalarını doğrudan indirme mümkün
  • --cli seçeneğiyle terminal tabanlı çalıştırma mümkündür; GUI olmadan aynı arka ucu çalıştırır ve kaynak kullanımını en aza indirir
  • AGPL-3.0 lisansı

1 yorum

 
vigorous5537 2026-01-20

ollama'ya kıyasla ne gibi avantajları var?