- Kişisel donanımda LLM çalıştırmayı kolaylaştırmak için tasarlanmış grafik arayüz aracı
- Arka uç yönetimi, model indirme, donanım hızlandırma ayarları gibi karmaşık süreçleri otomatikleştirir
- llama.cpp'nin fork'u olan KoboldCpp tabanlı çalışır ve hem metin hem de görsel üretimini destekler
- Windows, macOS, Linux'ta (özellikle Wayland dahil) yerel çalıştırma desteği
- Yalnızca CPU kullanan sistemlerde de çalışır; CUDA, ROCm, Vulkan, CLBlast, Metal tabanlı GPU hızlandırmayı destekler
- Yerleşik görsel üretim özelliği: Flux, Chroma, Qwen Image, Z-Image gibi başlıca iş akışı ön ayarlarını sunar
- HuggingFace entegre arama özelliği ile uygulama içinden model keşfi, model kartlarını görüntüleme ve GGUF dosyalarını doğrudan indirme mümkün
--cli seçeneğiyle terminal tabanlı çalıştırma mümkündür; GUI olmadan aynı arka ucu çalıştırır ve kaynak kullanımını en aza indirir
- AGPL-3.0 lisansı
1 yorum
ollama'ya kıyasla ne gibi avantajları var?