DeepSeek V4, frontier seviyesine neredeyse ulaştı; fiyatı ise bazı rakiplerin çok altında
(simonwillison.net)- DeepSeek, V4 serisinin ilk modelleri olarak DeepSeek-V4-Pro ve DeepSeek-V4-Flash önizleme modellerini duyurdu; her iki model de 1 milyon token bağlamı destekleyen Mixture of Experts modelleri ve MIT lisansıyla sunuluyor
- DeepSeek-V4-Pro, toplam 1.6T parametre ve 49B etkin parametreye sahip; Kimi K2.6, GLM-5.1 ve DeepSeek V3.2'den daha büyük göründüğü için yeni en büyük açık ağırlıklı model gibi duruyor
- DeepSeek V4'ün temel farkı fiyatı: Flash için 1 milyon giriş tokenı başına $0.14, çıkış için $0.28; Pro için girişte $1.74, çıkışta $3.48 ve bu fiyatlar karşılaştırılan küçük ve büyük modellere göre daha düşük
- Düşük fiyat, uzun bağlam verimliliğiyle bağlantılı; 1 milyon token bağlamda Pro, DeepSeek-V3.2'ye kıyasla tek token FLOPs'u %27'ye ve KV önbelleğini %10'a indirirken, Flash FLOPs'u %10'a ve KV önbelleğini %7'ye kadar düşürüyor
- Kendi benchmark'larında DeepSeek-V4-Pro, frontier modellerle rekabet edebilecek düzeyde görünüyor; ancak GPT-5.4 ve Gemini-3.1-Pro'nun biraz gerisinde ve en ileri frontier modellere göre yaklaşık 3~6 ay geriden gelen bir geliştirme çizgisi sergiliyor
Model duyurusu ve temel özellikler
- DeepSeek, 2025 Aralık'taki V3.2 ve V3.2 Speciale sonrasında V4 serisinin ilk modelleri olarak DeepSeek-V4-Pro ve DeepSeek-V4-Flash olmak üzere 2 önizleme modeli duyurdu
- Her iki model de 1 milyon token bağlamı destekleyen Mixture of Experts modelleri ve standart MIT lisansını kullanıyor
- DeepSeek-V4-Pro, toplam 1.6T parametre ve 49B etkin parametreye sahip; DeepSeek-V4-Flash ise toplam 284B parametre ve 13B etkin parametreye sahip
- DeepSeek-V4-Pro, Kimi K2.6'nın 1.1T, GLM-5.1'in 754B ve DeepSeek V3.2'nin 685B değerlerinden daha büyük olduğu için yeni en büyük açık ağırlıklı model gibi görünüyor
- Hugging Face'e göre model boyutu Pro için 865GB, Flash için 160GB; hafifçe quantize edilmiş Flash'ın 128GB M5 MacBook Pro üzerinde çalıştırılabilmesi bekleniyor
- Gerekli etkin expert'ler yalnızca diskten akıtılabilirse, Pro modelinin de aynı makinede çalışması mümkün olabilir
-
OpenRouter ile kısa bir test
- Model, OpenRouter ve llm-openrouter kullanılarak şu komutla çağrıldı
-
llm install llm-openrouter llm openrouter refresh llm -m openrouter/deepseek/deepseek-v4-pro 'Generate an SVG of a pelican riding a bicycle' - Üretilen sonuçlar olarak DeepSeek-V4-Flash pelikan SVG'si ve DeepSeek-V4-Pro pelikan SVG'si paylaşıldı
- Karşılaştırma için 2025 Aralık DeepSeek V3.2, 2025 Ağustos V3.1 ve 2025 Mart V3-0324 ile aynı prompt'un sonuçları da birlikte sunuldu
Fiyat, verimlilik ve performans konumu
- DeepSeek V4'te en çok öne çıkan unsur fiyat; DeepSeek fiyatlandırma sayfasına göre Flash, 1 milyon giriş tokenı başına $0.14 ve 1 milyon çıkış tokenı başına $0.28
- Pro için fiyat, 1 milyon giriş tokenı başına $1.74 ve 1 milyon çıkış tokenı başına $3.48 olarak belirlenmiş
- Karşılaştırma tablosunda DeepSeek V4 Flash, GPT-5.4 Nano'nun girişte $0.20 ve çıkışta $1.25; Gemini 3.1 Flash-Lite'ın ise girişte $0.25 ve çıkışta $1.50 olan fiyatlarının altında kalarak küçük modeller arasında en ucuzu oluyor
- DeepSeek V4 Pro ise Gemini 3.1 Pro'nun girişte $2 ve çıkışta $12; GPT-5.4'ün girişte $2.50 ve çıkışta $15; Claude Sonnet 4.6'nın girişte $3 ve çıkışta $15; Claude Opus 4.7'nin girişte $5 ve çıkışta $25; GPT-5.5'in ise girişte $5 ve çıkışta $30 olan fiyatlarının altında kalarak büyük frontier modeller arasında en ucuzu oluyor
-
Verimlilik iyileştirmeleri düşük fiyatı destekliyor
- DeepSeek makalesi, bu sürümde uzun bağlamlı prompt verimliliğine büyük ölçüde odaklanıldığını belirtiyor
- 1 milyon token bağlamda DeepSeek-V4-Pro, DeepSeek-V3.2'ye kıyasla token başına FLOPs'u %27'ye ve KV önbellek boyutunu %10'a indiriyor
- Aynı koşullarda DeepSeek-V4-Flash, DeepSeek-V3.2'ye kıyasla token başına FLOPs'u %10'a ve KV önbellek boyutunu %7'ye kadar düşürüyor
-
Benchmark'larda frontier seviyesine yakın, ancak en üst seviyenin gerisinde
- DeepSeek'in kendi raporladığı benchmark'lar, Pro modelinin diğer frontier modellerle rekabet edebildiğini gösteriyor
- Makaleye göre çıkarım token genişletmesi uygulanan DeepSeek-V4-Pro-Max, standart çıkarım benchmark'larında GPT-5.2 ve Gemini-3.0-Pro'dan daha yüksek performans gösteriyor
- Ancak GPT-5.4 ve Gemini-3.1-Pro'nun biraz gerisinde kalıyor ve en ileri frontier modellere göre yaklaşık 3~6 ay geriden gelen bir geliştirme çizgisi sergiliyor
- huggingface.co/unsloth/models üzerinde Unsloth'un quantize sürümlerinin yayımlanması bekleniyor; Flash modelinin yerel makinelerde ne kadar iyi çalışacağı ise merak konusu olmaya devam ediyor
Henüz yorum yok.