DeepClaude - Claude Code ajan döngüsünü DeepSeek V4 Pro ile 17 kat daha ucuza kullanma
(github.com/aattaran)- DeepClaude, Claude Code CLI'nin araç döngüsü, dosya düzenleme, bash ve git akışını korurken yalnızca API çağrılarının hedefini DeepSeek V4 Pro, OpenRouter, Fireworks AI ve Anthropic uyumlu arka uçlarla değiştirir
- Claude Code aylık $200 ücret ve kullanım sınırları sunarken, DeepSeek V4 Pro LiveCodeBench'te 96.4% puan ve çıktı tokeni için $0.87/M fiyat öne sürüyor
- Dosya okuma·yazma·düzenleme, Bash/PowerShell çalıştırma, Glob/Grep araması, çok adımlı otonom araç döngüsü, alt ajan oluşturma, git işlemleri,
/initve varsayılan olarak etkin thinking mode çalışıyor - Varsayılan arka uç DeepSeek; OpenRouter ABD sunucuları ve düşük gecikme, Fireworks AI hızlı çıkarım, Anthropic ise zor problemlerde Claude Opus kullanma seçeneği sunuyor
- Arka uçlara göre fiyatlar şu şekilde veriliyor: DeepSeek ve OpenRouter için girdi $0.44/M · çıktı $0.87/M, Fireworks AI için girdi $1.74/M · çıktı $3.48/M, Anthropic için girdi $3.00/M · çıktı $15.00/M
- DeepClaude,
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODEL,CLAUDE_CODE_SUBAGENT_MODELdeğişkenlerini oturum bazında ayarlayıp çıkışta özgün ayarları geri yüklüyor - DeepSeek'in otomatik bağlam önbelleklemesi, ilk isteğin ardından sistem prompt'unu ve dosya bağlamını $0.004/M karşılığında önbelleğe alarak tekrar eden turlardaki ajan döngüsü maliyetini düşürüyor
- Kullanım karşılaştırmasında, Anthropic Max $200/ay yerine DeepClaude ile hafif kullanım yaklaşık $20/ay, yoğun kullanım yaklaşık $50/ay, otomatik döngüler dahil yaklaşık $80/ay seviyesinde gösteriliyor
- Sınırlamalar da açık: DeepSeek'in Anthropic endpoint'i görsel girişi desteklemiyor, Claude Code varsayılan olarak araçları sıralı gönderiyor, MCP server tools uyumluluk katmanı üzerinden desteklenmiyor ve Anthropic'in
cache_controlözelliği yok sayılıyor - Oturum sırasında yeniden başlatmadan arka uç değiştirmeye olanak tanıyan live switching destekleniyor;
localhost:3200proxy'si/v1/messagesisteklerini etkin arka uca yönlendiriyor ve/_proxy/mode,/_proxy/status,/_proxy/costkontrol endpoint'lerini sunuyor - Claude Code içinde
/deepseek,/anthropic,/openroutergibi slash komutları kullanılabiliyor veyadeepclaude --switch dsile arka uç değiştirilebiliyor; proxy ayrıca token kullanımını ve Anthropic'e kıyasla tasarruf miktarını da hesaplıyor - VS Code/Cursor terminal profiliyle çalıştırılabiliyor;
--remote, tarayıcıda Claude Code oturumu açarken WebSocket köprüsü için Anthropic'i kullanıyor, model API çağrılarını ise yerel proxy üzerinden DeepSeek gibi servisleri kullanarak gönderiyor - Uzaktan kontrol için
claude auth login, claude.ai aboneliği ve proxy için Node.js 18+ gerekiyor; proje lisansı MIT
1 yorum
Hacker News yorumları
Claude Code'u DeepSeek API ile çalıştırmak aslında birkaç ortam değişkeni ayarlayan bir kabuk sarmalayıcıyla mümkün
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODELayarlanıpclaude $@çalıştırılıyorYalnız DeepSeek API'de eğitimden hariç tutma seçeneği yok gibi görünüyor ve başka sağlayıcılarda sunulursa daha iyi olabilir. OpenRouter şu anda sadece DeepSeek'e proxy yapıyor gibi duruyor
Ama LLM tarafından yazılmış gibi duran README'de bunlar fazla gömülü kalmış; geçmişe bakınca sonradan eklenmişler ama README yapısı yeniden düzenlenmemiş gibi
Yazar, etkili göründüğü belli olan bir sosyal medya reklam planını da commit'lemiş: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
aivo claude -m deepseek-v4-progibi çalıştırmanız yeterliBunun ne anlama geldiğini pek anlamadım. DeepSeek zaten Claude Code dahil birçok CLI'da API'nin nasıl kullanılacağını anlatıyor
https://api-docs.deepseek.com/quick_start/agent_integrations...
README'yi yazan LLM, bu özellikleri öne çıkaracak şekilde genel proje açıklamasını güncellememiş gibi görünüyor
Yazarın reklam planı da commit'lenmiş: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Claude Code alternatifi arıyorsanız önce pi.dev veya opencode'a yürütme çatısı olarak bakmanızı öneririm
Model tarafında OpenCode Go şu an maliyet/verim açısından en iyi seçenek gibi görünüyor; OpenRouter veya DeepSeek'e doğrudan bağlanmak da mümkün. Ben şahsen Kimi tarafına geçip kimi.com aboneliği almanın daha mantıklı olduğunu düşünüyorum
Kişisel yan projem mouse.dev'de, mobilde de iyi çalışan bir bulut ajan mimarisi oluşturmak için OpenCode, Claude Code ve Hermes'in bazı parçalarını birleştiriyorum
Sonra tüm issue'ların bot tarafından otomatik kapatıldığını gördüm. Gerçekten diyecek söz yok
Token fiyatı yaklaşık milyon token başına 1 dolar olsa bile 200 dolarlık token tüketmek şaşırtıcı derecede kolay
Nasıl hesaplarsam hesaplayayım, kodlama planı daha avantajlı görünüyor
Sonnet seviyesindeki performans yeterliyse bu kesinlikle bir yükseltme gibi geliyor
Ama Sonnet çok fazla hata yapıyor; o seviyedeki bir model için maliyet optimizasyonu yapmanın sonunda pek değeri kalmıyor gibi hissediyorum. Yine de seçenek olması güzel
Tasarımda Opus, uygulamada DeepSeek kullanmak maliyeti epey düşürebilir. Ben şahsen Anthropic'ten tamamen kaçınırdım ama neden kullandıklarını anlıyorum
Şirket ya da çalışan açısından şu anda mevcut en iyi modeli ve en yüksek ya da ikinci en yüksek düşünme yoğunluğunu kullanmamak için pek bir sebep göremiyorum. Ucuz değil ama aşırı pahalı da sayılmaz
İyi bir mimari kurmak için çok fazla spesifikasyon ve kod okumak gerekiyor; bu da yüksek giriş/çıkış token kullanımı demek, hata ayıklamada loglar ve Datadog da işin içine girince aynı durum sürüyor
Yön bulunduktan sonra yamalar küçük kalıyor ve refaktör ya da temizlik işleri dışında, daha ucuz modellerle tasarruf edilen miktar da sınırlı oluyor
Testler giderek daha karmaşık hale geliyor. Sadece opencode go'ya bakınca bile GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash var
Şimdi bu modelleri doğrudan büyük ölçekte, üstelik hatalarıyla birlikte çalıştırmak gerekiyor; burada gözden kaçırdığım bir şey mi var bilmiyorum. Daha ucuz modellerin gerçek kullanım amacı ne, merak ediyorum
Claude.mdvarsa, çıktıları düzenli gözden geçiriyor ve iyi kodlama pratiklerini temel CI kapılarıyla zorluyorsanız, Opus'a geçmek zorunda kaldığım neredeyse hiç olmadıBu, normalde iki ortam değişkeni ayarlamak kadar basit bir işi AI'ye tek atışta yaptırmış gibi duruyor
Claude Code'un en iyi kodlama yürütme çatısı olup olmadığını merak ediyorum. Bunu değerlendiren bir yer var mı?
Buna karşılık Claude Code, hem tüketici Max aboneliği hem de kurumsal token indirimleri tarafında en çok sübvanse edilen araç. Token önbellekleme ve düşünme miktarını azaltma gibi maliyet optimizasyonları da çok agresif; bunun bedeli olarak kalite düşüyor
Çeşitli CLI'larla DeepSeek V4 kullandım; içlerinden Langcli bana en uygun olanıydı. Programlama görevlerinde önbellek isabet oranı %95'in üstüne çıkıyor
Aynı bağlam içinde DeepSeek V4 Flash, V4 Pro ve diğer ana akım modeller arasında akıcı ve dinamik geçiş yapabiliyor; ayrıca Claude Code ile %100 uyumlu
Günün yarısını CUDA ve LLAMA'yı 5070TI üzerinde çalıştırmakla geçirdim
Roo'nun ajan modunda deneyebildim; bir plan yazdırdım ve sonra durdurdum ama daha fazla zaman bulursam devam edeceğim
DeepSeek, yeterli paranız varsa kendi kendine barındırılabildiği için ani geri çekilme riskinin daha düşük olduğu izlenimini veriyor ama yine de yerel çözümler daha heyecan verici
Genelde ihtiyaç duyulan şey zor problemleri çözmekten çok basit angarya işler oluyor
Bunun açıkça vibe coding ile ortak yazılmış gibi bir havası var ve fiyatlandırma da tutmuyor