1 puan yazan GN⁺ 2 시간 전 | 1 yorum | WhatsApp'ta paylaş
  • DeepClaude, Claude Code CLI'nin araç döngüsü, dosya düzenleme, bash ve git akışını korurken yalnızca API çağrılarının hedefini DeepSeek V4 Pro, OpenRouter, Fireworks AI ve Anthropic uyumlu arka uçlarla değiştirir
  • Claude Code aylık $200 ücret ve kullanım sınırları sunarken, DeepSeek V4 Pro LiveCodeBench'te 96.4% puan ve çıktı tokeni için $0.87/M fiyat öne sürüyor
  • Dosya okuma·yazma·düzenleme, Bash/PowerShell çalıştırma, Glob/Grep araması, çok adımlı otonom araç döngüsü, alt ajan oluşturma, git işlemleri, /init ve varsayılan olarak etkin thinking mode çalışıyor
  • Varsayılan arka uç DeepSeek; OpenRouter ABD sunucuları ve düşük gecikme, Fireworks AI hızlı çıkarım, Anthropic ise zor problemlerde Claude Opus kullanma seçeneği sunuyor
  • Arka uçlara göre fiyatlar şu şekilde veriliyor: DeepSeek ve OpenRouter için girdi $0.44/M · çıktı $0.87/M, Fireworks AI için girdi $1.74/M · çıktı $3.48/M, Anthropic için girdi $3.00/M · çıktı $15.00/M
  • DeepClaude, ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL, CLAUDE_CODE_SUBAGENT_MODEL değişkenlerini oturum bazında ayarlayıp çıkışta özgün ayarları geri yüklüyor
  • DeepSeek'in otomatik bağlam önbelleklemesi, ilk isteğin ardından sistem prompt'unu ve dosya bağlamını $0.004/M karşılığında önbelleğe alarak tekrar eden turlardaki ajan döngüsü maliyetini düşürüyor
  • Kullanım karşılaştırmasında, Anthropic Max $200/ay yerine DeepClaude ile hafif kullanım yaklaşık $20/ay, yoğun kullanım yaklaşık $50/ay, otomatik döngüler dahil yaklaşık $80/ay seviyesinde gösteriliyor
  • Sınırlamalar da açık: DeepSeek'in Anthropic endpoint'i görsel girişi desteklemiyor, Claude Code varsayılan olarak araçları sıralı gönderiyor, MCP server tools uyumluluk katmanı üzerinden desteklenmiyor ve Anthropic'in cache_control özelliği yok sayılıyor
  • Oturum sırasında yeniden başlatmadan arka uç değiştirmeye olanak tanıyan live switching destekleniyor; localhost:3200 proxy'si /v1/messages isteklerini etkin arka uca yönlendiriyor ve /_proxy/mode, /_proxy/status, /_proxy/cost kontrol endpoint'lerini sunuyor
  • Claude Code içinde /deepseek, /anthropic, /openrouter gibi slash komutları kullanılabiliyor veya deepclaude --switch ds ile arka uç değiştirilebiliyor; proxy ayrıca token kullanımını ve Anthropic'e kıyasla tasarruf miktarını da hesaplıyor
  • VS Code/Cursor terminal profiliyle çalıştırılabiliyor; --remote, tarayıcıda Claude Code oturumu açarken WebSocket köprüsü için Anthropic'i kullanıyor, model API çağrılarını ise yerel proxy üzerinden DeepSeek gibi servisleri kullanarak gönderiyor
  • Uzaktan kontrol için claude auth login, claude.ai aboneliği ve proxy için Node.js 18+ gerekiyor; proje lisansı MIT

1 yorum

 
GN⁺ 2 시간 전
Hacker News yorumları
  • Claude Code'u DeepSeek API ile çalıştırmak aslında birkaç ortam değişkeni ayarlayan bir kabuk sarmalayıcıyla mümkün
    ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL ayarlanıp claude $@ çalıştırılıyor

    • Gizli olmayan projelerde yaklaşık bir haftadır bunu DeepSeek v4 ile bu şekilde kullanıyorum; muhtemelen çok zorlayıcı işler vermediğim için neredeyse hiç fark hissetmedim
      Yalnız DeepSeek API'de eğitimden hariç tutma seçeneği yok gibi görünüyor ve başka sağlayıcılarda sunulursa daha iyi olabilir. OpenRouter şu anda sadece DeepSeek'e proxy yapıyor gibi duruyor
    • Claude'la dalga geçen projeler, dört satırlık kod olsa bile, sanki Hacker News 1.'si oluyor
    • deepclaude tarafında daha ilginç olan kısım, oturum ortasında model değiştiren yerel proxy ve birleşik maliyet takibi özelliği
      Ama LLM tarafından yazılmış gibi duran README'de bunlar fazla gömülü kalmış; geçmişe bakınca sonradan eklenmişler ama README yapısı yeniden düzenlenmemiş gibi
      Yazar, etkili göründüğü belli olan bir sosyal medya reklam planını da commit'lemiş: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Bu yüzden https://getaivo.dev yaptım; modeli kodlama ajanında doğrudan kullanabiliyorsunuz
      aivo claude -m deepseek-v4-pro gibi çalıştırmanız yeterli
    • Özünde bu yaklaşım sayesinde yerel modeller dahil herhangi bir modeli Claude Code ile kullanmak mümkün oluyor
  • Bunun ne anlama geldiğini pek anlamadım. DeepSeek zaten Claude Code dahil birçok CLI'da API'nin nasıl kullanılacağını anlatıyor
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • README aslında önemsiz olmayan özellikleri tamamen gömmüş durumda: oturum ortasında model değiştirme proxy'si çalıştırıyor ve Anthropic ile diğer modelleri birlikte kullanırken maliyeti birleşik şekilde takip ediyor
      README'yi yazan LLM, bu özellikleri öne çıkaracak şekilde genel proje açıklamasını güncellememiş gibi görünüyor
      Yazarın reklam planı da commit'lenmiş: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Muhtemelen çok da bir anlamı yok. Sanki bir şeyi tam anlamadan ve araştırmadan, ilk aklına geleni tek seferde yapıp HN ana sayfasına ve tüm sosyal ağlara koymuş gibi
    • Vibe coder'ın vibe coder için yaptığı bir araç gibi
    • Araç çağrı formatının tam olarak aynı olmadığını görmüştüm. O yüzden herhangi bir yapay zekayı Claude Code'a bağlamak için format dönüşümü gerekiyor gibi
    • Gerçekte ne kadar iyi çalıştığını merak ediyorum. DeepSeek'i Hermes ve Opencode'da denedim ama güçlü sistem prompt'larıyla yönlendirilmesine rağmen Hermes'in holografik hafıza aracı gibi temel araçları kullanma konusunda çok kötüydü
  • Claude Code alternatifi arıyorsanız önce pi.dev veya opencode'a yürütme çatısı olarak bakmanızı öneririm
    Model tarafında OpenCode Go şu an maliyet/verim açısından en iyi seçenek gibi görünüyor; OpenRouter veya DeepSeek'e doğrudan bağlanmak da mümkün. Ben şahsen Kimi tarafına geçip kimi.com aboneliği almanın daha mantıklı olduğunu düşünüyorum

    • Ben de kendi yürütme çatımı aday olarak bırakayım: https://codeberg.org/mlow/lmcli
    • pi.dev veya opencode güzel ama benim kullanmak istediğim eklenti ve beceriler en çok Claude Code tarafında var
    • Katılıyorum. OpenCode sağlam bir temel ve birkaç değişiklikle çok etkili bir yürütme çatısına dönüşebilir
      Kişisel yan projem mouse.dev'de, mobilde de iyi çalışan bir bulut ajan mimarisi oluşturmak için OpenCode, Claude Code ve Hermes'in bazı parçalarını birleştiriyorum
    • pi.dev'e baktım ama GitHub'da sadece 7 açık issue olması şüpheli geldi
      Sonra tüm issue'ların bot tarafından otomatik kapatıldığını gördüm. Gerçekten diyecek söz yok
    • Ollama Cloud da maliyet/verim açısından çok iyi. Bir ay boyunca kullandım; 5 saat sınırına sadece bir kez takıldım, o da aynı anda 2 saat boyunca 8 ajan çalıştırdığım zamandı
  • Token fiyatı yaklaşık milyon token başına 1 dolar olsa bile 200 dolarlık token tüketmek şaşırtıcı derecede kolay
    Nasıl hesaplarsam hesaplayayım, kodlama planı daha avantajlı görünüyor

  • Sonnet seviyesindeki performans yeterliyse bu kesinlikle bir yükseltme gibi geliyor
    Ama Sonnet çok fazla hata yapıyor; o seviyedeki bir model için maliyet optimizasyonu yapmanın sonunda pek değeri kalmıyor gibi hissediyorum. Yine de seçenek olması güzel

    • Birçok kişi tasarım için Opus, uygulama için de yerelde barındırılan qwen3.6 kullanarak iyi sonuç alıyor
      Tasarımda Opus, uygulamada DeepSeek kullanmak maliyeti epey düşürebilir. Ben şahsen Anthropic'ten tamamen kaçınırdım ama neden kullandıklarını anlıyorum
    • Henüz tüm öncü modellerin zekâsının aşağı yukarı aynı seviyeye gelip hız ya da etkin bağlam penceresi gibi başka kriterlerle seçim yapılabilecek bir doygunluk noktasında değiliz
      Şirket ya da çalışan açısından şu anda mevcut en iyi modeli ve en yüksek ya da ikinci en yüksek düşünme yoğunluğunu kullanmamak için pek bir sebep göremiyorum. Ucuz değil ama aşırı pahalı da sayılmaz
    • Asıl mesele iyi bir model değil, en iyi modelin gerekli olması
      İyi bir mimari kurmak için çok fazla spesifikasyon ve kod okumak gerekiyor; bu da yüksek giriş/çıkış token kullanımı demek, hata ayıklamada loglar ve Datadog da işin içine girince aynı durum sürüyor
      Yön bulunduktan sonra yamalar küçük kalıyor ve refaktör ya da temizlik işleri dışında, daha ucuz modellerle tasarruf edilen miktar da sınırlı oluyor
      Testler giderek daha karmaşık hale geliyor. Sadece opencode go'ya bakınca bile GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro, DeepSeek V4 Flash var
      Şimdi bu modelleri doğrudan büyük ölçekte, üstelik hatalarıyla birlikte çalıştırmak gerekiyor; burada gözden kaçırdığım bir şey mi var bilmiyorum. Daha ucuz modellerin gerçek kullanım amacı ne, merak ediyorum
    • Bu dersi tekrar tekrar öğreniyorum. Daha düşük seviye bir modelle iyi giderken önüne çok karmaşık bir problem koyuyorum, birkaç modeli deniyorum, sonra pes edip toparlaması için Opus 4.6 çağırıyorum
    • Sonnet'te bunu hiç böyle hissetmiyorum. Sağlam bir Claude.md varsa, çıktıları düzenli gözden geçiriyor ve iyi kodlama pratiklerini temel CI kapılarıyla zorluyorsanız, Opus'a geçmek zorunda kaldığım neredeyse hiç olmadı
  • Bu, normalde iki ortam değişkeni ayarlamak kadar basit bir işi AI'ye tek atışta yaptırmış gibi duruyor

  • Claude Code'un en iyi kodlama yürütme çatısı olup olmadığını merak ediyorum. Bunu değerlendiren bir yer var mı?

    • Kişisel deneyimime göre hayır. Aynı Opus modeli bile Factory Droid veya Amp gibi üçüncü taraf yürütme çatıları içinde daha iyi çalışıyor
      Buna karşılık Claude Code, hem tüketici Max aboneliği hem de kurumsal token indirimleri tarafında en çok sübvanse edilen araç. Token önbellekleme ve düşünme miktarını azaltma gibi maliyet optimizasyonları da çok agresif; bunun bedeli olarak kalite düşüyor
  • Çeşitli CLI'larla DeepSeek V4 kullandım; içlerinden Langcli bana en uygun olanıydı. Programlama görevlerinde önbellek isabet oranı %95'in üstüne çıkıyor
    Aynı bağlam içinde DeepSeek V4 Flash, V4 Pro ve diğer ana akım modeller arasında akıcı ve dinamik geçiş yapabiliyor; ayrıca Claude Code ile %100 uyumlu

  • Günün yarısını CUDA ve LLAMA'yı 5070TI üzerinde çalıştırmakla geçirdim
    Roo'nun ajan modunda deneyebildim; bir plan yazdırdım ve sonra durdurdum ama daha fazla zaman bulursam devam edeceğim
    DeepSeek, yeterli paranız varsa kendi kendine barındırılabildiği için ani geri çekilme riskinin daha düşük olduğu izlenimini veriyor ama yine de yerel çözümler daha heyecan verici
    Genelde ihtiyaç duyulan şey zor problemleri çözmekten çok basit angarya işler oluyor

  • Bunun açıkça vibe coding ile ortak yazılmış gibi bir havası var ve fiyatlandırma da tutmuyor

    • Yakında vibe coding yapılmamış başlık bulmak gerçekten zor olacak gibi
    • Kötü vibe coding. Makine ayrıntıları kolayca kontrol edebilir; onu bunun için kullanmak lazım