rtk - LLM token tüketimini %60~90 azaltan CLI proxy
(github.com/rtk-ai)- Yapay zeka kodlama araçlarının çalıştırdığı CLI komutlarının çıktısını LLM'e iletmeden önce filtreleyip sıkıştırarak token kullanımını %60~90 azaltan tek bir Rust ikilisi (Windows/macOS/Linux)
git,grep,ls,cargo testgibi 100'den fazla komutu destekler; komut çıktısını LLM bağlamına göndermeden önce akıllı filtreleme, gruplama, kısaltma ve yinelenenleri kaldırma olmak üzere 4 strateji uygular- Claude Code, Codex, Cursor, Gemini CLI dahil 10 yapay zeka kodlama aracını destekler; hook kurulduğunda bash komutlarını otomatik olarak şeffaf biçimde rtk içindeki aynı komutlara yeniden yazar
- Bu hook yalnızca Bash araç çağrıları için geçerlidir; Claude Code'un yerleşik araçları olan
Read,Grep,Globvb. bu hook mekanizmasını baypas eder, bu yüzden RTK filtrelemesini uygulamak için kabuk komutları veya açıkrtkkomutları kullanılmalıdır
- Bu hook yalnızca Bash araç çağrıları için geçerlidir; Claude Code'un yerleşik araçları olan
- 30 dakikalık Claude Code oturumu için tahmini tasarruf, standart ~118.000 tokena karşı ~23.900 token (yaklaşık %80 azalma)
cargo test/npm test,pytest,go testgibi test çalıştırıcılarında azalma oranı %90'a kadar çıkabilir
- Başlangıç
# 1. Kurulum rtk init -g # Claude Code / Copilot (default) rtk init -g --gemini # Gemini CLI rtk init -g --codex # Codex (OpenAI) rtk init -g --agent cursor # Cursor # 2. Sonrasında AI aracını yeniden başlatın git status # artık rtk git status olarak çalışır - Apache-2.0 lisansı
9 yorum
Sonuçta bu kaliteyle bir ödünleşim meselesi; kaybedilen kaliteyi geri kazanmak için daha fazla token harcamayı gerektiren bir yapıya dönüşmez mi diye endişeleniyorum.
Daha önce denedim ama Claude, rtk’nin neden olduğu sorunları çözmek için sürekli daha fazla token harcadığı için kaldırdım.
(Örneğin,
curlile JSON isteği gönderince geçersiz JSON üretiyor, bu dajq’nun hata vermesine yol açıyor; ardından Claude bunu debug ederken token harcıyor ve sonunda tekrar hamcurlisteğini alıpjqile parse ediyor.)Yine de fikrin kendisinin iyi bir deneme olduğunu düşünüyorum; stabilize olursa kullanılmaya değer gibi görünüyor.
Gerçekten azaltıyor mu emin değilim. Agent'a sürekli
rtk ls..komutunu kullanmasını söyledim ama kullanmıyor.Ben de kişisel olarak kullanıyorum ama rtk sıkıştırması nedeniyle Claude Code’un ihtiyaç duyduğu bağlamı komut çıktısından alamadığı durumlar da oluyor; bu yüzden duruma göre değişiyor gibi görünüyor.
Ben de o noktada eksiklik hissetmiştim!
Yakın zamanda gelen güncelleme, full output'u ayrı bir dosyaya kaydediyor; böylece gerekirse LLM onu okuyabiliyor~
Görünüşe göre diğer kullanıcıların kullanım örneklerinde bazı yan etkiler var gibi.
Umarım kısa sürede aşılır ve sorunsuz şekilde uygulanır.
https://reddit.com/r/ClaudeCode/…
Eğer gerçekten iyi azaltıyorsa, harika olur gibi görünüyor!
Fikir güzel görünüyor
Ancak eğitim muhtemelen genel CLI çıktıları temel alınarak yapıldığı için, böyle sıkıştırınca çıktının eskisi gibi iyi verilip verilmeyeceği konusunda biraz endişem var
Bir deneyeceğim
Sanırım
contextmodeile de karşılaştırmak gerekecek.