Caveman - Claude/Codex'te mağara adamı üslubuyla token tasarrufu
(github.com/JuliusBrussee)- Yanıtları mağara adamı üslubunda vermeye zorlayarak ortalama %65~75 daha az çıktı tokenı kullandıran bir beceri
- Lite·Full·Ultra olmak üzere üç kademeyle sıkıştırma düzeyini ayarlayıp, teknik doğruluğu korurken kısa ve verimli yanıtlar üretir
- Gerçek benchmark'larda React·PostgreSQL·Git ile ilgili açıklamaların tamamında token kullanımı yarının altına düştü
- Aynı anda yaklaşık 3 kat daha hızlı yanıt, daha iyi okunabilirlik ve maliyet tasarrufu sağlar
- Claude Code ve Codex üzerinde basit komutlarla kurulabilir ve oturum boyunca kalıcı olarak kullanılabilir
Caveman'e genel bakış
- Claude Code ve Codex için bir eklenti; LLM yanıtlarını 'mağara adamı üslubuna (caveman-speak)' dönüştürerek token kullanımını yaklaşık %75 azaltır
- Teknik doğruluğu korurken gereksiz sözcükleri kaldırıp kısa ve verimli yanıtlar üretir
- Kurulum tek satırlık bir komutla yapılabilir ve tüm oturumlarda kalıcı olarak kullanılabilir
- Azalma yalnızca çıktı tokenları için geçerlidir — düşünme/akıl yürütme tokenları etkilenmez
- Kaldırılanlar:
- Selamlama·giriş: "Sure, I'd be happy to help" (8 token boşa gider)
- Gerekçe açıklamasına giriş: "The reason this is happening is because" (7 token)
- Tavsiye kalıbı: "I would recommend that you consider" (7 token)
- Gereksiz açılış cümlesi: "Sure, let me take a look at that for you" (10 token)
- Korunanlar: kod blokları, teknik terimler (polymorphism vb.), hata mesajları, git commit·PR mesajları
Before / After örnekleri
- Aynı teknik açıklama kısa cümlelere sıkıştırılarak ifade edilir
- React bileşenlerinin yeniden render edilme nedeninin açıklaması: 69 token → 19 token
- Kimlik doğrulama middleware bug'ının açıklaması: %75'ten fazla token tasarrufu
- Sıkıştırma düzeyi Lite / Full / Ultra olmak üzere üç kademede ayarlanabilir
- Lite (
/caveman lite): Gereksiz ifadeleri kaldırır, dilbilgisini korur — profesyonel ama sade - Full (
/caveman full): Varsayılan caveman modu — artikelleri atar, kısa ve parçalı cümleler kullanır - Ultra (
/caveman ultra): Maksimum sıkıştırma — telgraf tarzı, her şeyi kısaltır
- Lite (
Benchmark'lar
- Claude API üzerinden yapılan gerçek token kullanımı karşılaştırmalarında ortalama %65 tasarruf görüldü
- Tasarruf aralığı: %22~%87
- React yeniden render bug'ının açıklaması: 1,180 → 159 token (%87 tasarruf)
- PostgreSQL bağlantı havuzu ayarı: 2,347 → 380 token (%84 tasarruf)
- Docker multi-stage build: 1,042 → 290 token (%72 tasarruf)
- git rebase vs merge açıklaması: 702 → 292 token (%58 tasarruf)
- callback → async/await refactor: 387 → 301 token (%22 tasarruf, en düşük etki)
- Azalma yalnızca çıktı tokenlarında, düşünme·akıl yürütme tokenları aynı kalır
- Temel fayda okunabilirliğin artması ve yanıt hızının yükselmesi; maliyet tasarrufu ise ek bir etkidir
Bilimsel dayanak
- Mart 2026 tarihli "Brevity Constraints Reverse Performance Hierarchies in Language Models" makalesi: büyük modellere kısa yanıt verme zorunluluğu getirildiğinde bazı benchmark'larda doğruluğun 26 yüzde puan arttığı ve performans sıralamasının tersine döndüğü gösterildi
- "Verbose not always better. Sometimes less word = more correct"
- Uzun anlatımlı yanıtlardan ziyade kısa yanıtların daha doğru olduğu durumlar bulunuyor
Kurulum
- Tek satırda kurulum:
npx skills add JuliusBrussee/caveman - Claude Code eklentisi:
claude plugin marketplace add JuliusBrussee/caveman - Codex: depoyu clone ettikten sonra
/pluginsmenüsünde Caveman'i aratıp kurun - Tetikleyiciler:
/caveman, "talk like caveman", "caveman mode", "less tokens please" - Kapatma: "stop caveman" veya "normal mode"
- Bir kez kurulduktan sonra tüm oturuma uygulanır
Kullanım
-
Tetikleme komutları:
/caveman,$caveman, “talk like caveman”, “caveman mode”, “less tokens please” -
Çıkış komutları: “stop caveman”, “normal mode”
-
Seviye ayarı
Level Trigger Özellik Lite /caveman liteDilbilgisi korunur, gereksiz kelimeler kaldırılır Full /caveman fullVarsayılan mod, artikeller ve gereksiz ifadeler kaldırılır Ultra /caveman ultraMaksimum sıkıştırma, kısaltma ağırlıklı anlatım -
Ayar, oturum bitene kadar korunur
-
MIT lisansı / %100 Python / Claude Code & Codex eklenti desteği
2 yorum
Sparta tarzı konuşma burada da mı..? haha
Hacker News görüşleri
Yazar benim. Bazı insanlar bu deponun öne sürdüğünden daha güçlü iddiaları çürütüyor. Aslında bu araştırma düzeyinde bir yorum değil, şaka olsun diye yapılmış bir şeydi
Bu beceri gizli reasoning token’larını azaltmaya değil, çıktı metnindeki gereksiz uzatmaları azaltmaya odaklanıyor. Kodun kendisine etkisi yok
Anthropic modellerinin RL ile yeterince iyi ayarlandığını, bu yüzden performansı bilerek ciddi biçimde düşürmenin zor olduğunu düşünüyorum
README’de yazdığım “~75%” değeri ön test sonucuydu, daha temkinli ifade etmem gerekirdi. Şu anda resmi bir benchmark hazırlıyorum
Bu beceri ücretsiz değil; yüklenirken context’in bir kısmını tüketiyor. Bu yüzden gerçek değerlendirme input/output token’ları, gecikme ve kaliteyi birlikte içermeli
Kısa prompt’ların, kaliteyi korurken yanıt uzunluğunu azaltabildiğini gösteren araştırmalar da var (makale bağlantısı)
Sonuç olarak ilginç bir fikir, ama çok fazla abartılı yorum yapıldı; resmi değerlendirme tamamlanana kadar README’yi daha doğru yazmam gerekiyor
(Ayrıca bununla ilgili yorumların neden sürekli eksi oy aldığını da anlamıyorum)
“Aptal gibi davran” prompt’u eklersen elbette performansı düşürebilirsin. Asıl soru, belli bir çıktı stilinin gerçekte ne kadar etkili olduğu
Ben her zaman, LLM varsayılan konuşma tarzı dışında konuşmaya zorlandığında akıl yürütme yeteneğinin azaldığını düşündüm.
Çünkü modelin bazı katmanları ya “ne söyleyeceğine” ya da “nasıl söyleyeceğine” odaklanmak zorunda kalıyor
İşbirlikçi kurgu veya rol yapma gibi deneylerde, model ne kadar fazla olguyu hesaba katmak zorundaysa stili korumasının o kadar zorlaştığını gördüm
Bu fikir eğlenceli. Ama sadece basit token’lar değil, zengin token’lar yönünü de görmek isterim.
Mesela “make good” yerine “improve idiomatically” gibi daha incelikli ifadeler kullanmak. Dil, gerçekliği ayarlayan bir modülatör olduğundan, daha ince kullanımı daha iyi sonuç verebilir gibi geliyor. Benchmark’ı merakla bekliyorum
Claude ile caveman gibi konuşmayı denedim ama anlama düzeyi düştü ve yanlış anlama çok oldu. Hatta daha fazla açıklama yapmak zorunda kaldım; yazım hatası olursa bağlam kaybı büyüyor.
Sonunda daha fazla kelimeye ihtiyaç duyuluyormuş gibi hissettiriyor. LLM’in kendi önceki yanıtlarından aldığı bilgi de sanki azalıyor
Grug brained developer’ın AI araçlarıyla karşılaşmasını anlatan bir yazı gördüm (grugbrain.dev)
Bu fikir ilginç. Ama benim şirketim performansı token tüketimi üzerinden ölçüyor. Claude’u özellikle daha uzun konuşmaya zorlayan bir beceri var mı?
/tmpiçine ELI5 tarzında açıklama yazdırabilirsinŞirin bir fikir ama pratikte darboğaz girdi token’ları.
Model tonlarca dosya, araç çıktısı ve dizin ağacı okuyor; ama çıktı olarak sadece birkaç yüz satır kod ve kısa bir açıklama veriyor
Bu arada aynı fikir “Cute idea, but” demeden de aktarılabiliyor (bağlantı)
İlgili çalışma olarak ‘Brevity Constraints Reverse Performance Hierarchies in Language Models’ (2026) de var
İlginç. Çıktıyı 2B bir modelle açmak/sıkıştırmayı çözmek de mümkün olabilir gibi geliyor
Bunu ya biri zaten denedi ya da ben kendim yapmayı düşünüyorum
LLM’ler insan dili yerine insan dışı bir dilde iletişim kurarsa verim artabilir.
Küçük bir yerel model insan girdisini LLM dostu bir dile çevirir, büyük model o dilde düşünür ve sonra tekrar çevirir
Apple Fundamental Models gibi küçük context window’a sahip modeller bu çeviri katmanı olarak kullanılabilir.
RL ile böyle bir dili kendi kendine keşfetmesini sağlamak da mümkün görünüyor. Gerçekten çok eğlenceli bir proje olurdu
Çünkü tamamen yeni bir dil ve eğitim yaklaşımı geliştirmek gerekir. Yine de biri bunun için VC yatırımı toplarsa katılmak isterim