30 puan yazan GN⁺ 24 일 전 | 2 yorum | WhatsApp'ta paylaş
  • Yanıtları mağara adamı üslubunda vermeye zorlayarak ortalama %65~75 daha az çıktı tokenı kullandıran bir beceri
  • Lite·Full·Ultra olmak üzere üç kademeyle sıkıştırma düzeyini ayarlayıp, teknik doğruluğu korurken kısa ve verimli yanıtlar üretir
  • Gerçek benchmark'larda React·PostgreSQL·Git ile ilgili açıklamaların tamamında token kullanımı yarının altına düştü
  • Aynı anda yaklaşık 3 kat daha hızlı yanıt, daha iyi okunabilirlik ve maliyet tasarrufu sağlar
  • Claude Code ve Codex üzerinde basit komutlarla kurulabilir ve oturum boyunca kalıcı olarak kullanılabilir

Caveman'e genel bakış

  • Claude Code ve Codex için bir eklenti; LLM yanıtlarını 'mağara adamı üslubuna (caveman-speak)' dönüştürerek token kullanımını yaklaşık %75 azaltır
  • Teknik doğruluğu korurken gereksiz sözcükleri kaldırıp kısa ve verimli yanıtlar üretir
  • Kurulum tek satırlık bir komutla yapılabilir ve tüm oturumlarda kalıcı olarak kullanılabilir
  • Azalma yalnızca çıktı tokenları için geçerlidir — düşünme/akıl yürütme tokenları etkilenmez
  • Kaldırılanlar:
    • Selamlama·giriş: "Sure, I'd be happy to help" (8 token boşa gider)
    • Gerekçe açıklamasına giriş: "The reason this is happening is because" (7 token)
    • Tavsiye kalıbı: "I would recommend that you consider" (7 token)
    • Gereksiz açılış cümlesi: "Sure, let me take a look at that for you" (10 token)
  • Korunanlar: kod blokları, teknik terimler (polymorphism vb.), hata mesajları, git commit·PR mesajları

Before / After örnekleri

  • Aynı teknik açıklama kısa cümlelere sıkıştırılarak ifade edilir
    • React bileşenlerinin yeniden render edilme nedeninin açıklaması: 69 token → 19 token
    • Kimlik doğrulama middleware bug'ının açıklaması: %75'ten fazla token tasarrufu
  • Sıkıştırma düzeyi Lite / Full / Ultra olmak üzere üç kademede ayarlanabilir
    • Lite (/caveman lite): Gereksiz ifadeleri kaldırır, dilbilgisini korur — profesyonel ama sade
    • Full (/caveman full): Varsayılan caveman modu — artikelleri atar, kısa ve parçalı cümleler kullanır
    • Ultra (/caveman ultra): Maksimum sıkıştırma — telgraf tarzı, her şeyi kısaltır

Benchmark'lar

  • Claude API üzerinden yapılan gerçek token kullanımı karşılaştırmalarında ortalama %65 tasarruf görüldü
  • Tasarruf aralığı: %22~%87
    • React yeniden render bug'ının açıklaması: 1,180 → 159 token (%87 tasarruf)
    • PostgreSQL bağlantı havuzu ayarı: 2,347 → 380 token (%84 tasarruf)
    • Docker multi-stage build: 1,042 → 290 token (%72 tasarruf)
    • git rebase vs merge açıklaması: 702 → 292 token (%58 tasarruf)
    • callback → async/await refactor: 387 → 301 token (%22 tasarruf, en düşük etki)
  • Azalma yalnızca çıktı tokenlarında, düşünme·akıl yürütme tokenları aynı kalır
  • Temel fayda okunabilirliğin artması ve yanıt hızının yükselmesi; maliyet tasarrufu ise ek bir etkidir

Bilimsel dayanak

  • Mart 2026 tarihli "Brevity Constraints Reverse Performance Hierarchies in Language Models" makalesi: büyük modellere kısa yanıt verme zorunluluğu getirildiğinde bazı benchmark'larda doğruluğun 26 yüzde puan arttığı ve performans sıralamasının tersine döndüğü gösterildi
  • "Verbose not always better. Sometimes less word = more correct"
    • Uzun anlatımlı yanıtlardan ziyade kısa yanıtların daha doğru olduğu durumlar bulunuyor

Kurulum

  • Tek satırda kurulum: npx skills add JuliusBrussee/caveman
  • Claude Code eklentisi: claude plugin marketplace add JuliusBrussee/caveman
  • Codex: depoyu clone ettikten sonra /plugins menüsünde Caveman'i aratıp kurun
  • Tetikleyiciler: /caveman, "talk like caveman", "caveman mode", "less tokens please"
  • Kapatma: "stop caveman" veya "normal mode"
  • Bir kez kurulduktan sonra tüm oturuma uygulanır

Kullanım

  • Tetikleme komutları: /caveman, $caveman, “talk like caveman”, “caveman mode”, “less tokens please”

  • Çıkış komutları: “stop caveman”, “normal mode”

  • Seviye ayarı

    Level Trigger Özellik
    Lite /caveman lite Dilbilgisi korunur, gereksiz kelimeler kaldırılır
    Full /caveman full Varsayılan mod, artikeller ve gereksiz ifadeler kaldırılır
    Ultra /caveman ultra Maksimum sıkıştırma, kısaltma ağırlıklı anlatım
  • Ayar, oturum bitene kadar korunur

  • MIT lisansı / %100 Python / Claude Code & Codex eklenti desteği

2 yorum

 
joyfui 24 일 전

Sparta tarzı konuşma burada da mı..? haha

 
GN⁺ 24 일 전
Hacker News görüşleri
  • Yazar benim. Bazı insanlar bu deponun öne sürdüğünden daha güçlü iddiaları çürütüyor. Aslında bu araştırma düzeyinde bir yorum değil, şaka olsun diye yapılmış bir şeydi
    Bu beceri gizli reasoning token’larını azaltmaya değil, çıktı metnindeki gereksiz uzatmaları azaltmaya odaklanıyor. Kodun kendisine etkisi yok
    Anthropic modellerinin RL ile yeterince iyi ayarlandığını, bu yüzden performansı bilerek ciddi biçimde düşürmenin zor olduğunu düşünüyorum
    README’de yazdığım “~75%” değeri ön test sonucuydu, daha temkinli ifade etmem gerekirdi. Şu anda resmi bir benchmark hazırlıyorum
    Bu beceri ücretsiz değil; yüklenirken context’in bir kısmını tüketiyor. Bu yüzden gerçek değerlendirme input/output token’ları, gecikme ve kaliteyi birlikte içermeli
    Kısa prompt’ların, kaliteyi korurken yanıt uzunluğunu azaltabildiğini gösteren araştırmalar da var (makale bağlantısı)
    Sonuç olarak ilginç bir fikir, ama çok fazla abartılı yorum yapıldı; resmi değerlendirme tamamlanana kadar README’yi daha doğru yazmam gerekiyor

    • Mantıklı geliyor. Çevrimiçi tartışmalar zaten genelde böyle ilerliyor. Yine de bu başlık ortalamadan daha iyi, ama bazen hayal kırıklığı yaratıyor
    • Benchmark istiyorsan adam-s/testing-claude-agent kaynağına bakmanı öneririm
    • Özetle: “Bu bir şaka. Bana kızmayın. Ama biraz işe yarıyor galiba?”
    • Ben de LLM ile benzer bir konuşma yaptım; kısa sorulara kısa, kibar isteklere ise daha yüksek bilgi yoğunluklu yanıtlar verme eğiliminde olduğunu açıklamıştı. Sonuçta sorunun soruluş biçimi yanıt stilini etkiliyor
      (Ayrıca bununla ilgili yorumların neden sürekli eksi oy aldığını da anlamıyorum)
    • “Anthropic modelleri kodlamaya optimize edildiği için performans düşüşü zorla yaratılamaz” sözü biraz kafa karıştırıcı.
      “Aptal gibi davran” prompt’u eklersen elbette performansı düşürebilirsin. Asıl soru, belli bir çıktı stilinin gerçekte ne kadar etkili olduğu
  • Ben her zaman, LLM varsayılan konuşma tarzı dışında konuşmaya zorlandığında akıl yürütme yeteneğinin azaldığını düşündüm.
    Çünkü modelin bazı katmanları ya “ne söyleyeceğine” ya da “nasıl söyleyeceğine” odaklanmak zorunda kalıyor
    İşbirlikçi kurgu veya rol yapma gibi deneylerde, model ne kadar fazla olguyu hesaba katmak zorundaysa stili korumasının o kadar zorlaştığını gördüm

    • Tersine, “geveze konuş” dersen çıktı çok daha fazla oluyor. Kişilik yönergeleri gerçekten büyük etki yaratıyor
    • Ben de benzer düşünüyorum. Sonuçta modelin attention budget’ı sınırlı, yani aynı anda yapabileceği iş de sınırlı
  • Bu fikir eğlenceli. Ama sadece basit token’lar değil, zengin token’lar yönünü de görmek isterim.
    Mesela “make good” yerine “improve idiomatically” gibi daha incelikli ifadeler kullanmak. Dil, gerçekliği ayarlayan bir modülatör olduğundan, daha ince kullanımı daha iyi sonuç verebilir gibi geliyor. Benchmark’ı merakla bekliyorum

    • Bu “caveman” stili bana eski telgraf (telegram) üslubunu hatırlatıyor. Bir telgraf kısaltma sözlüğü gibi bilgiyi sıkıştıran “zengin token”ları model öğrenip tarayıcıda çözebilir mi? telgraf kısaltma sözlüğü bağlantısı
    • Bu biraz RISC vs CISC tartışmasını andırıyor. Basitlik ölçeklenebilirlikte kazandığı gibi, LLM’ler de basit ve ortogonal kavramlarla düşünme yönünde ilerliyor
    • “MILSPEC prose register. Max per-token semantic yield.” gibi bir prompt denemesini öneriyorum
  • Claude ile caveman gibi konuşmayı denedim ama anlama düzeyi düştü ve yanlış anlama çok oldu. Hatta daha fazla açıklama yapmak zorunda kaldım; yazım hatası olursa bağlam kaybı büyüyor.
    Sonunda daha fazla kelimeye ihtiyaç duyuluyormuş gibi hissettiriyor. LLM’in kendi önceki yanıtlarından aldığı bilgi de sanki azalıyor

    • Genel forumlarda da (Twitter, Reddit) insanlar LLM’lerin aptal olduğundan şikâyet ediyor, ama onların yazı stiline bakınca nedenini anlayabiliyorsun
    • ChatGPT’nin ilk dönemlerinde bir ara sadece s-expression ile konuşmayı denemiştim; model de s-expression ile yanıt veriyordu. İçerik berbattı ama parantezler doğruydu. Şimdi öyle olmuyor
    • “Neden çok konuşmak? Az konuş, zaman kazan. Deniz dünya.”
    • “caveman” konuşma verilerinin çoğu bilimsel diyalog değil, bu yüzden model böyle bir bağlamı tahmin edemiyor gibi görünüyor
  • Grug brained developer’ın AI araçlarıyla karşılaşmasını anlatan bir yazı gördüm (grugbrain.dev)

    • Ben de LLM’den kavramları örnek vererek açıklamasını istediğimde Grug’u sık kullanıyorum
  • Bu fikir ilginç. Ama benim şirketim performansı token tüketimi üzerinden ölçüyor. Claude’u özellikle daha uzun konuşmaya zorlayan bir beceri var mı?

    • Her döngüde /tmp içine ELI5 tarzında açıklama yazdırabilirsin
    • Ciddi misin, şaka mı? Yoksa Nvidia’da mı çalışıyorsun?
  • Şirin bir fikir ama pratikte darboğaz girdi token’ları.
    Model tonlarca dosya, araç çıktısı ve dizin ağacı okuyor; ama çıktı olarak sadece birkaç yüz satır kod ve kısa bir açıklama veriyor

    • Tek turda doğru, ama çok turlu birikimde çıktı optimizasyonu anlamlı olabilir.
      Bu arada aynı fikir “Cute idea, but” demeden de aktarılabiliyor (bağlantı)
    • Üstelik bu beceri thinking token’ları etkilemiyor. Hatta caveman tarzına çevirmek için daha fazla iç akıl yürütme gerekebilir
  • İlgili çalışma olarak ‘Brevity Constraints Reverse Performance Hierarchies in Language Models’ (2026) de var

  • İlginç. Çıktıyı 2B bir modelle açmak/sıkıştırmayı çözmek de mümkün olabilir gibi geliyor

  • Bunu ya biri zaten denedi ya da ben kendim yapmayı düşünüyorum
    LLM’ler insan dili yerine insan dışı bir dilde iletişim kurarsa verim artabilir.
    Küçük bir yerel model insan girdisini LLM dostu bir dile çevirir, büyük model o dilde düşünür ve sonra tekrar çevirir
    Apple Fundamental Models gibi küçük context window’a sahip modeller bu çeviri katmanı olarak kullanılabilir.
    RL ile böyle bir dili kendi kendine keşfetmesini sağlamak da mümkün görünüyor. Gerçekten çok eğlenceli bir proje olurdu

    • Ben de benzer şeyler düşündüm. Özel bir LLM dili oluşturup modeli bununla eğitmek güzel olurdu, ama herhâlde 60–100 milyon dolar gerekir.
      Çünkü tamamen yeni bir dil ve eğitim yaklaşımı geliştirmek gerekir. Yine de biri bunun için VC yatırımı toplarsa katılmak isterim