WUPHF - Ajanların Karpathy tarzı LLM vikisini doğrudan sürdürdüğü sistem
(github.com/nex-crm)- Markdown & Git tabanlı, yapay zeka ajanları için wiki katmanı
- Yapay zeka ajanlarının oturumlar arasında bağlam biriktirebilmesi için tasarlanmış, LLM yerel bilgi tabanı katmanı; yerelde
~/.wuphf/wiki/içine kaydediliyor vegit cloneile komple alınabiliyor - Postgres, pgvector, Neo4j, Kafka gibi ağır altyapılar yerine yalnızca markdown + git ile kuruluyor; vektör veritabanı olmadan BM25 + SQLite ile bilgi yönetimi yapıyor
- Markdown olarak saklıyor, bleve ile BM25 arama yapıyor, yapılandırılmış meta veriyi (facts, entities, edges, redirects, supersedes) SQLite ile yönetiyor
- Vektör veritabanı kullanılmadan, 500 artefakt ve 50 sorguluk benchmark temelinde recall@20 %85 başarısına ulaşıyor
- Belirli sorgu sınıfları bu eşik altına düşerse diye sqlite-vec kullanılması planlanıyor
- Her ajan
agents/{slug}/notebook/*.mdyolunda bir kişisel notebook tutuyor veteam/yolundaki paylaşılan wikiye erişiyor- Notebook girdileri ajan veya insan tarafından incelendikten sonra wikiye yükseltilebiliyor (promotion); geri bağlantılar otomatik oluşturuluyor
- Küçük bir durum makinesi süre dolumu (expiry) ve otomatik arşivlemeyi yönetiyor
- Varlık başına fact log:
team/entities/{kind}-{slug}.facts.jsonliçinde yalnızca sona eklenen JSONL kayıtları tutuluyor- Bir sentez worker'ı her N fact'te bir varlık özetini yeniden oluşturuyor; commit'ler "Pam the Archivist" adlı ayrı bir git kimliğiyle bırakılıyor, böylece kaynak
git logiçinde doğrudan görülebiliyor - Fact ID'leri cümle ofsetlerini içeren deterministik ID'ler; canonical slug bir kez verildikten sonra redirect stub ile birleştiriliyor ve asla değiştirilemiyor
- Rebuild mantıksal olarak aynı, ancak bayt düzeyinde birebir aynı olması garanti edilmiyor
- Bir sentez worker'ı her N fact'te bir varlık özetini yeniden oluşturuyor; commit'ler "Pam the Archivist" adlı ayrı bir git kimliğiyle bırakılıyor, böylece kaynak
- [[Wikilinks]] desteği var ve bozuk bağlantılar kırmızı renkte gösteriliyor; günlük lint cron çelişkileri, eski girdileri ve bozuk wikilink'leri tespit ediyor
/lookupslash komutu ve MCP aracıyla alıntı tabanlı arama sunuyor- Sezgisel sınıflandırıcı, kısa sorguları BM25'e; açıklayıcı sorguları ise cited-answer döngüsüne yönlendiriyor
- Bilinen sınırlamalar
- Recall ayarı sürüyor; %85 genel geçer garanti edilen bir sayı değil
- Sentez kalitesi, ajanın kaydettiği fact'lerin kalitesine bağlı (garbage in, garbage out); lint yardımcı oluyor ama bir karar motoru değil
- Şu anda tek ofis kapsamıyla sınırlı; ofisler arası federasyon desteklenmiyor
- WUPHF'in (Claude Code, Codex, OpenClaw ve yerel LLM destekli açık kaynak yapay zeka ajan ofisi) bir parçası olarak sunuluyor, ancak yalnızca wiki katmanı tek başına kullanılabiliyor — mevcut ajan kurulumuna WUPHF bağlanırsa wiki otomatik ekleniyor
- MIT lisansı
1 yorum
Hacker News yorumları
Not otomasyonunun asıl amacını pek anlayamadım. Geçmişte de metni kopyalayıp notlara yapıştırmak bana hiç yardımcı olmamıştı; şimdi bunu 100 kat artırmak neyi değiştirecek emin değilim
Benim için notların özü, kaynakları eleştirel biçimde okuyup kendi zihinsel modelime göre özümsemek ve sonra bunu kaydetmekte yatıyor
Ayrıntılara sonra tekrar bakılabilir; sonuçta önemli olan o modeli rafine etme süreci
Öyleyse amaç, o zihinsel modeli bizzat kurmak yerine paylaşılan bir LLM brain'e devretmek de olabilir
Ama bu yaklaşımla ürün sahibine gerçekten değerli bir şey üretilebileceği konusunda oldukça şüpheliyim. Eğer sadece prompt'lar ve agent harness'leriyle değerli bir ürün yapılabiliyorsa, o ürünü herkes yeniden yapabilir, ürün geliştirme başlı başına commodity haline gelir ve geriye değer olarak yalnızca token'lar kalabilir
Benim varsayımım, Paul Graham'ın do things that don’t scale yaklaşımının bundan sonra da geçerli kalacağı, ama ölçeklenmeyen işin içeriğinin değişeceği yönünde
Yine de ben son zamanlarda Obsidian'ı gerçekten kullanmaya başladım. Not alma, araştırma, bağlantı kurma, bölme ve bilgi tabanını yeniden yapılandırma için becerileri ayarlayınca, sanki düzenlemeyi benim yerime yapan bir dijital asistan edinmiş gibi oldum
Artık sadece dağınık düşüncelerimi yazsam bile ajan yapıyı kuruyor, takip soruları soruyor ve bunu başka işlerle ilişkilendiriyor. Kaynakları okuyup zihinsel modeli oluşturma işi hâlâ bende, ama yüksek kaliteli notları neredeyse bedavaya elde ediyorum
Müthiş bir israf
Çoğu şeyin baştan notlara girmesi gerekmiyor ve LLM doğrulama ya da filtreleme yapmadan gürültüyü fazlasıyla artırıyor
Bu konuyu iyi ele alan bir video olarak JA Westenberg'in bir denemesi vardı
https://youtube.com/watch?v=3E00ZNdFbEk
Oldukça ilginçti
Bence optimum nokta insan kürasyonu; özellikle debt ya da drift bilinçli biçimde yönetilmiyorsa, denetimsiz işletim çözüm değil
Hele adının da The Office'te geçen o işe yaramaz ve yinelenen ürün Wuphf.com ile aynı olması bunu daha da güçlendirdi
Ürün adının yanına sadece AI ekleyince milyarlarca dolar geliyor, blog yazısına Karpathy yazınca da sanki Anthropic'te baş mühendis olarak işe alınıyorsun gibi bir hava var
Bu, trend sürdüğü sürece para sağmaya çalışma hali gibi duruyor; müşterinin neye ihtiyaç duyduğu pek umursanmıyor hissi veriyor
Herkes dalga varken hiç değilse elini yıkamaya çalışır gibi koşuyor
Yine de o zaman gerçekten bir şeyler inşa ediliyordu ve dönemin sıkı finansman ortamı aşırılığı biraz olsun bastırıyordu
Bu LLM patlaması ise en azından gerçek bir imkân ve değer barındırıyor; ayrıca öğrenmesi ve kurcalaması da oldukça eğlenceli bir teknoloji
Ben uzun zaman önce, bu tür alanlara para akıyorsa, etik dışı olmadığı sürece oradaki fırsatı yakalamanın doğru olduğu fikrini kabullendim. VC/PE parası akmaya devam ederken değerli ve havalı şeyler de üretilebilir
Ben hâlâ Claude Code'un yerini alabilecek dünya çapında bir CLI harness'i bekliyorum. Bellek sorunlarını ve tasarım sorunlarını çözen bir şeye ihtiyaç var
Web tasarımı ise LLM ile yapmak için hâlâ neredeyse bir kâbus
Enterprise PoC'ler de yaptık ve tüm bunlar sonunda benim kişisel işlerimi desteklemek için yanda geliştirdiğim bu projede yoğunlaştı. Sonuç olarak, context infra'yı gerçekten kullanışlı kılan arayüz bu oldu
Anthropic'te baş mühendis olmak gibi bir hedefim yok. Eskiden HubSpot'ta Product Manager'dım ve gelirim şimdikinden çok daha yüksekti; önümüzdeki birkaç yıl boyunca da o seviyeye çıkamam muhtemelen
Defalarca bahis yapıp sürekli iterasyon yapmamın nedeni müşterilerle doğrudan konuşarak evrilmemdi. Buna karşılık eski rakipler hâlâ stealth modda AI CRM yapıyor
Sektörde uzun süredir bulunan biri olarak, dalganın kendisi önemli değil ama o dalganın altında çıkarılabilecek gerçek değer kesinlikle var diye düşünüyorum
Şu incelemeyi gördüm: https://zby.github.io/commonplace/agent-memory-systems/reviews/wuphf/
24 saat içinde ana sayfaya çıkan üçüncü LLM wiki oldu, yani kesinlikle sıcak bir konu
Benim de bu alanda bir çıkarım olduğu için tamamen tarafsız sayılmam ama bu tür sistemlerden beklentilerimi ayrı bir notta derlemiştim
https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
Herkesin kendi sistemini sıfırdan yapması çok fazla yinelenen yatırım gibi görünüyor; keşke işbirliği yapılacak bir yol olsa
Ama üsluba bakınca bunun LLM tarafından yazıldığı oldukça belli görünüyor; böyle tasarım notlarını sonradan kendi sözlerinle yeniden yazıp gerçekten kendi düşünceni yansıtıp yansıtmadığını kontrol ediyor musun diye merak ettim
Biz Karpathy LLM wiki fikrini ortaya atmadan çok önce nex.ai adlı bir context infra şirketi olarak yola çıkmıştık ve bu yeteneklerin çoğu WUPHF'te henüz pek görünmese de artık yavaş yavaş açığa çıkıyor
Karşılaştırma yazısında dile getirilen kaygıların önemli bir kısmı, bizim zaten inşa etmiş olduğumuz context infra'da ele aldığımız şeylerdi; bunu görmek sevindiriciydi
Yine de tekrarı azaltacak ve öğrenilenleri paylaşacak her türlü işbirliğine açığız
İşbirliği fırsatı olsa iyi olur demişsin ama sanki şu anda böyle bir fırsat yokmuş gibi geliyor, bu da bana tuhaf geldi
Obsidian vault'un üstüne sadece QMD koysan bile %80'e gelirsin; muhtemelen 2 saat bile sürmez
Bağlam için Karpathy'nin orijinal paylaşım bağlantıları da burada
https://x.com/karpathy/status/2039805659525644595
https://xcancel.com/karpathy/status/2039805659525644595
AI Notes gerçekten değer mi katacak, yoksa sadece gürültü mü üretecek merak ediyorum
Yine de sitenin ASCII stilini oldukça beğendim
Bu sorunun çözümü olarak birilerinin StackOverflow revival benzeri bir şey yapmasını isterdim
İnsan kürasyonu olurdu ama kolektif LLM'ler bir problemi çözerken tıkanınca eski usul soru gönderilen bir dağıtık bilgi grafiğine dönüşebilirdi
Ajanımın “burada tıkandım, SO'ya bir soru bıraktım; cevap gelince sonra geri döneriz” demesi bana gayet makul geliyor
LLM'in çok fazla yazmasını nasıl engelleyebileceğimizi merak ediyorum
Buna benzer birkaç araç ve sistem yaptım; hepsinde LLM belgeleri durmadan şişirdi ve sonunda tüm sistem berbat hale geldi, büyüdükçe de daha az kullanışlı oldu
Daha önce denediğim deneylerden birinde, sadece birkaç bağlantı veriyordum; LLM de ilgili konuları araştırıp kendi knowledge wiki'sini oluşturuyor, her sayfaya özetler, çapraz bağlantılar ve kaynaklar ekliyordu
Dışarıdan bakınca iyi görünüyordu ama gerçek veriyi okuyunca pek öyle değildi
Bu birkaç yıl önceydi; belki şimdi opus 4.7 gibi bir şeyle tekrar denemeye değer olabilir
Düşünmeye değer bir not olarak, TiddlyWiki topluluğu da elbette AI araçlarını araştırıyordu
TiddlyWiki, kendi kendini değiştirebilen tek HTML dosyası tabanlı bir wiki ve 20 yılı aşkın süredir varlığını sürdürüyor
Tam olarak agentic bir ortama evrilmiş değil ama markdown eklentileri var; dosyaları çalıştırılabilir ya da self-serving web uygulamalarına dönüştüren araçlar da mevcut. Git biraz zahmetli
Bu yüzden teoride, tek dosyalık bir agentic wiki dolaşıp kendi kendini değiştirebilir
https://tiddlywiki.com/
Sözünü ettiğin tek dosya yapısı için zaten birkaç LLM bağlayıcısı var. Mesela https://github.com/rimir-cc/tw-llm-connect
Cazibesi de tam burada. Bağımlılık yok, kurulum gerekmiyor, saklaması çok kolay; dolayısıyla kendi kendini düzenleyen tek dosyalık agentic wiki yapısı bugün bile mümkün
Karpathy'nin LLM Wiki kalıbına daha yakın olarak üzerinde çalıştığım twillm de var
https://github.com/Jermolene/twillm
Bu, TiddlyWiki'nin Node.js kurulumunu kullanıyor ve tiddler'ları ayrı dosyalar halinde saklayarak mevcut Markdown vault'unu doğrudan işaretleyebiliyor; Claude Code gibi araçlarla birlikte de kullanılabiliyor
TiddlyWiki'nin avantajları da oldukça belirgin. Açık kaynak olduğu için uzun vadede kullanılmaya devam edebilir ve web tabanlı olduğu için her yerden erişilebilir
Ayrıca hesaplanmış görünümler, materialized index dosyalarının yerini alıyor. Karpathy yaklaşımında LLM'in her not eklediğinde index.md'yi sürekli senkron tutması gerekiyor; bu tür işler oturumlar değiştikçe kolayca stale oluyor ve LLM'lerin özellikle kötü olduğu bir alan
Buna karşılık TiddlyWiki görünümleri gerçek zamanlı filtre ifadeleri; örneğin “concept etiketi taşıyan tiddler'ları rating'e göre sırala” gibi bir sonuç, render anında anlık olarak hesaplanıyor
Frontmatter da sorgulanabilir bir yapıya dönüşüyor. Obsidian YAML frontmatter'ı notların üst kısmında kutu biçimli metadata olarak gösterirken, TiddlyWiki bu alanları birinci sınıf tiddler alanlarına yükseltiyor ve bunları filtreleme, sıralama, toplulaştırma için doğrudan kullanılabilir hale getiriyor
Üstelik LLM sadece içerik değil, küçük applet'ler de yazabiliyor. Sadece Markdown notları değil, wikitext tiddler (.tid) da ekleyerek dashboard'lar, etiket gezginleri, günlük indeksleri, sözlükler gibi etkileşimli canlı görünümler oluşturabiliyor
Kendini inşa eden artefact'lar alanı ilginç ve son dönemde özellikle kodlama odaklı LLM'ler burada hızla güçlenirken alan da ciddi biçimde büyüyor
Ben de yakın zamanda bağımlılıkları en aza indiren ve ajanı yerelde kontrol etmeye odaklanan bir projeyi denedim
https://github.com/GistNoesis/Shoggoth.db/
Prompt olarak verilen uzun süreli işleri yapmak için kendi sqlite veritabanını oluşturup düzenliyor; kaynak veri olarak da Wikipedia'nın yerel bir kopyasını kullanıyor
Agent drift'i denemek için eklediğim harness ve araçlar da son derece minimal
Görsel işleme araçlarını bağlamak da oldukça kolay. Görselleri base64'e kodlayıp llama.cpp'ye veriyorsun; ayrıntılı uygulamayı ise yerel LLM ile biraz vibecoding yaparak çözebiliyorsun
Bence oldukça genel amaçlı faydalı bir araç
Mesela eskiden bir klasördeki faturalar ve fişlerden tutar, tarih ve satıcıyı çıkarmak için Amazon Textract kullanan bir betiğim vardı; sonra bir insan sayıları kontrol ediyor ve muhasebeciye verilecek CSV'yi hazırlıyordu
Şimdi bu Amazon Textract çağrısını uygun bir prompt'la yapılan llama.cpp model çağrısıyla değiştirebilir, mevcut fatura aracını korurken çok daha yaratıcı muhasebe işlemleri de yapabilirsin
Ayrıca kamera görüntüsü dizileriyle fiziksel bir robotu hareket ettiren bir varyasyon da denedim; basit durumlarda gerçekten hareket edip hedefe ulaşıyordu
Ama kullandığım LLM aslında robot sürmek için eğitilmemişti ve sonraki eylemi seçmesi 10 saniye sürüyordu; bu yüzden pratik değildi. Şu anda derin öğrenme dışı klasik kontrolcüler görüş döngüsünü 20Hz'te çalıştırıyor
LLM modelleri ve onların üstündeki ajanlar deterministik değil, olasılıksal
Bir şeyi belli bir oranda başarıyorlar ama her seferinde başarmıyorlar
Bu yüzden ajanın üstlendiği iş ne kadar uzun sürerse başarısızlık olasılığı da o kadar büyüyor. Bu tür uzun süre çalışan ajanlar sonunda başarısız oluyor ve bu sırada ciddi miktarda token maliyeti de yakıyor
LLM ajanlarının iyi yaptığı şeylerden biri kendi talimatlarını yeniden yazmak
İşin püf noktası, thinking model'in süresini ve düşünme adımlarını kısıtlamak; ardından değerlendirmek, güncellemek ve yeniden çalıştırmak
Benzetme yaparsak ajanların düşeceğini varsaymak gerekir. Uzun süre koşturup düşmelerini beklemek yerine, 10 dakikada bir kez yerine 5 dakikada iki kez daha iyidir
Birkaç hafta içinde bu tür öz göndergesel ajanlar Twitter akışlarının tepesini kaplar gibi geliyor
Bu yüzden bu tür wikiler belli bir duruma ulaştığında orada takılıp kalabilir