2 puan yazan GN⁺ 3 일 전 | 1 yorum | WhatsApp'ta paylaş
  • Markdown & Git tabanlı, yapay zeka ajanları için wiki katmanı
  • Yapay zeka ajanlarının oturumlar arasında bağlam biriktirebilmesi için tasarlanmış, LLM yerel bilgi tabanı katmanı; yerelde ~/.wuphf/wiki/ içine kaydediliyor ve git clone ile komple alınabiliyor
  • Postgres, pgvector, Neo4j, Kafka gibi ağır altyapılar yerine yalnızca markdown + git ile kuruluyor; vektör veritabanı olmadan BM25 + SQLite ile bilgi yönetimi yapıyor
    • Markdown olarak saklıyor, bleve ile BM25 arama yapıyor, yapılandırılmış meta veriyi (facts, entities, edges, redirects, supersedes) SQLite ile yönetiyor
    • Vektör veritabanı kullanılmadan, 500 artefakt ve 50 sorguluk benchmark temelinde recall@20 %85 başarısına ulaşıyor
    • Belirli sorgu sınıfları bu eşik altına düşerse diye sqlite-vec kullanılması planlanıyor
  • Her ajan agents/{slug}/notebook/*.md yolunda bir kişisel notebook tutuyor ve team/ yolundaki paylaşılan wikiye erişiyor
    • Notebook girdileri ajan veya insan tarafından incelendikten sonra wikiye yükseltilebiliyor (promotion); geri bağlantılar otomatik oluşturuluyor
    • Küçük bir durum makinesi süre dolumu (expiry) ve otomatik arşivlemeyi yönetiyor
  • Varlık başına fact log: team/entities/{kind}-{slug}.facts.jsonl içinde yalnızca sona eklenen JSONL kayıtları tutuluyor
    • Bir sentez worker'ı her N fact'te bir varlık özetini yeniden oluşturuyor; commit'ler "Pam the Archivist" adlı ayrı bir git kimliğiyle bırakılıyor, böylece kaynak git log içinde doğrudan görülebiliyor
    • Fact ID'leri cümle ofsetlerini içeren deterministik ID'ler; canonical slug bir kez verildikten sonra redirect stub ile birleştiriliyor ve asla değiştirilemiyor
    • Rebuild mantıksal olarak aynı, ancak bayt düzeyinde birebir aynı olması garanti edilmiyor
  • [[Wikilinks]] desteği var ve bozuk bağlantılar kırmızı renkte gösteriliyor; günlük lint cron çelişkileri, eski girdileri ve bozuk wikilink'leri tespit ediyor
  • /lookup slash komutu ve MCP aracıyla alıntı tabanlı arama sunuyor
    • Sezgisel sınıflandırıcı, kısa sorguları BM25'e; açıklayıcı sorguları ise cited-answer döngüsüne yönlendiriyor
  • Bilinen sınırlamalar
    • Recall ayarı sürüyor; %85 genel geçer garanti edilen bir sayı değil
    • Sentez kalitesi, ajanın kaydettiği fact'lerin kalitesine bağlı (garbage in, garbage out); lint yardımcı oluyor ama bir karar motoru değil
    • Şu anda tek ofis kapsamıyla sınırlı; ofisler arası federasyon desteklenmiyor
  • WUPHF'in (Claude Code, Codex, OpenClaw ve yerel LLM destekli açık kaynak yapay zeka ajan ofisi) bir parçası olarak sunuluyor, ancak yalnızca wiki katmanı tek başına kullanılabiliyor — mevcut ajan kurulumuna WUPHF bağlanırsa wiki otomatik ekleniyor
  • MIT lisansı

1 yorum

 
GN⁺ 3 일 전
Hacker News yorumları
  • Not otomasyonunun asıl amacını pek anlayamadım. Geçmişte de metni kopyalayıp notlara yapıştırmak bana hiç yardımcı olmamıştı; şimdi bunu 100 kat artırmak neyi değiştirecek emin değilim
    Benim için notların özü, kaynakları eleştirel biçimde okuyup kendi zihinsel modelime göre özümsemek ve sonra bunu kaydetmekte yatıyor
    Ayrıntılara sonra tekrar bakılabilir; sonuçta önemli olan o modeli rafine etme süreci

    • Bu, basit bir not tutma işinden daha fazlası gibi görünüyor. Aslında, insan müdahalesini en aza indirerek ajanların kendi aralarında işi koordine etmesini sağlayan başka bir harness'e daha yakın
      Öyleyse amaç, o zihinsel modeli bizzat kurmak yerine paylaşılan bir LLM brain'e devretmek de olabilir
      Ama bu yaklaşımla ürün sahibine gerçekten değerli bir şey üretilebileceği konusunda oldukça şüpheliyim. Eğer sadece prompt'lar ve agent harness'leriyle değerli bir ürün yapılabiliyorsa, o ürünü herkes yeniden yapabilir, ürün geliştirme başlı başına commodity haline gelir ve geriye değer olarak yalnızca token'lar kalabilir
      Benim varsayımım, Paul Graham'ın do things that don’t scale yaklaşımının bundan sonra da geçerli kalacağı, ama ölçeklenmeyen işin içeriğinin değişeceği yönünde
      Yine de ben son zamanlarda Obsidian'ı gerçekten kullanmaya başladım. Not alma, araştırma, bağlantı kurma, bölme ve bilgi tabanını yeniden yapılandırma için becerileri ayarlayınca, sanki düzenlemeyi benim yerime yapan bir dijital asistan edinmiş gibi oldum
      Artık sadece dağınık düşüncelerimi yazsam bile ajan yapıyı kuruyor, takip soruları soruyor ve bunu başka işlerle ilişkilendiriyor. Kaynakları okuyup zihinsel modeli oluşturma işi hâlâ bende, ama yüksek kaliteli notları neredeyse bedavaya elde ediyorum
    • İnsanların AI ile devasa miktarda angarya üretip sonra da ona bir daha hiç bakmaması ciddi bir sorun bence
      Müthiş bir israf
    • Not alma konusunda tamamen katılıyorum. Notlar fazla hafife alınıyor; sonuçta tavan arası ya da bodrum gibi gereğinden fazla şey istifleniyor
      Çoğu şeyin baştan notlara girmesi gerekmiyor ve LLM doğrulama ya da filtreleme yapmadan gürültüyü fazlasıyla artırıyor
      Bu konuyu iyi ele alan bir video olarak JA Westenberg'in bir denemesi vardı
      https://youtube.com/watch?v=3E00ZNdFbEk
    • Şimdiye kadar çıkan az sayıdaki bilimsel araştırmaya bakılırsa, bu tür markdown koleksiyonlarını tamamen LLM'lerin sürdürdüğü durumlarda çıktı kalitesi düşüyor; insanlar sürdürdüğünde ise iyileşiyor
      Oldukça ilginçti
      Bence optimum nokta insan kürasyonu; özellikle debt ya da drift bilinçli biçimde yönetilmiyorsa, denetimsiz işletim çözüm değil
    • Ben de ilk başta bunun bir parodi olduğunu sandım
      Hele adının da The Office'te geçen o işe yaramaz ve yinelenen ürün Wuphf.com ile aynı olması bunu daha da güçlendirdi
  • Ürün adının yanına sadece AI ekleyince milyarlarca dolar geliyor, blog yazısına Karpathy yazınca da sanki Anthropic'te baş mühendis olarak işe alınıyorsun gibi bir hava var
    Bu, trend sürdüğü sürece para sağmaya çalışma hali gibi duruyor; müşterinin neye ihtiyaç duyduğu pek umursanmıyor hissi veriyor
    Herkes dalga varken hiç değilse elini yıkamaya çalışır gibi koşuyor

    • NFT, ondan önce blockchain, bir bakıma Web 2.0 çılgınlığı da benzerdi
      Yine de o zaman gerçekten bir şeyler inşa ediliyordu ve dönemin sıkı finansman ortamı aşırılığı biraz olsun bastırıyordu
      Bu LLM patlaması ise en azından gerçek bir imkân ve değer barındırıyor; ayrıca öğrenmesi ve kurcalaması da oldukça eğlenceli bir teknoloji
      Ben uzun zaman önce, bu tür alanlara para akıyorsa, etik dışı olmadığı sürece oradaki fırsatı yakalamanın doğru olduğu fikrini kabullendim. VC/PE parası akmaya devam ederken değerli ve havalı şeyler de üretilebilir
    • Çalışıyorsa tamamdır diye düşünülebilir. Herkesin AI araçları yapmasının bir sebebi var ve gerçekten hepimiz bunları satın alıyoruz
      Ben hâlâ Claude Code'un yerini alabilecek dünya çapında bir CLI harness'i bekliyorum. Bellek sorunlarını ve tasarım sorunlarını çözen bir şeye ihtiyaç var
      Web tasarımı ise LLM ile yapmak için hâlâ neredeyse bir kâbus
    • Geçen yıl zaten HubSpot kurucusu Dharmesh Shah tarafından desteklenen AI-native bir CRM yapmıştım, gelir de elde ediyordu; oradan tekrar tekrar yön değiştirerek context graph infra tarafının asıl hendek olduğuna karar verdim
      Enterprise PoC'ler de yaptık ve tüm bunlar sonunda benim kişisel işlerimi desteklemek için yanda geliştirdiğim bu projede yoğunlaştı. Sonuç olarak, context infra'yı gerçekten kullanışlı kılan arayüz bu oldu
      Anthropic'te baş mühendis olmak gibi bir hedefim yok. Eskiden HubSpot'ta Product Manager'dım ve gelirim şimdikinden çok daha yüksekti; önümüzdeki birkaç yıl boyunca da o seviyeye çıkamam muhtemelen
      Defalarca bahis yapıp sürekli iterasyon yapmamın nedeni müşterilerle doğrudan konuşarak evrilmemdi. Buna karşılık eski rakipler hâlâ stealth modda AI CRM yapıyor
      Sektörde uzun süredir bulunan biri olarak, dalganın kendisi önemli değil ama o dalganın altında çıkarılabilecek gerçek değer kesinlikle var diye düşünüyorum
  • Şu incelemeyi gördüm: https://zby.github.io/commonplace/agent-memory-systems/reviews/wuphf/
    24 saat içinde ana sayfaya çıkan üçüncü LLM wiki oldu, yani kesinlikle sıcak bir konu
    Benim de bu alanda bir çıkarım olduğu için tamamen tarafsız sayılmam ama bu tür sistemlerden beklentilerimi ayrı bir notta derlemiştim
    https://zby.github.io/commonplace/notes/designing-agent-memory-systems/
    Herkesin kendi sistemini sıfırdan yapması çok fazla yinelenen yatırım gibi görünüyor; keşke işbirliği yapılacak bir yol olsa

    • Notlar oldukça ilginçti
      Ama üsluba bakınca bunun LLM tarafından yazıldığı oldukça belli görünüyor; böyle tasarım notlarını sonradan kendi sözlerinle yeniden yazıp gerçekten kendi düşünceni yansıtıp yansıtmadığını kontrol ediyor musun diye merak ettim
    • Özellikle Borrowable Ideas bölümü çok hoşuma gitti; gerçekten bolca ödünç alınsa iyi olur
      Biz Karpathy LLM wiki fikrini ortaya atmadan çok önce nex.ai adlı bir context infra şirketi olarak yola çıkmıştık ve bu yeteneklerin çoğu WUPHF'te henüz pek görünmese de artık yavaş yavaş açığa çıkıyor
      Karşılaştırma yazısında dile getirilen kaygıların önemli bir kısmı, bizim zaten inşa etmiş olduğumuz context infra'da ele aldığımız şeylerdi; bunu görmek sevindiriciydi
      Yine de tekrarı azaltacak ve öğrenilenleri paylaşacak her türlü işbirliğine açığız
    • Üretken slot machine'lerin insanları izole eden bir yanı olduğu kesin
      İşbirliği fırsatı olsa iyi olur demişsin ama sanki şu anda böyle bir fırsat yokmuş gibi geliyor, bu da bana tuhaf geldi
    • Bir okuyayım
    • Dürüst olmak gerekirse bunun artık kendin kurup çalıştırdığın bir alana girdiğini düşünüyorum
      Obsidian vault'un üstüne sadece QMD koysan bile %80'e gelirsin; muhtemelen 2 saat bile sürmez
  • Bağlam için Karpathy'nin orijinal paylaşım bağlantıları da burada
    https://x.com/karpathy/status/2039805659525644595
    https://xcancel.com/karpathy/status/2039805659525644595

  • AI Notes gerçekten değer mi katacak, yoksa sadece gürültü mü üretecek merak ediyorum
    Yine de sitenin ASCII stilini oldukça beğendim

  • Bu sorunun çözümü olarak birilerinin StackOverflow revival benzeri bir şey yapmasını isterdim
    İnsan kürasyonu olurdu ama kolektif LLM'ler bir problemi çözerken tıkanınca eski usul soru gönderilen bir dağıtık bilgi grafiğine dönüşebilirdi
    Ajanımın “burada tıkandım, SO'ya bir soru bıraktım; cevap gelince sonra geri döneriz” demesi bana gayet makul geliyor

  • LLM'in çok fazla yazmasını nasıl engelleyebileceğimizi merak ediyorum
    Buna benzer birkaç araç ve sistem yaptım; hepsinde LLM belgeleri durmadan şişirdi ve sonunda tüm sistem berbat hale geldi, büyüdükçe de daha az kullanışlı oldu
    Daha önce denediğim deneylerden birinde, sadece birkaç bağlantı veriyordum; LLM de ilgili konuları araştırıp kendi knowledge wiki'sini oluşturuyor, her sayfaya özetler, çapraz bağlantılar ve kaynaklar ekliyordu
    Dışarıdan bakınca iyi görünüyordu ama gerçek veriyi okuyunca pek öyle değildi
    Bu birkaç yıl önceydi; belki şimdi opus 4.7 gibi bir şeyle tekrar denemeye değer olabilir

  • Düşünmeye değer bir not olarak, TiddlyWiki topluluğu da elbette AI araçlarını araştırıyordu
    TiddlyWiki, kendi kendini değiştirebilen tek HTML dosyası tabanlı bir wiki ve 20 yılı aşkın süredir varlığını sürdürüyor
    Tam olarak agentic bir ortama evrilmiş değil ama markdown eklentileri var; dosyaları çalıştırılabilir ya da self-serving web uygulamalarına dönüştüren araçlar da mevcut. Git biraz zahmetli
    Bu yüzden teoride, tek dosyalık bir agentic wiki dolaşıp kendi kendini değiştirebilir
    https://tiddlywiki.com/

    • Bilgi olsun diye söyleyeyim, TiddlyWiki'yi ilk yaratan kişi benim
      Sözünü ettiğin tek dosya yapısı için zaten birkaç LLM bağlayıcısı var. Mesela https://github.com/rimir-cc/tw-llm-connect
      Cazibesi de tam burada. Bağımlılık yok, kurulum gerekmiyor, saklaması çok kolay; dolayısıyla kendi kendini düzenleyen tek dosyalık agentic wiki yapısı bugün bile mümkün
      Karpathy'nin LLM Wiki kalıbına daha yakın olarak üzerinde çalıştığım twillm de var
      https://github.com/Jermolene/twillm
      Bu, TiddlyWiki'nin Node.js kurulumunu kullanıyor ve tiddler'ları ayrı dosyalar halinde saklayarak mevcut Markdown vault'unu doğrudan işaretleyebiliyor; Claude Code gibi araçlarla birlikte de kullanılabiliyor
      TiddlyWiki'nin avantajları da oldukça belirgin. Açık kaynak olduğu için uzun vadede kullanılmaya devam edebilir ve web tabanlı olduğu için her yerden erişilebilir
      Ayrıca hesaplanmış görünümler, materialized index dosyalarının yerini alıyor. Karpathy yaklaşımında LLM'in her not eklediğinde index.md'yi sürekli senkron tutması gerekiyor; bu tür işler oturumlar değiştikçe kolayca stale oluyor ve LLM'lerin özellikle kötü olduğu bir alan
      Buna karşılık TiddlyWiki görünümleri gerçek zamanlı filtre ifadeleri; örneğin “concept etiketi taşıyan tiddler'ları rating'e göre sırala” gibi bir sonuç, render anında anlık olarak hesaplanıyor
      Frontmatter da sorgulanabilir bir yapıya dönüşüyor. Obsidian YAML frontmatter'ı notların üst kısmında kutu biçimli metadata olarak gösterirken, TiddlyWiki bu alanları birinci sınıf tiddler alanlarına yükseltiyor ve bunları filtreleme, sıralama, toplulaştırma için doğrudan kullanılabilir hale getiriyor
      Üstelik LLM sadece içerik değil, küçük applet'ler de yazabiliyor. Sadece Markdown notları değil, wikitext tiddler (.tid) da ekleyerek dashboard'lar, etiket gezginleri, günlük indeksleri, sözlükler gibi etkileşimli canlı görünümler oluşturabiliyor
  • Kendini inşa eden artefact'lar alanı ilginç ve son dönemde özellikle kodlama odaklı LLM'ler burada hızla güçlenirken alan da ciddi biçimde büyüyor
    Ben de yakın zamanda bağımlılıkları en aza indiren ve ajanı yerelde kontrol etmeye odaklanan bir projeyi denedim
    https://github.com/GistNoesis/Shoggoth.db/
    Prompt olarak verilen uzun süreli işleri yapmak için kendi sqlite veritabanını oluşturup düzenliyor; kaynak veri olarak da Wikipedia'nın yerel bir kopyasını kullanıyor
    Agent drift'i denemek için eklediğim harness ve araçlar da son derece minimal
    Görsel işleme araçlarını bağlamak da oldukça kolay. Görselleri base64'e kodlayıp llama.cpp'ye veriyorsun; ayrıntılı uygulamayı ise yerel LLM ile biraz vibecoding yaparak çözebiliyorsun
    Bence oldukça genel amaçlı faydalı bir araç
    Mesela eskiden bir klasördeki faturalar ve fişlerden tutar, tarih ve satıcıyı çıkarmak için Amazon Textract kullanan bir betiğim vardı; sonra bir insan sayıları kontrol ediyor ve muhasebeciye verilecek CSV'yi hazırlıyordu
    Şimdi bu Amazon Textract çağrısını uygun bir prompt'la yapılan llama.cpp model çağrısıyla değiştirebilir, mevcut fatura aracını korurken çok daha yaratıcı muhasebe işlemleri de yapabilirsin
    Ayrıca kamera görüntüsü dizileriyle fiziksel bir robotu hareket ettiren bir varyasyon da denedim; basit durumlarda gerçekten hareket edip hedefe ulaşıyordu
    Ama kullandığım LLM aslında robot sürmek için eğitilmemişti ve sonraki eylemi seçmesi 10 saniye sürüyordu; bu yüzden pratik değildi. Şu anda derin öğrenme dışı klasik kontrolcüler görüş döngüsünü 20Hz'te çalıştırıyor

  • LLM modelleri ve onların üstündeki ajanlar deterministik değil, olasılıksal
    Bir şeyi belli bir oranda başarıyorlar ama her seferinde başarmıyorlar
    Bu yüzden ajanın üstlendiği iş ne kadar uzun sürerse başarısızlık olasılığı da o kadar büyüyor. Bu tür uzun süre çalışan ajanlar sonunda başarısız oluyor ve bu sırada ciddi miktarda token maliyeti de yakıyor
    LLM ajanlarının iyi yaptığı şeylerden biri kendi talimatlarını yeniden yazmak
    İşin püf noktası, thinking model'in süresini ve düşünme adımlarını kısıtlamak; ardından değerlendirmek, güncellemek ve yeniden çalıştırmak
    Benzetme yaparsak ajanların düşeceğini varsaymak gerekir. Uzun süre koşturup düşmelerini beklemek yerine, 10 dakikada bir kez yerine 5 dakikada iki kez daha iyidir
    Birkaç hafta içinde bu tür öz göndergesel ajanlar Twitter akışlarının tepesini kaplar gibi geliyor

    • Ajanlar ve ML, dış geri bildirim olmadığında local maxima'ya takılıp kalma sorununa da sahip
      Bu yüzden bu tür wikiler belli bir duruma ulaştığında orada takılıp kalabilir