168 puan yazan GN⁺ 25 일 전 | 15 yorum | WhatsApp'ta paylaş
  • Andrej Karpathy kısa süre önce, koddan çok kişisel bilgi deposu oluşturmak için token harcadığını söyleyerek bu LLM tabanlı vikiyi üretmek için bir fikir kılavuzu dosyası paylaştı
  • Bu dosya ajana verildiğinde, ajan vikiyi kendi başına oluşturuyor ve nasıl kullanılacağını yönlendiriyor
  • Vikiyi doğrudan LLM’in yazıp yönettiği bu yaklaşımda, her sorguda bilgiyi özgün kaynaklardan yeniden çıkaran RAG yönteminden farklı olarak bilginin kademeli olarak biriktiği kalıcı viki (persistent wiki) kuruluyor
  • Viki, Obsidian gibi araçlarda açık tutuluyor; LLM Markdown dosyalarını gerçek zamanlı düzenleyip güncelliyor ve kullanıcı kaynak sağlama ile soru sormaya odaklanıyor
  • Yeni bir kaynak eklendiğinde LLM içeriği okuyup mevcut vikiye entegre ediyor, çapraz referanslar kuruyor; tek bir kaynağın işlenmesiyle 10~15 viki sayfası güncellenebiliyor
  • Kişisel sağlık ve hedef yönetimi, araştırma, okuma notları, ekip içi viki gibi bilginin zaman içinde biriktiği her alana uygulanabiliyor
  • Viki bakımındaki temel engel olan kayıt tutma maliyetini LLM’in neredeyse sıfıra indirmesi, insanların vazgeçtiği viki yönetimi sorununu çözüyor

Temel fikir

  • LLM ile belge kullanımı yaklaşımlarının çoğu RAG (Retrieval-Augmented Generation) biçiminde çalışır: bir dosya koleksiyonu yüklenir ve LLM sorgu anında ilgili parçaları bulup yanıt üretir
    • NotebookLM, ChatGPT dosya yükleme ve çoğu RAG sistemi bu şekilde çalışır
    • Her seferinde bilgi yeniden çıkarılır; bilgi birikimi yoktur
  • LLM-Wiki’nin yaklaşımı farklıdır: LLM özgün kaynaklarda doğrudan arama yapmak yerine kalıcı bir vikiyi kademeli olarak kurup sürdürür
    • Yeni kaynak eklendiğinde LLM içeriği okuyup temel bilgileri çıkarır ve bunları mevcut vikiye entegre eder
    • Varlık sayfalarını günceller, konu özetlerini revize eder, yeni verilerle önceki iddialar arasındaki çelişkileri işaretler ve sentezi güçlendirir
  • Viki, kalıcı ve bileşik şekilde büyüyen bir çıktı (persistent, compounding artifact) niteliğindedir: çapraz referanslar zaten kuruludur, çelişkiler zaten işaretlenmiştir ve sentez zaten yansıtılmıştır
  • Gerçek kullanım örneği: bir tarafta LLM ajanı, diğer tarafta Obsidian açık tutulur ve LLM’in düzenlediği içerik gerçek zamanlı izlenir
    • Obsidian = IDE, LLM = programcı, viki = kod tabanı

Uygulama alanları

  • Kişisel: hedef, sağlık, psikoloji, öz gelişim takibi — günlükler, makaleler ve podcast notları toplanarak yapılandırılmış bir benlik kaydı oluşturulur
  • Araştırma: haftalar ya da aylar boyunca makale, haber ve rapor okunurken gelişen tezleri içeren kapsamlı bir viki kurulur
  • Okuma: bölümlere göre not çıkarılır; karakterler, temalar ve olay örgüsü sayfalar halinde düzenlenir — Tolkien Gateway gibi binlerce birbiriyle bağlantılı sayfa kişisel bir okur tarafından kurulabilir
  • İş/Ekip: Slack dizileri, toplantı dökümleri, proje belgeleri ve müşteri görüşmeleriyle LLM’in sürdürdüğü bir iç viki oluşturulabilir
  • Bunun dışında rekabet analizi, durum tespiti (due diligence), seyahat planlama, ders notları, hobilerde derinleşme gibi bilginin biriktiği her alana uygulanabilir

Mimari (3 katman)

  • Ham kaynaklar (Raw sources): kürasyonu yapılmış kaynak belge koleksiyonu — makaleler, akademik yayınlar, görseller, veri dosyaları
    • Değiştirilemez (immutable); LLM yalnızca okur, düzenlemez
    • Bu katman gerçeğin kaynağıdır (source of truth)
  • Viki (The wiki): LLM’in oluşturduğu Markdown dosyaları dizini — özetler, varlık sayfaları, kavram sayfaları, karşılaştırmalar, genel bakışlar, sentezler
    • LLM bu katmanın tamamına sahiptir: sayfa oluşturur, kaynak eklendiğinde günceller, çapraz referansları korur
    • Kullanıcı sadece okur, yazıyı LLM yazar
  • Şema (The schema): LLM’e viki yapısını, konvansiyonları ve iş akışını anlatan yapılandırma belgesi (CLAUDE.md for Claude Code, AGENTS.md for Codex)
    • LLM’i sıradan bir sohbet botundan ziyade sistematik bir viki yöneticisine dönüştüren temel ayar dosyasıdır
    • Kullanıcı ve LLM bunu zaman içinde birlikte geliştirir

Başlıca işlemler (Operations)

  • Ingest: yeni bir kaynağı ham kaynak koleksiyonuna ekleyip LLM’e işlemesini söylemek
    • LLM kaynağı okur → ana içeriği değerlendirir → vikide özet sayfası yazar → indeksi günceller → ilgili varlık ve kavram sayfalarını günceller → log girdisi ekler
    • Tek bir kaynak 10~15 viki sayfasını etkileyebilir
    • Kaynakları tek tek işleyip yakından yönlendirmek de, denetimi azaltıp toplu işlemek de mümkündür
  • Query: viki üzerinde soru sormak; LLM ilgili sayfaları bulur ve alıntılarla yanıt sentezler
    • Yanıtlar Markdown sayfaları, karşılaştırma tabloları, slide deck’ler (Marp), grafikler (matplotlib), canvas vb. farklı biçimlerde olabilir
    • İyi yanıtlar vikide yeni sayfalar olarak yeniden kaydedilebilir — keşif sürecinin kendisi bilgi tabanına eklenir
  • Lint: periyodik olarak LLM’den viki durumunu denetlemesini istemek
    • Denetim maddeleri: sayfalar arası çelişkiler, yeni kaynaklarla geçersiz hale gelmiş eski iddialar, iç link almayan yetim sayfalar, kendi sayfası olmayan önemli kavramlar, eksik çapraz referanslar, web aramasıyla doldurulabilecek veri boşlukları

İndeksleme ve loglama

  • index.md: içerik odaklı dosya — vikideki tüm sayfaları bağlantılar, tek satırlık özetler ve meta verilerle kataloglar
    • LLM, sorgulara yanıt verirken önce indeksi okur ve ardından ilgili sayfalara gider
    • ~100 kaynak ve yüzlerce sayfa ölçeğinde, embedding tabanlı RAG altyapısı olmadan da iyi çalışır
  • log.md: kronolojik kayıt — ingest, query ve lint geçişlerini sırayla kaydeder
    • Her girdinin öneki tutarlı yazılırsa Unix araçlarıyla ayrıştırılabilir
      • Örnek: ## [2026-04-02] ingest | Article Titlegrep "^## \[" log.md | tail -5 ile son 5 girdiyi görmek mümkün

İsteğe bağlı CLI araçları

  • Viki büyüdükçe, LLM’in daha verimli çalışabilmesi için küçük araçlar geliştirilebilir
  • qmd: Markdown dosyaları için yerel arama motoru — BM25/vektör hibrit arama ve LLM reranking, hepsi cihaz üzerinde
    • CLI (LLM’in shell out yapabilmesi için) ve MCP sunucusu (LLM’in bunu yerel araç olarak kullanabilmesi için) desteği sunar
  • Küçük ölçekte yalnızca indeks dosyası yeterlidir; ihtiyaç halinde LLM yardımıyla basit arama script’leri doğrudan yazılabilir

İpuçları ve araç kullanımı

  • Obsidian Web Clipper: web makalelerini Markdown’a dönüştüren tarayıcı uzantısı — kaynakları ham koleksiyona hızlıca eklemek için yararlı
  • Yerel görsel kaydetme: Obsidian Settings → Files and links bölümünde ek klasör yolunu ayarladıktan sonra kısayolla görseller yerel diske kaydedilebilir
    • LLM, satır içi görseller içeren Markdown’ı tek seferde okuyamadığı için önce metni okuyup sonra görsellere ayrı bakacak şekilde işler
  • Obsidian Graph View: vikinin genel yapısını görmek için — bağlantılar, merkez sayfalar ve yetim sayfaları incelemek için ideal
  • Marp: Markdown tabanlı slide deck formatı — Obsidian eklentisi vardır; viki içeriğinden doğrudan sunum üretilebilir
  • Dataview: sayfa frontmatter’ı üzerinde sorgu çalıştıran Obsidian eklentisi — LLM YAML frontmatter (etiketler, tarihler, kaynak sayısı) eklediğinde dinamik tablolar ve listeler üretilebilir
  • Viki, Markdown dosyalarından oluşan bir git deposudur — sürüm geçmişi, branching ve iş birliğini ücretsiz sağlar

Nasıl çalışıyor

  • Bilgi tabanını sürdürmedeki temel engel, okuma ya da düşünme değil kayıt tutma (bookkeeping) işidir: çapraz referansları güncellemek, özetleri güncel tutmak, çelişkileri işaretlemek, onlarca sayfada tutarlılığı korumak
  • İnsanların vikilerden vazgeçmesinin nedeni, bakım yükünün değerden daha hızlı artmasıdır
  • LLM sıkılmaz, çapraz referans güncellemelerini unutmaz ve aynı anda 15 dosya işleyebilir → bakım maliyeti neredeyse sıfıra yaklaşır
  • Bu fikir, ruhen Vannevar Bush’un Memex (1945) kavramıyla bağlantılıdır: kişisel, etkin biçimde kürasyonu yapılan ve belgeler arası bağlantıların belgelerin kendisi kadar değer taşıdığı bir bilgi deposu
    • Bush’un çözemediği “bakımını kim yapacak?” sorununu LLM üstlenir

Bu belgenin niteliği

  • Bu belge bilerek soyut yazılmıştır — amaç belirli bir uygulamayı değil, fikrin kendisini aktarmaktır
  • Dizin yapısı, şema konvansiyonları, sayfa formatı ve araçlar gibi ayrıntılar alana, tercihlere ve LLM’e göre değişir
  • Tüm bileşenler isteğe bağlı ve modülerdir — gerekenleri kullanın, gerekmeyenleri yok sayın
  • LLM ajanıyla paylaşıp ardından ihtiyaçlara uygun sürümü birlikte somutlaştırma yöntemiyle kullanılması önerilir

15 yorum

 
xguru 25 일 전

Bunu kullanan Farzapedia: 2.500 günlük, not ve mesajdan oluşturulmuş kişisel Wikipedia

  • LLM kullanarak günlükler, Apple Notes ve iMessage konuşmalarındaki 2.500 öğeyi girdi olarak verip 400 ayrıntılı wiki belgesini otomatik oluşturuyor
  • Arkadaşlar, startup'lar, ilgi duyulan araştırma alanları, sevilen animeler ve bunların etkilerine kadar içeriyor; ayrıca backlink'lerle birbirine bağlı
  • Wiki, kişisel okuma için değil, ajanların kullanacağı bir bilgi tabanı olarak tasarlanmış; bu yüzden dosya yapısı ve backlink'ler ajanların taramasına uygun bir biçimde düzenlenmiş
  • Claude Code wiki'ye bağlanıyor ve index.md giriş noktası olarak kullanılıyor; sorgu geldiğinde ajan ihtiyaç duyduğu sayfaları doğrudan gezerek çalışıyor
  • Kullanım örneği: Yeni bir landing page üzerinde çalışırken "Son zamanlarda ilham aldığım görselleri ve filmleri referans alarak bana metin ve tasarım fikirleri ver" denildiğinde, ajan Studio Ghibli belgeseline dayalı "felsefe" belgesini, YC şirketlerinin landing page ekran görüntülerini içeren "rakipler" belgesini ve kaydedilmiş 1970'ler Beatles ürün görsellerini birlikte değerlendirip yanıt veriyor
  • 1 yıl önce RAG tabanlı benzer bir sistem kurulmuştu ancak performansı iyi değildi; ajanların dosya sistemi üzerinden doğrudan gezinmesi çok daha etkili oldu
  • Yeni bir öğe (makale, ilham görseli, toplantı notu vb.) eklendiğinde sistem ilgili 2-3 mevcut belgeyi otomatik güncelliyor ya da yeni belge oluşturuyor

Karpathy'nin açıkladığı LLM Wiki tabanlı kişiselleştirmenin 4 avantajı

  • Yukarıdaki Farzapedia'yı LLM Wiki tweet'i için iyi bir gerçek kullanım örneği olarak anıyor ve "kullandıkça kendiliğinden daha iyi hale gelir" türü mevcut AI kişiselleştirme yaklaşımlarıyla karşılaştırarak bu yaklaşımın 4 avantajını özetliyor
  • Açıklık (Explicit): Bellek çıktısı wiki biçiminde açıkça mevcut; AI'ın neyi bilip bilmediği doğrudan görülebiliyor ve yönetilebiliyor — bilgi, opak bir sistemin içine gömülmek yerine gözle görülebilen bir formda bulunuyor
  • Veri sahipliği (Yours): Veriler belirli bir AI sağlayıcısının sistemi yerine yerel bilgisayarda saklanıyor; çıkarılamayan bir biçimde kilitli kalmadığı için bilgi üzerinde tam kontrol korunuyor
  • Uygulama yerine dosya (File over app): Bellek; Markdown, görsel ve benzeri genel formatlardaki dosya koleksiyonu olarak yapılandırılıyor, bu da çeşitli araçlar ve CLI ile uyum sağlıyor — ajan tüm Unix araç setini kullanabiliyor, ayrıca Obsidian gibi istenen arayüzlerle görüntülenebiliyor
  • AI seçme özgürlüğü (BYOAI): Claude, Codex, OpenCode gibi istenen AI serbestçe bağlanabiliyor — açık kaynaklı bir AI'ı wiki ile fine-tune ederek veriye sadece referans vermenin ötesinde, kişisel bilgiyi doğrudan ağırlıkların içine yerleştirmek de prensipte mümkün
  • Bu yöntem en basit yaklaşım değil ve dosya dizini yönetimi gerektiriyor; ancak ajanlar bu sürecin önemli bir kısmında yardımcı olabiliyor
  • "Ajan kullanma yetkinliği (agent proficiency), 21. yüzyılın temel becerisidir" diye vurguluyor ve İngilizce komut verildiğinde bilgisayar işlerini sizin yerinize yapan bu aracı bizzat deneyimlemeyi öneriyor
 
dkmin 25 일 전

Paylaşım için teşekkürler. Denedim ve gerçekten şaşırtıcı.
Toplulukta bunun daha da geliştirilmiş yöntemlerinin çıkmaya devam edeceğini tahmin ediyorum

 
kurthong 23 일 전

Ben de uyguladım. Birden fazla donanım kullanırken Obsidian vault'u GitHub yedeğiyle entegre edebilmek için biraz ekleme yaptım. Ayrıca Codex ve Gemini için parser'lar da hazırlayıp ekledim. https://github.com/hang-in/seCall

 
kuthia 21 일 전

Oldukça sade ve hoş görünüyor.

 
trpgfox 23 일 전

Vay, metni okuyunca ben de ne yapacağımı bilememiştim ama ilgili GitHub deposuna bakınca yol görünmeye başladı, gerçekten çok teşekkür ederim

 
kurthong 23 일 전

bm25 Korece aramada zayıf olduğu için, Koreceyi de iyi arayabilen ayrı bir guardrail’i uyguladım.

 
stadia 24 일 전

Pek bir şey olmayan temel Vault’u başlatıp o tek dosyayı okumasını sağladıktan sonra, bu fikri somutlaştırmak istediğimi söyleyince superpowers’un beyin fırtınası becerisiyle birlikte genel çerçeveyi kurdu ve hatta CLAUDE.md ile Obsidian eklenti ayarlarını bile tamamladı.

 
GN⁺ 25 일 전
Hacker News görüşleri
  • Bu yaklaşımın sonunda model çöküşüne (model collapse) yol açacak gibi göründüğünü düşünüyorum
    Nature makalesine bakınca, LLM belgeleri yazdıkça mevcut doğru bilgileri giderek daha az özlü biçimde yeniden yazarak kalitenin kümülatif olarak düştüğü görülüyor
    Karpathy'nin bu sorunu görmemesi şaşırtıcı. AI aşırıcıları sanki bir tür "normal duyuyu" kaybetmiş gibi geliyor
    LLM'in ürettiği sonuçtan çok “benim yazdığım gizli sosu” vurgulamak istemeye başladığınızda, nedenini kendinize sormalısınız

    • O yazı LLM'i eğitmekten değil, zaten eğitilmiş bir modeli (ChatGPT veya Claude gibi) kullanarak kişisel bir wiki yazmaktan bahsediyor
    • Karpathy'nin yorumu işaretlenip kayboldu, ama Claude'un yazdığı uzun, alaycı bir paragrafı olduğu gibi yapıştırmıştı
      Böyle tepki vermesi hayal kırıklığı yarattı. “İnsanca konuşamıyorsan, hiç konuşma daha iyi” sözü aklıma geliyor
      Pek çok zeki insan sanki ‘makinedeki hayaleti’ görüp insani sezgisini kaybediyor
      Ezra Klein'ın yazdığı “I Saw Something New in San Francisco” yazısı bu olguyu iyi yakalıyordu
    • Ben kendini güncelleyen bir HTML dosyası oluşturmayı denedim; bu depo gibi basit bir prompt ile bile döngüye girmeden oldukça iyi çalıştı
    • Benim deneyimime göre LLM, tek bir claude.md dosyasını bile düzgün koruyamıyor. Tüm wiki çok daha imkânsız
  • Ben de benzer bir şeyi yönetim odaklı bir yaklaşımla yapıyorum
    Çalışma alanı genelindeki hafızayı görevler veya projelerle ilişkilendiriyor, SPA arayüzüyle gerçek zamanlı kontrol ediyorum
    hmem projesine bakabilirsiniz
    Modelin araştırma moduna geçip iç bilgisini düzenlemesini denedim ama sonunda LLM çorbası gibi karmakarışık hale geldi
    Kodlama projelerinde en etkili şey; net gereksinimler, yinelemeli iyileştirme ve iyi belgelenmiş koddı. Hafıza çok büyüyünce hata da artıyor

  • Bu sonuçta sorunu ertelemek gibi geliyor
    Wiki'yi korumak için LLM'in her seferinde kaynakların yerine wiki'yi yeniden okuması gerekir ve bu süreçte ikincil hatalar birikir
    10M context ya da 1000tps seviyesinde yeni nesil modeller çıkınca bu yaklaşımın anlamsız hale geleceğini düşünüyorum

    • Zaten 1M context modeller var, ama hafıza kaybı 200 bin-300 bin token civarında başlıyor. 10M context olsa bile temel sınır aynı kalır
    • Ben Obsidian tabanlı bir sistemi kendim kurup üzerine yapılandırılmış bir şema katmanı ekleyerek kullanıyorum
      Bu ara katman, tasarım niyetini yakalamak ve gerçek uygulamayla arasındaki kopukluğu görmek açısından çok faydalı
      Tamamen otonom, kendine referans veren sistemlerin değerli olduğunu düşünmüyorum. Gerçek değer, insanın “bu şöyle çalışmalı” diye müdahale edebildiği yapıda
      Sonuçta bu deneyler ilginç ama pratikte anlamsız. Büyük model sağlayıcıları çok daha hızlı ilerliyor, o yüzden şimdilik basit bir temel kullanmak daha mantıklı
    • “Her şeyi bir sonraki nesil model çözecek” mantığı doğru olabilir ama buna inanırsanız hiçbir şey inşa etmezsiniz
    • Amaç tüm context'i korumak değil, sorgulanabilir bir hafıza oluşturmak. Bir bakıma fikirler için bir data lake gibi
    • Şimdilik birkaç ilginç makaleyi özetlemek için kullanılıyor ama gelecekte bir alanın tamamını birkaç makaleye sıkıştırabilen bir bilgi yoğunlaştırma aracı olabilir
  • Bu fikir bana 1960 tarihli Licklider'ın “Man-Computer Symbiosis” denemesini hatırlatıyor
    İnsan hedefleri belirliyor, bilgisayar hipotezleri modellere dönüştürüp doğruluyor ve yinelemeli hesaplamaları üstleniyor; bu da Intelligence Amplification kavramı
    Orijinal bağlantıya bakabilirsiniz

    • O, ortak çalışmaya yönelik ekran kavramını bile öngörmüştü. İnsanın elle çizdiği bir grafiği bilgisayarın tanıyıp anında daha rafine bir biçimde göstermesi gibi bir etkileşim hayal etmişti
  • İlgili fikri uygulayan sistemlerin listesi burada
    Ben commonplace adlı bir LLM tabanlı bilgi tabanı işletiyorum
    Bu sistem, teorinin kendisinin LLM tarafından okunup çalıştırılabilmesi için tasarlandı; yani teorinin doğrudan runtime olduğu bir yapı
    Hâlâ kaba ama bana iyi uyuyor

  • Ben de benzer bir aracı özellikle kod tabanları için yaptım
    llmdoc, dosya değişikliklerini hash ile algılıyor ve LLM bunu her dosyayı açıklayan tekil varlıklar olarak özet önbelleğine alıyor
    CLI üzerinden erişilebiliyor ve kod keşfi hızını ciddi biçimde artırıyor

  • Bu aslında büyük ölçüde RAG yapısı
    Vektör DB yok ama anlamsal bağlantı indeksleri oluşturup aramayı kolaylaştıran hiyerarşik bir yapı kurması bakımından aynı şey
    Ben de atomic projesini geliştiriyorum; wiki sentezine benzer fikirleri uygulayan bir AI bilgi tabanı

    • RAG için embedding şart değil. Sadece grep araması ile bile yeterince uygulanabilir
    • Kişisel KB için Multimodal KB + Agentic RAG kombinasyonunun uygun olduğunu düşünüyorum
      Örneğin DocMason, PPT veya Excel diyagramlarını çıkarıp Codex benzeri ajanların analiz etmesini sağlıyor
    • Buna sadece “RAG işte” demek pek doğru değil. Burada LLM, wiki'yi doğrudan yazıyor ve sürdürüyor; backlink oluşturuyor ve tutarsızlıkları kontrol ediyor
      Bu aramadan çok bilgi sentezine yakın. Sanki LLM kendi Zettelkasten sistemini yönetiyor gibi
      Proje ilginç görünüyor, mutlaka bakacağım
    • Bu tür uygulamalar için “birkaç sorum var” diye başlamak daha iyi olurdu sanırım
      Ben de LLM-WIKI fikrini uzun süredir düşünüyordum ama OP çok daha derine inmiş gibi. Gerçek bir ikinci beyne dönüşmesini umuyorum
    • Aslında bu, Copilot'un custom instruction dosyasına benziyor
      copilot-instructions.md belgesi gibi, LLM'in başvuracağı yönergeleri barındıran bir yapı
  • Ben de şirket projesinde benzer bir şey denedim
    Tükenmişlik ve aile bakımı yüzünden odaklanma gücüm düşünce, işin büyük bölümünü çok ajanlı workflow'lara devrettim
    Obsidian tabanlı bir Markdown wiki etrafında dönüyor ama sonuçta yeni bir teknik borç türü oluşuyor — sanki beynimin bir kısmı boşalmış gibi
    Yine de bu wiki workflow'u öylesine bağımlılık yapıcı ki bırakması zor

    • Ben de derin düşünme becerimi kaybedip kaybetmediğimden endişe ediyorum
    • Yanlış bir şey yapmıyorsunuz. Sadece belli bir karmaşıklık eşiği aşılınca ajan wiki'yi sürdüremiyor, geliştirici de bütününü anlayamıyor
    • Dokümantasyon yazmanın gerçek değeri sonuçta değil, yazım sürecinde düşüncenin netleşmesinde yatıyor
      LLM ne kadar iyi sonuç üretirse üretsin, kişisel wiki'de o süreç daha önemli
    • Düşünmek için zamanı geri kazanmak istiyorsanız çevrimdışı bir hobi edinmenizi öneririm
      Ben telefonsuz yürüyüşe çıkıyor veya yüzmeye giderek zihnimi boşaltıyorum. Fiziksel yorgunluk ile zihinsel yorgunluk farklı şeyler ve bu yardımcı oluyor
  • Bu yaklaşımın ilgi görmesine sevindim
    Ama belgelerle yapılandırılmış veriyi (iş öğeleri, ADR'ler vb.) karıştırınca yalnızca Markdown ile sorgulama yapmak zorlaşıyor
    AGENTS.md yaklaşımı bunu klasör kurallarını LLM'e öğreterek çözüyor ama veri karmaşıklaştıkça sınırlarına geliyor
    Bu yüzden Binder geliştiriyorum
    Veriyi yapılandırılmış bir DB'de tutuyor ama çift yönlü senkronize edilen Markdown olarak render ediyor
    LSP ile otomatik tamamlama ve doğrulama sağlıyor; ajanlar veya script'ler ise CLI ya da MCP üzerinden aynı veriye erişiyor

  • Ben de VS Code için AS Notes yaptım
    asnotes.io adresinden bakabilirsiniz
    Kişisel bilgi yönetim sistemi özelliklerini VS Code'a entegre ederek Markdown ve wikilink yazmayı, bağlamayı ve güncellemeyi kolaylaştırıyor
    Mermaid ve LaTeX render desteği de var
    Böylece AI sohbetlerinin çıktısını Markdown olarak kalıcı biçimde saklayabiliyorsunuz; bu da bana sıradan Copilot'tan daha fazla değer sağlıyormuş gibi hissettiriyor

 
sudoeng 24 일 전

Bunu kişisel bir bilgi deposu hissiyle kullanma fikrini ben de ilgi çekici buluyorum.
Ama yapay zekanın giderek biriken wiki bağlamını kaldırıp kaldıramayacağından henüz pek emin değilim.

 
kurthong 23 일 전

Genel bağlamda bu, geçmiş konuşmaları arama meselesi olduğundan, düzenleme konusundaki karmaşa iyi yönetilirse güzel bir fikir gibi görünüyor. Ben de bunun özellikle projeleri düzenleyip toparlamada çok yardımcı olduğunu düşünüyorum.

 
huturufu 24 일 전

Benim uygulamayı düşündüğüm şey openclaw içinde çıkmış. Alıp kullanayım bari.

 
junghan0611 24 일 전

Sonunda bu konuya da gelindi. Ben bu tema üzerinde uzun zamandır bahçeyi büyütüp harness'ler geliştiriyordum; bu yüzden benim için çok sevindirici bir gelişme. Kapasi hocanın know-how'ı ilgi çekici. PKM'nin özü, teknik zorluktan çok, kişinin uzun vadede biriktirme, yapılandırma ve bunu dışsal zekayla paylaşma sürecinde, karşılıklı eşevrim modelini insanın şekillendirmesi gibi görünüyor. Yani soru yeniden insana mı geri döndü, diye düşündürüyor. İnsan bizimle birlikte olmaya hazır mı, diye. Buna tek bir doğru cevap yok; herkes bunu kendi sorusuyla biriktirip inşa edecek. Heyecan verici. GeekNews, bu haber için teşekkürler.

 
calvinsnax 24 일 전

Önyargılı olmamak gerek ama... böyle yorumları görünce bir tuhaf oluyorum.

 
passerby 24 일 전

Botla yorum yapmanın nedeni nedir?

 
hmmhmmhm 23 일 전

Bu bot mu? Uzaylı zekası (???)