LLM-Wiki - LLM kullanarak kişisel bilgi deposu oluşturmak
(gist.github.com/karpathy)- Andrej Karpathy kısa süre önce, koddan çok kişisel bilgi deposu oluşturmak için token harcadığını söyleyerek bu LLM tabanlı vikiyi üretmek için bir fikir kılavuzu dosyası paylaştı
- Bu dosya ajana verildiğinde, ajan vikiyi kendi başına oluşturuyor ve nasıl kullanılacağını yönlendiriyor
- Vikiyi doğrudan LLM’in yazıp yönettiği bu yaklaşımda, her sorguda bilgiyi özgün kaynaklardan yeniden çıkaran RAG yönteminden farklı olarak bilginin kademeli olarak biriktiği kalıcı viki (persistent wiki) kuruluyor
- Viki, Obsidian gibi araçlarda açık tutuluyor; LLM Markdown dosyalarını gerçek zamanlı düzenleyip güncelliyor ve kullanıcı kaynak sağlama ile soru sormaya odaklanıyor
- Yeni bir kaynak eklendiğinde LLM içeriği okuyup mevcut vikiye entegre ediyor, çapraz referanslar kuruyor; tek bir kaynağın işlenmesiyle 10~15 viki sayfası güncellenebiliyor
- Kişisel sağlık ve hedef yönetimi, araştırma, okuma notları, ekip içi viki gibi bilginin zaman içinde biriktiği her alana uygulanabiliyor
- Viki bakımındaki temel engel olan kayıt tutma maliyetini LLM’in neredeyse sıfıra indirmesi, insanların vazgeçtiği viki yönetimi sorununu çözüyor
Temel fikir
- LLM ile belge kullanımı yaklaşımlarının çoğu RAG (Retrieval-Augmented Generation) biçiminde çalışır: bir dosya koleksiyonu yüklenir ve LLM sorgu anında ilgili parçaları bulup yanıt üretir
- NotebookLM, ChatGPT dosya yükleme ve çoğu RAG sistemi bu şekilde çalışır
- Her seferinde bilgi yeniden çıkarılır; bilgi birikimi yoktur
- LLM-Wiki’nin yaklaşımı farklıdır: LLM özgün kaynaklarda doğrudan arama yapmak yerine kalıcı bir vikiyi kademeli olarak kurup sürdürür
- Yeni kaynak eklendiğinde LLM içeriği okuyup temel bilgileri çıkarır ve bunları mevcut vikiye entegre eder
- Varlık sayfalarını günceller, konu özetlerini revize eder, yeni verilerle önceki iddialar arasındaki çelişkileri işaretler ve sentezi güçlendirir
- Viki, kalıcı ve bileşik şekilde büyüyen bir çıktı (persistent, compounding artifact) niteliğindedir: çapraz referanslar zaten kuruludur, çelişkiler zaten işaretlenmiştir ve sentez zaten yansıtılmıştır
- Gerçek kullanım örneği: bir tarafta LLM ajanı, diğer tarafta Obsidian açık tutulur ve LLM’in düzenlediği içerik gerçek zamanlı izlenir
- Obsidian = IDE, LLM = programcı, viki = kod tabanı
Uygulama alanları
- Kişisel: hedef, sağlık, psikoloji, öz gelişim takibi — günlükler, makaleler ve podcast notları toplanarak yapılandırılmış bir benlik kaydı oluşturulur
- Araştırma: haftalar ya da aylar boyunca makale, haber ve rapor okunurken gelişen tezleri içeren kapsamlı bir viki kurulur
- Okuma: bölümlere göre not çıkarılır; karakterler, temalar ve olay örgüsü sayfalar halinde düzenlenir — Tolkien Gateway gibi binlerce birbiriyle bağlantılı sayfa kişisel bir okur tarafından kurulabilir
- İş/Ekip: Slack dizileri, toplantı dökümleri, proje belgeleri ve müşteri görüşmeleriyle LLM’in sürdürdüğü bir iç viki oluşturulabilir
- Bunun dışında rekabet analizi, durum tespiti (due diligence), seyahat planlama, ders notları, hobilerde derinleşme gibi bilginin biriktiği her alana uygulanabilir
Mimari (3 katman)
- Ham kaynaklar (Raw sources): kürasyonu yapılmış kaynak belge koleksiyonu — makaleler, akademik yayınlar, görseller, veri dosyaları
- Değiştirilemez (immutable); LLM yalnızca okur, düzenlemez
- Bu katman gerçeğin kaynağıdır (source of truth)
- Viki (The wiki): LLM’in oluşturduğu Markdown dosyaları dizini — özetler, varlık sayfaları, kavram sayfaları, karşılaştırmalar, genel bakışlar, sentezler
- LLM bu katmanın tamamına sahiptir: sayfa oluşturur, kaynak eklendiğinde günceller, çapraz referansları korur
- Kullanıcı sadece okur, yazıyı LLM yazar
- Şema (The schema): LLM’e viki yapısını, konvansiyonları ve iş akışını anlatan yapılandırma belgesi (
CLAUDE.mdfor Claude Code,AGENTS.mdfor Codex)- LLM’i sıradan bir sohbet botundan ziyade sistematik bir viki yöneticisine dönüştüren temel ayar dosyasıdır
- Kullanıcı ve LLM bunu zaman içinde birlikte geliştirir
Başlıca işlemler (Operations)
- Ingest: yeni bir kaynağı ham kaynak koleksiyonuna ekleyip LLM’e işlemesini söylemek
- LLM kaynağı okur → ana içeriği değerlendirir → vikide özet sayfası yazar → indeksi günceller → ilgili varlık ve kavram sayfalarını günceller → log girdisi ekler
- Tek bir kaynak 10~15 viki sayfasını etkileyebilir
- Kaynakları tek tek işleyip yakından yönlendirmek de, denetimi azaltıp toplu işlemek de mümkündür
- Query: viki üzerinde soru sormak; LLM ilgili sayfaları bulur ve alıntılarla yanıt sentezler
- Yanıtlar Markdown sayfaları, karşılaştırma tabloları, slide deck’ler (Marp), grafikler (matplotlib), canvas vb. farklı biçimlerde olabilir
- İyi yanıtlar vikide yeni sayfalar olarak yeniden kaydedilebilir — keşif sürecinin kendisi bilgi tabanına eklenir
- Lint: periyodik olarak LLM’den viki durumunu denetlemesini istemek
- Denetim maddeleri: sayfalar arası çelişkiler, yeni kaynaklarla geçersiz hale gelmiş eski iddialar, iç link almayan yetim sayfalar, kendi sayfası olmayan önemli kavramlar, eksik çapraz referanslar, web aramasıyla doldurulabilecek veri boşlukları
İndeksleme ve loglama
- index.md: içerik odaklı dosya — vikideki tüm sayfaları bağlantılar, tek satırlık özetler ve meta verilerle kataloglar
- LLM, sorgulara yanıt verirken önce indeksi okur ve ardından ilgili sayfalara gider
- ~100 kaynak ve yüzlerce sayfa ölçeğinde, embedding tabanlı RAG altyapısı olmadan da iyi çalışır
- log.md: kronolojik kayıt — ingest, query ve lint geçişlerini sırayla kaydeder
- Her girdinin öneki tutarlı yazılırsa Unix araçlarıyla ayrıştırılabilir
- Örnek:
## [2026-04-02] ingest | Article Title→grep "^## \[" log.md | tail -5ile son 5 girdiyi görmek mümkün
- Örnek:
- Her girdinin öneki tutarlı yazılırsa Unix araçlarıyla ayrıştırılabilir
İsteğe bağlı CLI araçları
- Viki büyüdükçe, LLM’in daha verimli çalışabilmesi için küçük araçlar geliştirilebilir
- qmd: Markdown dosyaları için yerel arama motoru — BM25/vektör hibrit arama ve LLM reranking, hepsi cihaz üzerinde
- CLI (LLM’in shell out yapabilmesi için) ve MCP sunucusu (LLM’in bunu yerel araç olarak kullanabilmesi için) desteği sunar
- Küçük ölçekte yalnızca indeks dosyası yeterlidir; ihtiyaç halinde LLM yardımıyla basit arama script’leri doğrudan yazılabilir
İpuçları ve araç kullanımı
- Obsidian Web Clipper: web makalelerini Markdown’a dönüştüren tarayıcı uzantısı — kaynakları ham koleksiyona hızlıca eklemek için yararlı
- Yerel görsel kaydetme: Obsidian Settings → Files and links bölümünde ek klasör yolunu ayarladıktan sonra kısayolla görseller yerel diske kaydedilebilir
- LLM, satır içi görseller içeren Markdown’ı tek seferde okuyamadığı için önce metni okuyup sonra görsellere ayrı bakacak şekilde işler
- Obsidian Graph View: vikinin genel yapısını görmek için — bağlantılar, merkez sayfalar ve yetim sayfaları incelemek için ideal
- Marp: Markdown tabanlı slide deck formatı — Obsidian eklentisi vardır; viki içeriğinden doğrudan sunum üretilebilir
- Dataview: sayfa frontmatter’ı üzerinde sorgu çalıştıran Obsidian eklentisi — LLM YAML frontmatter (etiketler, tarihler, kaynak sayısı) eklediğinde dinamik tablolar ve listeler üretilebilir
- Viki, Markdown dosyalarından oluşan bir git deposudur — sürüm geçmişi, branching ve iş birliğini ücretsiz sağlar
Nasıl çalışıyor
- Bilgi tabanını sürdürmedeki temel engel, okuma ya da düşünme değil kayıt tutma (bookkeeping) işidir: çapraz referansları güncellemek, özetleri güncel tutmak, çelişkileri işaretlemek, onlarca sayfada tutarlılığı korumak
- İnsanların vikilerden vazgeçmesinin nedeni, bakım yükünün değerden daha hızlı artmasıdır
- LLM sıkılmaz, çapraz referans güncellemelerini unutmaz ve aynı anda 15 dosya işleyebilir → bakım maliyeti neredeyse sıfıra yaklaşır
- Bu fikir, ruhen Vannevar Bush’un Memex (1945) kavramıyla bağlantılıdır: kişisel, etkin biçimde kürasyonu yapılan ve belgeler arası bağlantıların belgelerin kendisi kadar değer taşıdığı bir bilgi deposu
- Bush’un çözemediği “bakımını kim yapacak?” sorununu LLM üstlenir
Bu belgenin niteliği
- Bu belge bilerek soyut yazılmıştır — amaç belirli bir uygulamayı değil, fikrin kendisini aktarmaktır
- Dizin yapısı, şema konvansiyonları, sayfa formatı ve araçlar gibi ayrıntılar alana, tercihlere ve LLM’e göre değişir
- Tüm bileşenler isteğe bağlı ve modülerdir — gerekenleri kullanın, gerekmeyenleri yok sayın
- LLM ajanıyla paylaşıp ardından ihtiyaçlara uygun sürümü birlikte somutlaştırma yöntemiyle kullanılması önerilir
15 yorum
Bunu kullanan Farzapedia: 2.500 günlük, not ve mesajdan oluşturulmuş kişisel Wikipedia
index.mdgiriş noktası olarak kullanılıyor; sorgu geldiğinde ajan ihtiyaç duyduğu sayfaları doğrudan gezerek çalışıyorKarpathy'nin açıkladığı LLM Wiki tabanlı kişiselleştirmenin 4 avantajı
Paylaşım için teşekkürler. Denedim ve gerçekten şaşırtıcı.
Toplulukta bunun daha da geliştirilmiş yöntemlerinin çıkmaya devam edeceğini tahmin ediyorum
Ben de uyguladım. Birden fazla donanım kullanırken Obsidian vault'u GitHub yedeğiyle entegre edebilmek için biraz ekleme yaptım. Ayrıca Codex ve Gemini için parser'lar da hazırlayıp ekledim. https://github.com/hang-in/seCall
Oldukça sade ve hoş görünüyor.
Vay, metni okuyunca ben de ne yapacağımı bilememiştim ama ilgili GitHub deposuna bakınca yol görünmeye başladı, gerçekten çok teşekkür ederim
bm25 Korece aramada zayıf olduğu için, Koreceyi de iyi arayabilen ayrı bir guardrail’i uyguladım.
Hacker News görüşleri
Bu yaklaşımın sonunda model çöküşüne (model collapse) yol açacak gibi göründüğünü düşünüyorum
Nature makalesine bakınca, LLM belgeleri yazdıkça mevcut doğru bilgileri giderek daha az özlü biçimde yeniden yazarak kalitenin kümülatif olarak düştüğü görülüyor
Karpathy'nin bu sorunu görmemesi şaşırtıcı. AI aşırıcıları sanki bir tür "normal duyuyu" kaybetmiş gibi geliyor
LLM'in ürettiği sonuçtan çok “benim yazdığım gizli sosu” vurgulamak istemeye başladığınızda, nedenini kendinize sormalısınız
Böyle tepki vermesi hayal kırıklığı yarattı. “İnsanca konuşamıyorsan, hiç konuşma daha iyi” sözü aklıma geliyor
Pek çok zeki insan sanki ‘makinedeki hayaleti’ görüp insani sezgisini kaybediyor
Ezra Klein'ın yazdığı “I Saw Something New in San Francisco” yazısı bu olguyu iyi yakalıyordu
Ben de benzer bir şeyi yönetim odaklı bir yaklaşımla yapıyorum
Çalışma alanı genelindeki hafızayı görevler veya projelerle ilişkilendiriyor, SPA arayüzüyle gerçek zamanlı kontrol ediyorum
hmem projesine bakabilirsiniz
Modelin araştırma moduna geçip iç bilgisini düzenlemesini denedim ama sonunda LLM çorbası gibi karmakarışık hale geldi
Kodlama projelerinde en etkili şey; net gereksinimler, yinelemeli iyileştirme ve iyi belgelenmiş koddı. Hafıza çok büyüyünce hata da artıyor
Bu sonuçta sorunu ertelemek gibi geliyor
Wiki'yi korumak için LLM'in her seferinde kaynakların yerine wiki'yi yeniden okuması gerekir ve bu süreçte ikincil hatalar birikir
10M context ya da 1000tps seviyesinde yeni nesil modeller çıkınca bu yaklaşımın anlamsız hale geleceğini düşünüyorum
Bu ara katman, tasarım niyetini yakalamak ve gerçek uygulamayla arasındaki kopukluğu görmek açısından çok faydalı
Tamamen otonom, kendine referans veren sistemlerin değerli olduğunu düşünmüyorum. Gerçek değer, insanın “bu şöyle çalışmalı” diye müdahale edebildiği yapıda
Sonuçta bu deneyler ilginç ama pratikte anlamsız. Büyük model sağlayıcıları çok daha hızlı ilerliyor, o yüzden şimdilik basit bir temel kullanmak daha mantıklı
Bu fikir bana 1960 tarihli Licklider'ın “Man-Computer Symbiosis” denemesini hatırlatıyor
İnsan hedefleri belirliyor, bilgisayar hipotezleri modellere dönüştürüp doğruluyor ve yinelemeli hesaplamaları üstleniyor; bu da Intelligence Amplification kavramı
Orijinal bağlantıya bakabilirsiniz
İlgili fikri uygulayan sistemlerin listesi burada
Ben commonplace adlı bir LLM tabanlı bilgi tabanı işletiyorum
Bu sistem, teorinin kendisinin LLM tarafından okunup çalıştırılabilmesi için tasarlandı; yani teorinin doğrudan runtime olduğu bir yapı
Hâlâ kaba ama bana iyi uyuyor
Ben de benzer bir aracı özellikle kod tabanları için yaptım
llmdoc, dosya değişikliklerini hash ile algılıyor ve LLM bunu her dosyayı açıklayan tekil varlıklar olarak özet önbelleğine alıyor
CLI üzerinden erişilebiliyor ve kod keşfi hızını ciddi biçimde artırıyor
Bu aslında büyük ölçüde RAG yapısı
Vektör DB yok ama anlamsal bağlantı indeksleri oluşturup aramayı kolaylaştıran hiyerarşik bir yapı kurması bakımından aynı şey
Ben de atomic projesini geliştiriyorum; wiki sentezine benzer fikirleri uygulayan bir AI bilgi tabanı
Örneğin DocMason, PPT veya Excel diyagramlarını çıkarıp Codex benzeri ajanların analiz etmesini sağlıyor
Bu aramadan çok bilgi sentezine yakın. Sanki LLM kendi Zettelkasten sistemini yönetiyor gibi
Proje ilginç görünüyor, mutlaka bakacağım
Ben de LLM-WIKI fikrini uzun süredir düşünüyordum ama OP çok daha derine inmiş gibi. Gerçek bir ikinci beyne dönüşmesini umuyorum
copilot-instructions.md belgesi gibi, LLM'in başvuracağı yönergeleri barındıran bir yapı
Ben de şirket projesinde benzer bir şey denedim
Tükenmişlik ve aile bakımı yüzünden odaklanma gücüm düşünce, işin büyük bölümünü çok ajanlı workflow'lara devrettim
Obsidian tabanlı bir Markdown wiki etrafında dönüyor ama sonuçta yeni bir teknik borç türü oluşuyor — sanki beynimin bir kısmı boşalmış gibi
Yine de bu wiki workflow'u öylesine bağımlılık yapıcı ki bırakması zor
LLM ne kadar iyi sonuç üretirse üretsin, kişisel wiki'de o süreç daha önemli
Ben telefonsuz yürüyüşe çıkıyor veya yüzmeye giderek zihnimi boşaltıyorum. Fiziksel yorgunluk ile zihinsel yorgunluk farklı şeyler ve bu yardımcı oluyor
Bu yaklaşımın ilgi görmesine sevindim
Ama belgelerle yapılandırılmış veriyi (iş öğeleri, ADR'ler vb.) karıştırınca yalnızca Markdown ile sorgulama yapmak zorlaşıyor
AGENTS.md yaklaşımı bunu klasör kurallarını LLM'e öğreterek çözüyor ama veri karmaşıklaştıkça sınırlarına geliyor
Bu yüzden Binder geliştiriyorum
Veriyi yapılandırılmış bir DB'de tutuyor ama çift yönlü senkronize edilen Markdown olarak render ediyor
LSP ile otomatik tamamlama ve doğrulama sağlıyor; ajanlar veya script'ler ise CLI ya da MCP üzerinden aynı veriye erişiyor
Ben de VS Code için AS Notes yaptım
asnotes.io adresinden bakabilirsiniz
Kişisel bilgi yönetim sistemi özelliklerini VS Code'a entegre ederek Markdown ve wikilink yazmayı, bağlamayı ve güncellemeyi kolaylaştırıyor
Mermaid ve LaTeX render desteği de var
Böylece AI sohbetlerinin çıktısını Markdown olarak kalıcı biçimde saklayabiliyorsunuz; bu da bana sıradan Copilot'tan daha fazla değer sağlıyormuş gibi hissettiriyor
Pek bir şey olmayan temel Vault’u başlatıp o tek dosyayı okumasını sağladıktan sonra, bu fikri somutlaştırmak istediğimi söyleyince superpowers’un beyin fırtınası becerisiyle birlikte genel çerçeveyi kurdu ve hatta
CLAUDE.mdile Obsidian eklenti ayarlarını bile tamamladı.Bunu kişisel bir bilgi deposu hissiyle kullanma fikrini ben de ilgi çekici buluyorum.
Ama yapay zekanın giderek biriken wiki bağlamını kaldırıp kaldıramayacağından henüz pek emin değilim.
Genel bağlamda bu, geçmiş konuşmaları arama meselesi olduğundan, düzenleme konusundaki karmaşa iyi yönetilirse güzel bir fikir gibi görünüyor. Ben de bunun özellikle projeleri düzenleyip toparlamada çok yardımcı olduğunu düşünüyorum.
Benim uygulamayı düşündüğüm şey
openclawiçinde çıkmış. Alıp kullanayım bari.Sonunda bu konuya da gelindi. Ben bu tema üzerinde uzun zamandır bahçeyi büyütüp harness'ler geliştiriyordum; bu yüzden benim için çok sevindirici bir gelişme. Kapasi hocanın know-how'ı ilgi çekici. PKM'nin özü, teknik zorluktan çok, kişinin uzun vadede biriktirme, yapılandırma ve bunu dışsal zekayla paylaşma sürecinde, karşılıklı eşevrim modelini insanın şekillendirmesi gibi görünüyor. Yani soru yeniden insana mı geri döndü, diye düşündürüyor. İnsan bizimle birlikte olmaya hazır mı, diye. Buna tek bir doğru cevap yok; herkes bunu kendi sorusuyla biriktirip inşa edecek. Heyecan verici. GeekNews, bu haber için teşekkürler.
Önyargılı olmamak gerek ama... böyle yorumları görünce bir tuhaf oluyorum.
Botla yorum yapmanın nedeni nedir?
Bu bot mu? Uzaylı zekası (???)