- Çoğu insan yapay zekayı içerik üretme aracı olarak kullanıyor, ancak asıl gücü muazzam miktarda bilgiyi okuyup birbirine bağlama yeteneğinde yatıyor
- Kişisel notlar, toplantı kayıtları, fikirler gibi birikmiş verileri yapay zekanın tüketip örüntüler bulma süreci işin özü
- Obsidian notlarını yapay zekayla entegre ederek geçmiş kayıtlardan içgörü çıkarıyor, unutulmuş düşünce değişimlerini veya tekrar eden tasarım kararlarını keşfediyor
- Yapay zeka, anahtar kelime değil kavram tabanlı arama, zamanı aşan örüntü keşfi, fikirler arasında bağlantı kurma imkanı sağlıyor
- İnsanın rekabet gücü deneyiminde yatıyor; yapay zeka bunu aranabilir bir bilgi varlığına dönüştürerek sürekli öğrenmeyi ve karar alma kalitesini artırmayı destekliyor
Yaratım tuzağı
- Kullanıcıların çoğu yapay zekayı e-posta yazma, rapor üretme, kod yazma gibi üretkenlik işleri için kullanıyor
- Bu, bir süper bilgisayarı daktilo gibi kullanmak kadar büyük bir israf olarak tanımlanıyor
- Yazar, 3 yıllık mühendislik notlarını, 500'den fazla toplantı kaydını ve binlerce gözlemi Obsidian'da saklıyor
- Bu, bir insanın ömrü boyunca okuyamayacağı kadar çok ama yapay zeka bunları saniyeler içinde tüketebiliyor
Tüketime geçiş noktası
- Yapay zekayı Obsidian'a bağladıktan sonra soru sorma biçimi “Bana yeni bir şey yaz”dan “Ben zaten ne keşfetmişim?”e dönüştü
- Gerçek örnekler
- Son 50 bire bir görüşmenin örüntü analizi ile performans sorunlarının araç memnuniyetsizliğinden 2-3 hafta önce ortaya çıktığı bulundu
- Teknik borca dair düşünce değişimini izleyerek bakış açısının 2023 Mart civarında “düzeltilmesi gereken bir şey”den “sistemin evrimine dair bilgi”ye kaydığı an tespit edildi
- Buffer API ile carpeta.app mimarisinin karşılaştırılmasında tekrar eden 12 tasarım kararı bulundu
Bilginin birikimi ve erişilebilirliği
- Her toplantı, düşünce ve debug deneyimi öğrenme sağlar, ancak aranamıyorsa bilgi anlamsız biçimde gömülü kalır
- Geleneksel arama, tam doğru kelimeleri hatırlamayı gerektirir ve insan hafızasının sınırları vardır
- Yapay zeka bunu aşarak
- kavram tabanlı sorguları,
- yıllara yayılan örüntü aramasını,
- zamanı ve bağlamı aşan fikir bağlantılarını mümkün kılar
- İnsanın asıl kısıtı yaratmak değil, tüketme, hatırlama ve bağlantı kurma kapasitesinin yetersizliğiydi
Tüketim sistemi kurmak
- Basit yapı
- Tüm kayıtları Obsidian'da tut
- Yapay zeka tüm veriye erişsin
- Geçmişteki kendine bir araştırma asistanına soru sorar gibi sorular sor
- Önemli olan araç değil, zihniyet değişimi
- Yapay zekayı bir yaratıcı değil, deneyimin okuru olarak görmek gerekir
- Her not gelecekteki bir içgörüye, her öz değerlendirme aranabilir bir bilgeliğe dönüşür
Bileşik etki
- İki aylık deneyin sonucu
- Geçmişteki benzer örnekleri bularak sorun çözme hızı arttı
- Unutulmuş bağlam geri kazanılarak karar kalitesi iyileşti
- Zamana dağılmış önceden görünmeyen örüntüleri fark etmek mümkün oldu
- Çoğu insan notlarında, dosyalarında ve anılarında gömülü bir içgörü altın madeni taşıyor
- Yapay zeka bunu sorgulanabilir kişisel uzmanlık veritabanına dönüştürüyor
Gerçek devrim
- Hâlâ birçok kişi yapay zekayı yalnızca yazı ve kod üretme aracı olarak görüyor
- Asıl devrim, yapay zekanın insanın tüm düşüncelerini okuyan bir okur gibi işlev görmesinde yatıyor
- Bu yüzden bugün tutulan bilgi kayıtları, gelecekteki kendimiz ve yapay zeka için yapılan bir dokümantasyon eylemi olmalı
- “Unuttuklarını hatırlatan yapay zeka” için sürekli kayıt tutma alışkanlığı gerekiyor
3 yorum
Sonuçta metinle yapılan bir regresyon analizi
> Model tek başınayken sıradan bir okur düzeyinde; önemli kısımları kaçırması kolay, ama test, derleyici ve linter gibi araçlarla birleştiğinde hızlı geri bildirim döngüsüne sahip bir üretim aracına dönüşüyor.
Bu bana çok anlamlı geldi. Bunu daha önce hiç böyle denememiştim, denemem gerekecek.
Hacker News görüşleri
Bence AI'ın bilgi tüketme yeteneği en korkutucu taraflarından biri
NSA ve büyük şirketler zaten yıllardır tarama alışkanlıklarımızı topluyor; asıl endişe, AI'ın bu verileri insanlardan çok daha hızlı analiz edip davranış tahmini, manipülasyon, psikolojik profilleme ve zayıf nokta tespiti gibi amaçlar için kullanabilmesi
Buna rağmen bazı insanların AI'ı işe yaramaz bir teknoloji diye eleştirmesi ironik
Çünkü bunu yapan insanlara sahte bir özgüven verir
AI değersiz (valueless) olabilir ama işe yaramaz (useless) değildir
Kara mayınları da işe yarar ama değerli değildir; üretken AI için de dışsallıklar açısından benzer bir tartışma var
Üretken AI şart değil
Şehirler zaten sayısız kamerayla kaplı ve bugün insanların tüm görüntüleri tek tek izleyememesi bir tür güvenlik bariyeri işlevi görüyor, ama AI bu engeli kaldırabilir
Yakın gelecekte “Kırmızı bir Nissan geçerse haber ver” gibi doğal dil tabanlı gözetim sistemleri görebiliriz
Model tek başına ancak ortalama bir okur düzeyinde
Önemli noktaları kolayca kaçırıyor ama testler, derleyiciler ve linter'lar gibi araçlarla birleşince hızlı geri bildirim döngüsüne sahip bir üretim aracına dönüşüyor
Asıl zor olan hâlâ “neyi savunacağına” karar vermek
Bu içerik HackerNewsAI bülteninde de yer alacak
Mesela güneş enerjisinden bahsederken bunu politik bir konu sanıp sohbeti engellediği olmuştu
Bazı alanlarda belgeleri avukatlardan daha hızlı okuyan sistemler zaten var
AI verilerimi birkaç saniyede okusa bile, doğruluk doğrulaması mümkün değil
Bunun özetten ziyade sadece kısaltma (abbreviation) olduğuna dair araştırmalar da var
Örnekteki gibi “50 bire bir görüşmeden örüntü buldu” sonucu da gerçekte yalnızca verinin bir kısmı için geçerli olabilir
Aslında risk, yalnızca doğrulamanın zor olduğu durumlarda büyük
LLM'ler keşif aracı olarak kullanılmalı, içgörüyü ise insan üretmeli
AI insanlardan biraz bile daha iyiyse bu bile yeterince değerlidir
AI'ın sunduğu maddeleri metin aramasıyla kontrol etmek yeterli
Bağlam yönetimi kritik, tamamen deterministik olmasa da faydalı
Kişisel belgelerimi buluta yüklemekte isteksizim
Gizlilik riski çok yüksek olduğu için yerel LLM'lerin gelişmesini bekliyorum
30B civarı bir modelle MacBook'ta bile özet çıkarılabiliyor ama kullanılabilirlik hâlâ zayıf
NDA içeren işlerde yerel model dışında bir şey önermek zor
Donanım pahalı ama bir gün yeniden PC merkezli model çalıştırma ortamına döneceğimizi düşünüyorum
Qwen 3 modelini denedim ama halüsinasyon çok fazla ve pratik değil
SOTA modellerde de özet kalitesinin benzer olacağını sanıyorum
Yerel model çalıştırmak için 3 GPU aldım ama ROI hiç mantıklı değil
Sadece eğlenceli olduğu için yapıyorum
Hassas anahtarlar yoksa küçük ölçekli bulut GPU kiralama da iyi bir seçenek olabilir
Yazının ana fikri bana düşünmeyi makinelere devretmek gibi geliyor
Ben notlarımı hafıza ve çağrışım odaklı tutuyorum; bunu AI'a bırakmak düşünmekten vazgeçmek gibi hissettiriyor
E-postalarda ya da eski raporlarda gömülü kalmış bilgiyi yeniden ortaya çıkarması faydalı
AI'ın “süper gücünün” yarısı zaten tüm verilerin Obsidian'da düzenli tutuluyor olmasından geliyor
Bu temel olunca hangi araç kullanılırsa kullanılsın güçlü oluyor
Emeğinin karşılığını almış olması etkileyici
AI'ın gerçek yeteneği insanın duymak istediğini söylemesi
Özellikle RLHF sonrasında bu eğilim daha da güçlendi
Özetleme yeteneği hâlâ zayıf ve çoğu zaman özet değil, kısaltma üretiyor
LLM'ler metni devam ettirmekte çok iyi ama büyük resmi anlama konusunda zayıf
2023'te konuşulan “üstel ilerleme” gerçekten olsaydı, bugün bu tartışmaların kendisi bile olmazdı
Bir matematik sunumu sırasında bilmediğim bir terimi arattım ve AI özeti gayet iyiydi
Aslında yaptığı şey sadece asıl kaynağı yeniden yapılandırmaktı ama benim istediğim tam da buydu
Çoğu insan hızlı tüketimi tercih ediyor ve derinlemesine anlayamıyor
Uzmanların bile bunu olduğu gibi kabul ettiğini görmek ürkütücüydü
Üstelik Google'ın bu hastalığı profilime iliştirmiş olabileceği düşüncesi de rahatsız ediciydi
AI'ın “JS Set, Array'den daha hızlıdır” demesine inanmıştım ama sonra bağlam eksikliği yüzünden bunun yanlış olduğunu fark ettim
Buna rağmen AI, yabancı olunan bir konuda büyük miktarda malzemeyi sentezleme konusunda mükemmel
Örneğin Lorca ve Cavafy şiirlerini çevirirken AI, özgün metni ve çeviri zorluklarını çok iyi açıkladı
Doğrudan çeviri yaptırmak yerine yardımcı araç olarak kullandığımda çok daha iyi sonuç aldım
Ayrıntılı deneyimimi blog yazımda anlattım