Baştan sona Analytics reklamı gibi görünüyor. Kulağa makul geliyor ama sonuçta reklam; ayrıca hada.io işletmecisinin de fazla başıboş bıraktığı düşünülebilir.

 

Sonuçta bu kaliteyle bir ödünleşim meselesi; kaybedilen kaliteyi geri kazanmak için daha fazla token harcamayı gerektiren bir yapıya dönüşmez mi diye endişeleniyorum.

 

bm25 Korece aramada zayıf olduğu için, Koreceyi de iyi arayabilen ayrı bir guardrail’i uyguladım.

 

Genel bağlamda bu, geçmiş konuşmaları arama meselesi olduğundan, düzenleme konusundaki karmaşa iyi yönetilirse güzel bir fikir gibi görünüyor. Ben de bunun özellikle projeleri düzenleyip toparlamada çok yardımcı olduğunu düşünüyorum.

 

Ben de uyguladım. Birden fazla donanım kullanırken Obsidian vault'u GitHub yedeğiyle entegre edebilmek için biraz ekleme yaptım. Ayrıca Codex ve Gemini için parser'lar da hazırlayıp ekledim. https://github.com/hang-in/seCall

 

Modern LLM’leri “sonraki kelime tahmini” diye küçümseyecekseniz, AlphaGo da sonuçta “bir sonraki hamle tahmini”nden ibaret.

ChatGPT’den itibaren sonraki kelime tahmini de sadece basit bir pre-trained aşamasından ibaret.

Asıl mesele, hedefe ulaşan bir model olması.

 

Duyduğuma göre kernel geliştiricileri yaklaşık 10-20 yıldır PostgreSQL geliştiricilerine "userland'de spinlock önerilmiyor, bu yüzden bunu yeniden düşünseniz iyi olur" diye söylüyormuş..

https://x.com/kosaki55tea/status/2040458791536497035

 

Zaten Claude code agent team kullanıyorsanız, çok da özel bir şey yoktu.
Ama ekip yapılandırma bilgileri gibi şeylerin yeni oturumlarda da sürdürülebilmesi için agents veya skills kullanarak altyapı kurmak kullanışlıydı.
Ekibi manuel olarak kurunca, ekip için boilerplate benzeri şeyler tekrar ediliyordu.

Ama bir sorun vardı: hem subagent’ı hem de agent team’i dikkate alan bir ortam olduğu için, Supervisor deseninde denetleyici, ekip oluşturulmuş olmasına rağmen işi subagent’a devreden tuhaf bir durum sık sık ortaya çıkıyor.

 

https://github.com/google-ai-edge/gallery/issues/437

Görünüşe göre Exynos uyumluluğu pek iyi değil. Galaxy Quantum 5'te (A55) Çince karakterleri sonsuz şekilde tekrarlayarak yanıt verme sorunu var.

 

GPT sonrasında piyasaya çıkan büyük dil modellerinin, diffusion model kullanan birkaç istisna dışında, hepsinin bir sonraki token’ı tahmin etme biçiminde olduğunu sanıyordum; farklı şekilde çalışan modeller varsa bildirirseniz sevinirim.

 

Simetrik 25 gigabit internetin var olduğunu bile bilmiyordum. Evde 10 gigabit seviyesinin bile fazlasıyla yeterli olduğunu düşünmüştüm...

 

Daha önce denedim ama Claude, rtk’nin neden olduğu sorunları çözmek için sürekli daha fazla token harcadığı için kaldırdım.
(Örneğin, curl ile JSON isteği gönderince geçersiz JSON üretiyor, bu da jq’nun hata vermesine yol açıyor; ardından Claude bunu debug ederken token harcıyor ve sonunda tekrar ham curl isteğini alıp jq ile parse ediyor.)
Yine de fikrin kendisinin iyi bir deneme olduğunu düşünüyorum; stabilize olursa kullanılmaya değer gibi görünüyor.

 

Ben de o noktada eksiklik hissetmiştim!

Yakın zamanda gelen güncelleme, full output'u ayrı bir dosyaya kaydediyor; böylece gerekirse LLM onu okuyabiliyor~

 

Resmi site yenilemesi, Gnuboard 7’nin yayımlanmasından önce yapılmıştı.

 

Bu yüzden bazı durumlarda baştan yazmak daha hızlı olabiliyor.

 

Gerçekten azaltıyor mu emin değilim. Agent'a sürekli rtk ls.. komutunu kullanmasını söyledim ama kullanmıyor.

 

O zaman en yeni model farklı bir şey mi? Eğer yanlış bilgi varsa, beni de dahil olmak üzere diğer kişiler için de faydalı olacağını düşünüyorum; söylerseniz sevinirim haha

 

Arama sonuçları URL’lerini spam içerikli ifadelerle aratıp başka blogların gönderilerine geri bağlantı olarak kaydeden türden spam de var;
Sonuçta hangisi olursa olsun, yine elle silmek gerekiyor...

 

> LLM, "verilen girdiye en uygun çıktıyı üreten" bir sonraki kelime tahmin modelidir.

GPT-3'ten bahsediyor.