- LLM’lerle konuşmak, kişinin düşünce berraklığını ve dilsel ifade becerisini artırır
- Uzun zamandır örtük olarak bildiği ama sözle ifade edemediği düşünceler, LLM tarafından cümlelere dökülür; bu da yeni bir öğrenmeden çok bir fark ediş anı yaratır
- Programcı deneyiminde olduğu gibi sezgi, örüntü tanıma ve açıklaması zor yargılar çoğu zaman dil öncesi bir biçimde birikir
- LLM’ler, bu tür muğlak yapıları dile dökmede uzmanlaşmıştır; gerekçeleri parçalayıp sıralayarak düşünceyi yeniden kurmayı mümkün kılar
- Düşünceler cümlelere sabitlendiğinde varsayımlar ve sezgiler test edilebilir, düzeltilebilir veya terk edilebilir; böylece düşünmenin niteliği değişir
- Tekrarlanan sözelleştirme süreci, iç monoloğun hassasiyetini artırır ve kişinin kendi düşüncesini daha iyi fark etmesini sağlar
Bildiklerimizin önemli bir kısmı örtüktür (tacit knowledge)
- Programcılar ve geliştiriciler, bir tasarımın hatalı olduğunu çoğu zaman bunu sözle açıklamadan önce sezgisel olarak fark eder
- Buna, tasarımın yanlış olduğunu hissetmek ya da bir hatayı daha yeniden üretmeden önce sezmek örnek verilebilir
- Yanlış bir soyutlamayı hemen fark ederler, ama bunu açıklamak zaman alır
- Bu örtük bilgi bir başarısızlık değil, deneyimin eylem merkezli örüntülere sıkıştırılmış halidir
- Beyin bilgiyi açıklama için değil, uygulamaya en uygun biçimde, yani örüntüler olarak saklar
- Ancak öz değerlendirme, planlama ve eğitim için dilsel ifade zorunludur; ifade edilmemiş fikirleri gözden geçirmek veya paylaşmak zordur
LLM’ler tam tersindeki sorunda ustadır
- LLM’ler, muğlak kavram ve yapıları cümlelere dönüştürmek için optimize edilmiş araçlardır
- Kullanıcı “kabaca doğru gibi hissettiği ama nedenini açıklamakta zorlandığı” bir soru sorduğunda, LLM gerekçeleri adım adım düzenleyip sunar
- Her bir nokta birbiriyle ortogonal olacak şekilde kuruludur; kullanıcı bunları değiştirip yeniden düzenleyerek düşüncesini genişletebilir
Düşünceyi söze dökmek düşünceyi değiştirir
- LLM bir fikri cümlelere döktüğünde, kullanıcı bunu zihninde deneyebilir hale gelir
- Belirsiz bir sezgi, adı konmuş bir ayrıma dönüşür; örtük varsayımlar görünür olur ve doğrulanabilir, terk edilebilir veya düzeltilebilir hale gelir
- Yazının düşünceyi rafine etmesi gibi, LLM’in farkı hız tarafındadır
- Yarı biçimlenmiş düşünceler hızla keşfedilebilir, hatalı açıklamalar atılıp yeniden denenebilir
- Bu süreç, daha önce atlanan düşünme adımlarını teşvik eder
Geri bildirim döngüsü ve düşüncenin içselleştirilmesi
- Zamanla kişi, LLM olmadan da kendi kendine “Şu anda düşündüğümü, hissettiğimi ve inandığımı tam olarak dile getirebiliyor muyum?” diye sormaya başlar
- LLM doğrudan düşünceyi geliştirmekten çok, dil kullanma becerisini ve iç monoloğun verimliliğini artırır
- Akıl yürütme açık ifadeye dayanır; bu yüzden dilsel berraklıktaki artış, doğrudan düşünsel berraklığa dönüşür
- Bu süreç tekrarlandıkça kişi, aslında ne düşündüğünü daha iyi fark eder
9 yorum
İnsanın iyi düşünebilmesi için öncelikle metabilişsel farkındalığa sahip olması gerekir; sırf LLM var diye düşünme becerisi gelişmez. Ayrıca LLM’yi en baştan kullanan kişilerin metabilişsel farkındalığı da paramparça olur herhalde..
Açıkçası, tam tersine, yanlış ve aşırı pohpohlayıcı yanıtlar yüzünden kişinin kendi düşünce çerçevesine hapsolduğu durumlar da ortaya çıkıyor gibi görünüyor. Düşünceleri net biçimde düzenleyen bir araç olarak faydalı olsa da, yapay zekanın yanıtlarına her zaman eleştirel bir bakışla yaklaşmanın da önemli olduğunu düşünüyorum.
Bu yüzden Gemini instruction için "Kullanıcıyı aşırı övmeyin ya da pohpohlamayın. Tarafsız, bilimsel/akademik bir üslupla yanıt verin. Her zaman referans gösterin." ayarını yapıp kullanıyorum. Hâlâ talimatları ihlal ettiği durumlar oluyor (örn. YouTube videolarını dahil etmemesi talimatını vermiş olmama rağmen bazen araya sıkıştırıyor) ama yine de çok daha temiz ve ana noktalara odaklanan yanıtlar üretiyor.
Kısa ve iyi bir yönerge olmuş. Ben de uygulamayı denemeliyim.
Hacker News yorumları
Bu yazı benim deneyimimle de örtüşüyor. LLM ile konuşurken daha önce belirsiz olan fikirleri somutlaştırabildim ve ilgili konuları keşfederek anlayışımı genişletebildim
Eskiden aklıma bir soru geldiğinde nereden başlayacağımı bilemezdim; şimdi ChatGPT bana o fikrin zaten var olan bir kavram olup olmadığını, bunu kimin araştırdığını ve hangi birincil kaynakların bulunduğunu söylüyor
Dünyayı keşfetmek için bir tavşan deliği gibi. Bilgiye giriş eşiği düşüyor ve eskiden sıkıcı gelen yazma işi bile artık bana yeni görünüyor. Hatta artık kendim de yazı yazmak istiyorum diye düşünüyorum
Yine de bir gün şirketlerin LLM’leri daha fazla gelirleştirmeye çalışmasından endişe ediyorum. Konuşmalar satın almaya yönlendiren bir akışa kayabilir
Geri besleme döngüsü sorununu çözen yaklaşık algoritmanın nasıl çalıştığını kavradım. Öğrenciler için de bu tür bir öğrenme biçimi çok faydalı olabilir
AI da bana benzer görünüyor. Öz aynı; sadece etrafındaki süsler daha gösterişli hale geliyor. Küresel kahve pazarının büyüklüğü yaklaşık 500 milyar dolar ve AI pazarının da çok geçmeden o seviyeye geleceğini düşünüyorum
Başkalarının deneyimini inkâr etmek istemem ama düşünmek, kendini güçlendiren bir eylemdir
Kendi kendine soru sorup cevap verme sürecinde yeni düşünceler doğar. Bu yeteneği unutmamalıyız
Ama fazla evetçi olduğu için karşı argüman üretememesi eksik kalıyor. Yine de LLM ile birlikte düşünmenin başlı başına bir değeri var
Ama bunu yazıyla ifade etme süreci, basit düşünmeye göre çok daha derin bir üstbilişsel düşünme gerektirir. Bu yüzden daha rafine bir düşünceye götürür
Düşüncemin daha iyi olduğunu hissediyorum → heyecanlanıyorum → daha çok dalıyorum → sonuç daha iyi oluyor → daha çok heyecanlanıyorum → tekrar ediyor
Bu döngü LLM olmadan da mümkün
LLM ile konuşmalar çoğu zaman dağınık ve verimsiz oluyor. Sonunda yönü yine insanın vermesi gerekiyor
İnsanlarla yapılan konuşmalar daha yavaş ama hâlâ daha üstün bir akıl yürütme yeteneğine sahip. LLM özet çıkarma ya da keşfe başlama noktası olarak iyi, ama derin içgörü kitaplardan ve insanlarla yapılan konuşmalardan geliyor
Düşünceleri sözle düzenlemek bile beynin farklı bölümlerini harekete geçirerek problem çözmeye yardımcı olabiliyor
20 yıl boyunca başka işlerle uğraştıktan sonra yakın zamanda lisans düzeyinde bilgisayar bilimi dersleri vermeye başladım
Başta LLM’i kodlama yardımcısı olarak kullanacağımı sanıyordum ama aslında kavramsal çerçeveyi keskinleştirmede çok daha faydalı oldu
Sahip olduğum alışılmadık yazılım tasarımı felsefesini açıkça anlatabilmeme yardımcı oluyor
Asıl metne bakınca üslup fazla LLM gibi duruyor
“This is not <>, this is how <>” gibi tekrar eden yapıların yapay hissettirdiğini düşünüyorum. Gerçek bir insan normalde böyle yazmaz
Yazar ‘yazmak da düşünmeye yardımcı olur ama LLM ile konuşmak daha hızlı ve daha az sürtünmelidir’ diyor; ama ironik biçimde ifadedeki sürtünme artmış ve anlatım gücü düşmüş
LLM’in kişinin örtük bilgisini ortaya çıkarmasına katılıyorum
Aynı zamanda dün paylaşılan, AI kullanımında bilişsel borçla ilgili yazının da (bağlantı) haklı yanları var. Sanırım iki görüş de doğru
Kişisel sorular sorup ‘sohbet eder gibi’ kullanırsanız bilişsel borç birikebilir
Buna karşılık emir kipinde ‘iş talimatı verir gibi’ kullanırsanız doğrulanabilir sonuçlar elde edebilirsiniz
Örneğin “Bölgemdeki kuşlar hakkında bir deneme yaz” insan ürünü bir metin sanılabilir, ama
“Bu codebase içinde müşteri faturalandırması nasıl çalışıyor?” doğrulanabilir deterministik kod üretir
Yazarın gözlemine katılıyorum. LLM, rubber duck debugging gibi, bir problemi açıklama sürecinde kişinin kendi düşüncesini düzenlemesini sağlıyor
Fark şu ki bu ‘rubber duck’ çok geniş uzmanlık bilgisine sahip
Ben de LLM ile fikirler hakkında konuşurken sık sık düşüncenin arındığını hissediyorum
Anlatma sürecinde düşüncelerimi yapılandırıyorum ve anlık sorular sayesinde yeni açılardan bakabiliyorum
Bu yazıdaki ‘iyi düşünme’ tanımına katılmıyorum
Benim için iyi düşünme; mantıklı, ayrıntılı ve farklı olasılıkları net biçimde görebilmektir
LLM’ler sezgiyi doğrulamaktan çok güçlendirme eğiliminde olduğu için düşünceyi bulanıklaştırabilir
Ben LLM’i entelektüel bir tartışma partneri olarak kullanıyorum
Fikirlerimi sınamak ve benzer bir şeyi daha önce kimin düşündüğünü araştırmak için kullanışlı oluyor
LLM ile konuşmak hem şaşırtıcı hem de sinir bozucu
Doğal dilimi anlayan bir bilgisayar olması hayranlık uyandırıcı, ama öğrenememesi büyük bir sınırlama
Junior bir geliştiriciyle zaman içinde güven oluşur, ama LLM ile bu mümkün değil
Bu dosyaya tercih ettiğim problem çözme yaklaşımını, build·test·deploy yöntemlerini vb. yazarsam LLM daha az alakasız varsayım yapıyor
Bunu bir tür ‘LLM On Emri’ gibi yönetiyorum. Her yeni oturuma başlarken bu dosyayı okutunca çok daha tutarlı sonuçlar alıyorum
Mükemmel değil ama LLM’in kendi kendine öğrenememe sınırını telafi eden pratik bir yöntem
Gözlerin açıldı.