33 puan yazan GN⁺ 2026-01-29 | 9 yorum | WhatsApp'ta paylaş
  • LLM’lerle konuşmak, kişinin düşünce berraklığını ve dilsel ifade becerisini artırır
  • Uzun zamandır örtük olarak bildiği ama sözle ifade edemediği düşünceler, LLM tarafından cümlelere dökülür; bu da yeni bir öğrenmeden çok bir fark ediş anı yaratır
  • Programcı deneyiminde olduğu gibi sezgi, örüntü tanıma ve açıklaması zor yargılar çoğu zaman dil öncesi bir biçimde birikir
  • LLM’ler, bu tür muğlak yapıları dile dökmede uzmanlaşmıştır; gerekçeleri parçalayıp sıralayarak düşünceyi yeniden kurmayı mümkün kılar
  • Düşünceler cümlelere sabitlendiğinde varsayımlar ve sezgiler test edilebilir, düzeltilebilir veya terk edilebilir; böylece düşünmenin niteliği değişir
  • Tekrarlanan sözelleştirme süreci, iç monoloğun hassasiyetini artırır ve kişinin kendi düşüncesini daha iyi fark etmesini sağlar

Bildiklerimizin önemli bir kısmı örtüktür (tacit knowledge)

  • Programcılar ve geliştiriciler, bir tasarımın hatalı olduğunu çoğu zaman bunu sözle açıklamadan önce sezgisel olarak fark eder
    • Buna, tasarımın yanlış olduğunu hissetmek ya da bir hatayı daha yeniden üretmeden önce sezmek örnek verilebilir
    • Yanlış bir soyutlamayı hemen fark ederler, ama bunu açıklamak zaman alır
  • Bu örtük bilgi bir başarısızlık değil, deneyimin eylem merkezli örüntülere sıkıştırılmış halidir
    • Beyin bilgiyi açıklama için değil, uygulamaya en uygun biçimde, yani örüntüler olarak saklar
  • Ancak öz değerlendirme, planlama ve eğitim için dilsel ifade zorunludur; ifade edilmemiş fikirleri gözden geçirmek veya paylaşmak zordur

LLM’ler tam tersindeki sorunda ustadır

  • LLM’ler, muğlak kavram ve yapıları cümlelere dönüştürmek için optimize edilmiş araçlardır
  • Kullanıcı “kabaca doğru gibi hissettiği ama nedenini açıklamakta zorlandığı” bir soru sorduğunda, LLM gerekçeleri adım adım düzenleyip sunar
  • Her bir nokta birbiriyle ortogonal olacak şekilde kuruludur; kullanıcı bunları değiştirip yeniden düzenleyerek düşüncesini genişletebilir

Düşünceyi söze dökmek düşünceyi değiştirir

  • LLM bir fikri cümlelere döktüğünde, kullanıcı bunu zihninde deneyebilir hale gelir
  • Belirsiz bir sezgi, adı konmuş bir ayrıma dönüşür; örtük varsayımlar görünür olur ve doğrulanabilir, terk edilebilir veya düzeltilebilir hale gelir
  • Yazının düşünceyi rafine etmesi gibi, LLM’in farkı hız tarafındadır
    • Yarı biçimlenmiş düşünceler hızla keşfedilebilir, hatalı açıklamalar atılıp yeniden denenebilir
    • Bu süreç, daha önce atlanan düşünme adımlarını teşvik eder

Geri bildirim döngüsü ve düşüncenin içselleştirilmesi

  • Zamanla kişi, LLM olmadan da kendi kendine “Şu anda düşündüğümü, hissettiğimi ve inandığımı tam olarak dile getirebiliyor muyum?” diye sormaya başlar
  • LLM doğrudan düşünceyi geliştirmekten çok, dil kullanma becerisini ve iç monoloğun verimliliğini artırır
  • Akıl yürütme açık ifadeye dayanır; bu yüzden dilsel berraklıktaki artış, doğrudan düşünsel berraklığa dönüşür
  • Bu süreç tekrarlandıkça kişi, aslında ne düşündüğünü daha iyi fark eder

9 yorum

 
sudosudo 2026-01-29

İnsanın iyi düşünebilmesi için öncelikle metabilişsel farkındalığa sahip olması gerekir; sırf LLM var diye düşünme becerisi gelişmez. Ayrıca LLM’yi en baştan kullanan kişilerin metabilişsel farkındalığı da paramparça olur herhalde..

 
woung717 2026-01-29

Açıkçası, tam tersine, yanlış ve aşırı pohpohlayıcı yanıtlar yüzünden kişinin kendi düşünce çerçevesine hapsolduğu durumlar da ortaya çıkıyor gibi görünüyor. Düşünceleri net biçimde düzenleyen bir araç olarak faydalı olsa da, yapay zekanın yanıtlarına her zaman eleştirel bir bakışla yaklaşmanın da önemli olduğunu düşünüyorum.

 
y15un 2026-01-30

Bu yüzden Gemini instruction için "Kullanıcıyı aşırı övmeyin ya da pohpohlamayın. Tarafsız, bilimsel/akademik bir üslupla yanıt verin. Her zaman referans gösterin." ayarını yapıp kullanıyorum. Hâlâ talimatları ihlal ettiği durumlar oluyor (örn. YouTube videolarını dahil etmemesi talimatını vermiş olmama rağmen bazen araya sıkıştırıyor) ama yine de çok daha temiz ve ana noktalara odaklanan yanıtlar üretiyor.

 
slimeyslime 2026-01-30

Kısa ve iyi bir yönerge olmuş. Ben de uygulamayı denemeliyim.

 
GN⁺ 2026-01-29
Hacker News yorumları
  • Bu yazı benim deneyimimle de örtüşüyor. LLM ile konuşurken daha önce belirsiz olan fikirleri somutlaştırabildim ve ilgili konuları keşfederek anlayışımı genişletebildim
    Eskiden aklıma bir soru geldiğinde nereden başlayacağımı bilemezdim; şimdi ChatGPT bana o fikrin zaten var olan bir kavram olup olmadığını, bunu kimin araştırdığını ve hangi birincil kaynakların bulunduğunu söylüyor
    Dünyayı keşfetmek için bir tavşan deliği gibi. Bilgiye giriş eşiği düşüyor ve eskiden sıkıcı gelen yazma işi bile artık bana yeni görünüyor. Hatta artık kendim de yazı yazmak istiyorum diye düşünüyorum

    • 2000’lerin başında Wikipedia böyle bir rol oynuyordu. Şimdi ise konuşabildiğin bir ansiklopedi gibi hissettiriyor
      Yine de bir gün şirketlerin LLM’leri daha fazla gelirleştirmeye çalışmasından endişe ediyorum. Konuşmalar satın almaya yönlendiren bir akışa kayabilir
    • Matematikte çok iyi değilim ama analog synthesizer emülasyonu ile çok ilgileniyorum. 2000’lerin ortasındaki ‘zero delay filter’ yeniliğini anlamaya çalışırken tıkanmıştım; LLM ile konuşunca sonunda anladım
      Geri besleme döngüsü sorununu çözen yaklaşık algoritmanın nasıl çalıştığını kavradım. Öğrenciler için de bu tür bir öğrenme biçimi çok faydalı olabilir
    • LLM’i rubber duck gibi kullanmak harika bir kullanım şekli
    • George Orwell “Yazmak düşünmektir” dememiş miydi
    • LLM’i kahveye benzetmek istiyorum. Kahve her yerde bulunabilen bir verimlilik artırma aracı ve türleri çok çeşitli olsa da sonuçta ‘çekirdek çekirdektir’
      AI da bana benzer görünüyor. Öz aynı; sadece etrafındaki süsler daha gösterişli hale geliyor. Küresel kahve pazarının büyüklüğü yaklaşık 500 milyar dolar ve AI pazarının da çok geçmeden o seviyeye geleceğini düşünüyorum
  • Başkalarının deneyimini inkâr etmek istemem ama düşünmek, kendini güçlendiren bir eylemdir
    Kendi kendine soru sorup cevap verme sürecinde yeni düşünceler doğar. Bu yeteneği unutmamalıyız

    • Benim deneyimime göre LLM’in kişisel düşünmeye kıyasla iki avantajı var
      1. Devasa bir bilgi indeksine erişebildiği için benim bilmediğim şeyleri söyleyebiliyor
      2. Anında ve ilgi çekici şekilde tepki verdiği için yorgunluğu azaltıyor. Bu sayede daha uzun süre odaklanabiliyorum
        Ama fazla evetçi olduğu için karşı argüman üretememesi eksik kalıyor. Yine de LLM ile birlikte düşünmenin başlı başına bir değeri var
    • Kimse ‘düşüncenin düşünceyi geliştirdiği’ gerçeğini inkâr etmiyor
      Ama bunu yazıyla ifade etme süreci, basit düşünmeye göre çok daha derin bir üstbilişsel düşünme gerektirir. Bu yüzden daha rafine bir düşünceye götürür
    • Benim deneyimimde bir tür ‘özyinelemeli plasebo etkisi’ var
      Düşüncemin daha iyi olduğunu hissediyorum → heyecanlanıyorum → daha çok dalıyorum → sonuç daha iyi oluyor → daha çok heyecanlanıyorum → tekrar ediyor
      Bu döngü LLM olmadan da mümkün
    • Büyük ölçüde katılıyorum ama yalnızca saf akıl yürütme, bilgi eksik olduğunda yetersiz kalabiliyor
      LLM ile konuşmalar çoğu zaman dağınık ve verimsiz oluyor. Sonunda yönü yine insanın vermesi gerekiyor
      İnsanlarla yapılan konuşmalar daha yavaş ama hâlâ daha üstün bir akıl yürütme yeteneğine sahip. LLM özet çıkarma ya da keşfe başlama noktası olarak iyi, ama derin içgörü kitaplardan ve insanlarla yapılan konuşmalardan geliyor
    • ‘Rubber duck debugging’ kavramına bakmaya değer (Wikipedia bağlantısı)
      Düşünceleri sözle düzenlemek bile beynin farklı bölümlerini harekete geçirerek problem çözmeye yardımcı olabiliyor
  • 20 yıl boyunca başka işlerle uğraştıktan sonra yakın zamanda lisans düzeyinde bilgisayar bilimi dersleri vermeye başladım
    Başta LLM’i kodlama yardımcısı olarak kullanacağımı sanıyordum ama aslında kavramsal çerçeveyi keskinleştirmede çok daha faydalı oldu
    Sahip olduğum alışılmadık yazılım tasarımı felsefesini açıkça anlatabilmeme yardımcı oluyor

    • Geoffrey Hinton’ın LLM hipotezi ilginç. LLM dünyaya dair bilgiyi milyarlarca parametreye sıkıştırmak zorunda olduğu için, analojik düşünmede çok güçlü olmalı
    • Sizin alışılmadık tasarım felsefenizi merak ettim. Öğrencilerinizi kıskandım doğrusu
  • Asıl metne bakınca üslup fazla LLM gibi duruyor
    “This is not <>, this is how <>” gibi tekrar eden yapıların yapay hissettirdiğini düşünüyorum. Gerçek bir insan normalde böyle yazmaz

    • Ben de benzer bir tuhaflık hissettim. Cümle yapısı fazla mekanik sıralama halinde olduğu için mesajın akışı bozuluyor
      Yazar ‘yazmak da düşünmeye yardımcı olur ama LLM ile konuşmak daha hızlı ve daha az sürtünmelidir’ diyor; ama ironik biçimde ifadedeki sürtünme artmış ve anlatım gücü düşmüş
    • İlgili pangram.com bağlantısı
  • LLM’in kişinin örtük bilgisini ortaya çıkarmasına katılıyorum
    Aynı zamanda dün paylaşılan, AI kullanımında bilişsel borçla ilgili yazının da (bağlantı) haklı yanları var. Sanırım iki görüş de doğru

    • Sonuçta mesele LLM ile nasıl etkileşim kurulduğuna bağlı
      Kişisel sorular sorup ‘sohbet eder gibi’ kullanırsanız bilişsel borç birikebilir
      Buna karşılık emir kipinde ‘iş talimatı verir gibi’ kullanırsanız doğrulanabilir sonuçlar elde edebilirsiniz
      Örneğin “Bölgemdeki kuşlar hakkında bir deneme yaz” insan ürünü bir metin sanılabilir, ama
      “Bu codebase içinde müşteri faturalandırması nasıl çalışıyor?” doğrulanabilir deterministik kod üretir
  • Yazarın gözlemine katılıyorum. LLM, rubber duck debugging gibi, bir problemi açıklama sürecinde kişinin kendi düşüncesini düzenlemesini sağlıyor
    Fark şu ki bu ‘rubber duck’ çok geniş uzmanlık bilgisine sahip

  • Ben de LLM ile fikirler hakkında konuşurken sık sık düşüncenin arındığını hissediyorum
    Anlatma sürecinde düşüncelerimi yapılandırıyorum ve anlık sorular sayesinde yeni açılardan bakabiliyorum

  • Bu yazıdaki ‘iyi düşünme’ tanımına katılmıyorum
    Benim için iyi düşünme; mantıklı, ayrıntılı ve farklı olasılıkları net biçimde görebilmektir
    LLM’ler sezgiyi doğrulamaktan çok güçlendirme eğiliminde olduğu için düşünceyi bulanıklaştırabilir

  • Ben LLM’i entelektüel bir tartışma partneri olarak kullanıyorum
    Fikirlerimi sınamak ve benzer bir şeyi daha önce kimin düşündüğünü araştırmak için kullanışlı oluyor

  • LLM ile konuşmak hem şaşırtıcı hem de sinir bozucu
    Doğal dilimi anlayan bir bilgisayar olması hayranlık uyandırıcı, ama öğrenememesi büyük bir sınırlama
    Junior bir geliştiriciyle zaman içinde güven oluşur, ama LLM ile bu mümkün değil

    • Ama her proje için bir agent.md dosyası oluşturup bağlamı kademeli olarak biriktirme yöntemini kullanıyorum
      Bu dosyaya tercih ettiğim problem çözme yaklaşımını, build·test·deploy yöntemlerini vb. yazarsam LLM daha az alakasız varsayım yapıyor
      Bunu bir tür ‘LLM On Emri’ gibi yönetiyorum. Her yeni oturuma başlarken bu dosyayı okutunca çok daha tutarlı sonuçlar alıyorum
      Mükemmel değil ama LLM’in kendi kendine öğrenememe sınırını telafi eden pratik bir yöntem
 
[Bu yorum gizlendi.]
 
[Bu yorum gizlendi.]
 
[Bu yorum gizlendi.]
 
dogtree 2026-01-29

Gözlerin açıldı.