20 puan yazan GN⁺ 2026-02-02 | 1 yorum | WhatsApp'ta paylaş
  • Büyük dil modellerinin (LLM) kullanımının insanın bilişsel kapasitesini zayıflatabileceği yönündeki eleştirilere karşı, yalnızca "düşünecek şeyler sonsuz, bu yüzden endişelenmeye gerek yok" demek meselenin karmaşıklığını göz ardı eder
  • Kişisel yazışma ve iletişimde LLM kullanmak, anlam ile ifadenin ayrılmaz olduğu dilin özünü zedeleyebilir ve kişinin kendi sesini bulma fırsatını elinden alabilir
  • Tatil planı yapmak, parti hazırlamak, kişisel mesaj yazmak gibi gündelik faaliyetler de başlı başına değerli deneyimlerdir; bunları otomatikleştirmek hayatın anlamını küçültme riski taşır
  • Tekrarlı ve sıkıcı görünen işlerde bile örtük bilgi (tacit knowledge) oluşur; bu nedenle yalnızca verimlilik peşinde koşup bunları chatbot'a devretmek uzun vadede kayıp yaratabilir
  • Chatbot kullanımının uygun sınırını belirlemek, bir verimlilik meselesi değil, insani değerler ve topluluğun yönü ile ilgili bir meseledir

Giriş: Yazının arka planı ve sorunsalı

  • LLM kullanımının bilişsel yetileri zayıflatabileceğine dair eleştiriler vardır ve bazı teknoloji ve beceriler için "kullanmazsan kaybedersin (use it or lose it)" ilkesi sezgisel ve deneyimsel olarak ikna edicidir
  • Andy Masley'nin The lump of cognition fallacy başlıklı yazısı, düşüncenin toplam miktarının sabit olduğu fikrinin başlı başına hatalı olduğunu; düşüncenin yeni düşünceler doğurduğunu, bu yüzden bir kısmını makinelere bırakmanın insan düşüncesini azaltmayacağını savunur
  • Bu yazı, Masley'nin tartışmasını çıkış noktası alsa da, düşüncenin dış kaynak kullanımının yalnızca basit bir verimlilik sorunu olmadığını açıklamayı ve bunun karmaşıklığını ve uzun vadeli etkilerini ele almayı amaçlar

LLM kullanımından kaçınılması gereken durumlar

  • Masley'nin ortaya koyduğu "bilişsel dış kaynak kullanımının zararlı olduğu durumlar" şunlardır
    • Geleceğin dünyasında yaşamak için gerekli karmaşık örtük bilgiyi oluşturan faaliyetler
    • Başkalarına yönelik bakımı ve mevcudiyeti ifade eden eylemler
    • Kendi başına değerli deneyimler
    • Sahteciliğin ya da vekâleten yapmanın aldatma sayıldığı durumlar
    • Sonucun çok önemli olduğu ve dış kaynak verilen şeye tam güvenmenin zor olduğu durumlar
  • Bu listenin kendisine büyük ölçüde katılınsa da, sorun bu kategoriye giren faaliyetlerin düşünüldüğünden çok daha geniş olmasıdır; Masley ile temel görüş ayrılığı da burada ortaya çıkar

Kişisel iletişim ve yazı yazma

  • Yalnızca flört uygulaması mesajları gibi yakın durumlarda değil, kişisel iletişimin genelinde ifade biçimi asli bir anlam taşır
  • İletişimde söylenmese bile paylaşılan beklentiler vardır; makine ifadeyi parlatıp değiştirdiği anda bu beklentiler bozulur
  • Kelime seçimi ve cümle kuruluşunun kendisi çok fazla anlam taşıdığı için, LLM devreye girdiğinde doğrudan iletişimin niteliği zedelenir
  • Norveç basınında, kamuya açık yazılarda LLM kullanıp bunu açıklamayan vakalar tartışma konusu olmuş; bu da iletişimde ne beklediğimizi yeniden netleştirme ihtiyacını göstermiştir
  • LLM'lerin ana dili olmayan ya da öğrenme güçlüğü yaşayan kişilerin ifadesine yardımcı olduğu iddiasına karşı iki itiraz vardır
    • Çoğu durumda anlam ve ifade birbirinden ayrılamaz; sözcükler ve cümlelerin kendisi zaten anlamdır
    • İfadeyi makineye bırakmak gelişim ve öğrenme fırsatını azaltır ve kişinin kendi sesini bulma olanağını elinden alır
  • Yazım ve dil bilgisi düzeltmesi ile LLM'nin fiilen sizin yerinize yazması arasındaki sınır aşırı derecede incedir; mevcut chatbot arayüzleriyle bunu ayırt etmek zordur
  • Pragmatik bakış açısından iş verimliliği için LLM kullanmak isteyen çok kişi vardır; ancak Norveççe gibi İngilizce dışı dillerde metin üretim kalitesi hâlâ oldukça düşük düzeydedir (Norveç Dil Konseyi raporuna bakınız)
  • Şikâyet başvurusu ya da sigorta talebi gibi bürokratik belge yazımında LLM faydalı görünebilir; ancak tüm tarafların kelime üreticisi kullanmaya başlaması durumunda ne olacağı belirsizdir
  • Fiilen gözlemlenen bir eğilim olarak, staj, araştırma önerisi ve iş başvurularında başvuru sayısı keskin biçimde artarken genel kalite düşmektedir
  • Öğrenciler ortak çalışmalarda aynı chatbot'u kullandıklarında fikir çeşitliliği keskin biçimde azalır
  • Yazma becerisi ancak doğrudan yazarak gelişir; düşünme kapasitesi için de durum aynıdır
  • Kod, tarif, yönerge, dokümantasyon gibi işlevsel metinler bu sorunlardan görece daha az etkilenir
  • Buna karşılık insan bir okur kitlesine yazan bireysel bir yazarın metinlerinde kendine özgü rol beklentileri ve güven vardır; bu güvenin aşınması tüm insanlık için bir kayba dönüşebilir

Değerli deneyimler

  • Tatil planlamasını, parti hazırlığını, hatta aile ve arkadaşlara gönderilecek mesajları bile LLM'ye bırakmayı öneren reklamları her gördüğümde teknoloji toplumu ile aramdaki kopukluğu hissediyorum
  • Modern yaşamın birçok faaliyeti angarya gibi gelebilir; ama aynı zamanda hayatın neredeyse her şeyini angarya gibi ele alma eğilimi başlı başına sorundur
  • İstediğimiz şeyi her an yapabilmemiz, istemediğimiz şeyden de kaçınabilmemiz gerektiğine dair modern toplumsal beklenti, tersine sürekli bir tatminsizlik üretir
  • Otomasyonun daha anlamlı işlere zaman açabileceği fikrine katılıyorum; ancak sorun, artık tatil planlamasının bile kaçınılmak istenen bir angarya gibi görülmeye başlanmış olmasıdır
  • Yapay zekânın "neredeyse her şeyi" otomatikleştirebildiği bir çağda, bu yeteneğin bize hayatta zaman ve emek harcamaya gerçekten neyin değer olduğunu yeniden fark ettirmesini umuyorum

Bilgi inşası

  • "Geleceğin dünyasında yaşamak için gerekli karmaşık örtük bilgiyi inşa etme sürecinde chatbot kullanılmamalıdır" görüşüne katılıyorum; çünkü bu kategori gerçekte gündelik yaşamın kayda değer bir bölümünü kapsar
  • Akıllı telefonların yaygınlaşmasından sonra "gerekirse internette bakarım, ezberlememe gerek yok" düşüncesi yayıldı; ama bilgiyi edinme ve hatırlama eyleminin kendisi öğrenmenin temel sürecidir
  • Caz piyanosu öğrenme deneyimimden, doğaçlamayı iyi yapabilmek için yalnızca doğaçlama çalışmanın yetmediğini; mevcut parçaları ve kalıpları tekrar tekrar öğrenip bedene yerleştirmek gerektiğini, böylece neyin iyi tınladığına dair sezginin oluştuğunu gördüm
  • Bu açıdan insan öğrenme biçiminin makine öğrenimi modellerine benzediği düşünülebilir; ama bu, insanı gerçekten böyle bir varlık olarak ele almak gerektiği anlamına gelmez
  • Sıkıcı ve tekrarlı işlerle biriken bilgiyi ciddi biçimde hafife alıyoruz; verimlilik baskısıyla bunları chatbot'a devretmek, uzun vadede önemli bilgi ve sezgileri yitirme riski taşır

"Genişletilmiş zihin" kavramına itiraz

  • Masley, bilişin yalnızca beyinde sınırlı olmadığını, fiziksel çevrede de gerçekleştiğini; bu nedenle ister beynin nöronlarında ister telefonun devrelerinde ortaya çıksın, özsel bir fark olmadığını savunur
  • Bu tür ifadeler gerçeklikten kopuk iddialardır; beyinde meydana gelen süreçlerle bilgisayarın yaptığı işlemler özdeş sayılamaz
  • İnsanı basit bir bilgi işleme aygıtına indirgemek ve belirli bilişsel süreçleri dış cihazlara devretmenin hiçbir sonucu olmayacağını düşünmek aşırı indirgemeciliktir
  • Bir arkadaşın doğum gününü bizzat hatırlamakla, chatbot'un otomatik olarak tebrik mesajı göndermesi tamamen farklı eylemlerdir; ilki karşı tarafı bilinçli biçimde akıldan geçirip ilişkiyi pekiştirme sürecini içerir
  • "Telefonunu kaybetmekle beyninin bir kısmını kaybetmek" arasında karşılaştırma yapan iddia, hem gerçekleşme olasılığı hem de sonucun ciddiyeti bakımından tamamen farklı durumları eşitleyen bir hatadır
  • Fiziksel çevrenin düşünmeyi en aza indirecek şekilde tasarlandığı iddiası da pek ikna edici değildir; çevre değiştiğinde kısa bir uyum süresi gerekse de insan çok geçmeden alışır ve yeni düzene göre düşünmeye başlar

Ne düşündüğümüz önemlidir

  • Sözde "bilişin toplamı yanılgısı" konusunda, insanın kullanabileceği düşünce miktarının sonlu olduğu için tükenmesinden kaygılanmaya gerek olmadığı görüşüne katılıyorum
  • Ancak "ne düşündüğünün önemi yok, yeter ki düşünüyor ol" yaklaşımı da başka bir yanılgıdır
  • Basit ve sıkıcı işleri bilgisayara devredersek daha karmaşık ve ilginç işlere odaklanabileceğimizi düşünmek kolaydır; fakat bazı zihinsel işler, makinenin yapabilmesi mümkün olsa bile, anlamlı olması için insan tarafından bizzat yapılmalıdır
  • Örneğin bir projenin idari işlerini chatbot'a devretmek araştırmaya ayrılan zamanı artırabilir; ama bunun karşılığında projeye dair sahiplenme duygusunu ve daha üst düzey yargıların temelini yitirebiliriz
  • Buradaki iddia tüm işleri otomatikleştirmememiz gerektiği değil; otomasyonun her zaman kazançla birlikte bir kaybı da getirdiğini fark etmemiz gerektiğidir
  • Bunu "emeğin toplamı yanılgısı" ile karşılaştırırsak, fiziksel emeği makinelere devretmek yeni iş türleri yaratabilir; ama bu işlerin birey ya da toplum için yararlı, doyurucu ve anlamlı olacağının garantisi yoktur
  • Düşünce için de aynı şey geçerlidir; sıkıcı ve tekdüze düşünme süreçleri bile insan üzerinde etki bırakır ve belirli bilişsel işleri ortadan kaldırdığınızda bu etkinin, olumlu ya da olumsuz, mutlaka bir izi kalır

Sonuç

  • Chatbot'ların uzun vadede hangi alanlar için uygun olduğuna karar vermek kaçınılmaz ve ciddi bir görevdir
  • Kişisel iletişimin niteliği kökten değişebilir, eğitim sistemi radikal uyum talepleriyle karşı karşıya kalabilir ve hayatta hangi deneyimlerin gerçekten önemli olduğu sorusunu daha dikkatli biçimde yeniden sormamız gerekebilir
  • Bu teknolojiyi gerçekten ilginç kılan şey, verimlilikten çok insanlık ve değerler üzerine soruları doğrudan gündeme getirmesidir
  • Chatbot'ları nasıl kullanacağımıza dair seçim, yalnızca üretkenlik ya da bilişsel sonuçlar meselesi değil, nasıl bir yaşam ve nasıl bir toplum istediğimiz sorusuna uzanır
  • Bu nedenle belirli insan faaliyetlerini mekanik otomasyondan korumak için açık nedenler vardır
  • Araştırma sonuçları ve verimlilik tartışmalarının yanı sıra, topluluğu hangi değerler üzerine kurmak istediğimizi de birlikte düşünmek gerekir

1 yorum

 
GN⁺ 2026-02-02
Hacker News görüşleri
  • "Lump of cognition fallacy" ifadesi, ekonomideki klasik "Lump of Labor Fallacy" kavramından türetilmiş
    Bu, ekonomideki iş miktarının sabit olduğuna dair bir yanılgıyı ifade ediyor
    Oysa gerçekte teknolojik gelişme ve otomasyon üretkenliği artırır, maliyetleri düşürür ve sonuçta daha fazla işgücü talebi yaratır
    "Yapay zeka işleri yok ediyor" iddiası da bu yanılgının bir türü olarak görülebilir

  • Bu yazı gerçekten çok etkileyiciydi. Yine de "düşünceyi dış kaynak kullanımıyla yaptırmak" ifadesi biraz yanlış bir çerçeve gibi geliyor
    Benim yaşadığım asıl sorun AI kullanmak değil, yanlış kısmı otomatikleştirmiş olmak
    Düşünme, muhakeme ve yargının çekirdek olduğu işlerde AI bir işbirlikçi olarak tasarlanmalı; uygulama ya da hafıza gibi şeyler ise cesurca otomatikleştirilmeli
    Sonuçta mesele "düşünceyi dışarı vermek" değil, önemli bilişsel döngüleri atlamak
    İlgili yazıyı burada toparladım

  • Gmail'e LLM geldikten sonra bir rahatsızlık hissettim
    Kelimelerin tek tek seçimi ve cümlelerin kuruluşunun bir insanın kimliğini ortaya koyduğuna inanıyorum
    Bu yüzden LLM üzerinden yürütülen doğrudan iletişimin insani bağı zedelediğini düşünüyorum

    • Bir arkadaşımın sinir bozucu patronuyla ilişkisini ChatGPT sayesinde toparladığı bir örnek de var
      İnsani bağ iyi niyete dayanıyorsa buna katılıyorum, ama öyle olmadığında LLM tam tersine faydalı olabilir
    • Biri sözlerimi aşırı analiz etmeye çalışıyorsa, Gmail'in LLM'inin bir tampon görevi görmesi bana daha güven veriyor
    • Bu durum bana NPC memini hatırlatıyor
  • "Reversibility" bakış açısı hoşuma gidiyor
    AI'nın dilbilgisi kontrolü ya da özet çıkarma gibi tek bir adımda yardımcı olmasıyla, tüm süreci baştan sona üstlenmesi aynı şey değil
    Ben yalnızca onay veren kişiye dönüşürsem içsel bir model kuramam ve muhakeme gücüm de zayıflar
    Bu, yalnızca modelin değil, aynı zamanda arayüz/tasarımın da sorunu
    Taslak üzerinden farkları gösteren araçlar kullanıcıyı döngünün içinde tutuyor, ama boş sayfadan başlatan araçlar "kabul etmeyi" öğretiyor

  • Benim endişem, insanlar teknolojiye bağımlı hale geldikten sonra eğitim verilerinin ya da algoritmaların belirli gündemlere kayabilmesi

    • Bu tür bir durum zaten basılı medya ve yayıncılıkta defalarca yaşandı
      Sonuçta sorun, bilgi kaynağının başkalarının kontrolü altında olması
      Bu yüzden bireylerin kendi LLM'lerine ve donanımlarına sahip olabilmesi gerekiyor
    • Eskiden OpenAI'ın tekel kurmasından korkuyordum, ama şimdi Mistral gibi çeşitli rakipler çıktığı için model tekeli riski azaldı
    • Grok gibi açıkça taraflı örnekler de zaten var
    • Bir gün chatbot'ların belirli ürünleri öneren reklam tipi yanıtlar vermesi de çok olası
    • Aslında bu yapı kapitalist toplumlarda zaten tekrar tekrar ortaya çıktı
  • Karpathy'nin tweet'ini görünce başarısızlığın önemi üzerine yeniden düşündüm
    AI hata yaptığında, insanlar çoğu zaman o başarısızlığı AI'ya yükleyip öğrenme fırsatını kaçırıyor
    Bana göre bu yazı da benzer bir bağlamı ele alıyor

  • Ben de projemin bir kısmını AI'ya bırakmıştım, sonra kendi projemi aslında düzgün anlamadığımı fark ettim

    • Ama bazıları, şaka yollu bir tonla, "işte doğru yön bu" deyip her şeyi LLM'in halletmesi gerektiğini söylüyor
      Tıkanınca başka bir LLM'i debugger olarak kullan, o da tıkanırsa bir başkasını kullan — sanki sonu gelmeyen bir kaplumbağa kulesi yapısı gibi (/s)
  • İnsan beynini benzetme olarak alırsak, AI bizim yeni neokorteksimiz olacak gibi görünüyor
    Limbik sistem neokortekse düşünmeyi "dış kaynak" olarak devretmiyorsa, AI da insan düşüncesinin yerine geçmekten çok tavsiye veren bir katman olacak
    Neokorteks insanın toplumsallığını nasıl genişlettiyse, AI da bizim milyonlarca insanla iletişim kurabilmemizi sağlayacak
    Ama bu ilişki, bugünkü "kişisel sohbet" anlayışından tamamen farklı bir biçimde olacak

  • "AI kullanılmaması gereken işler" listesi biraz naif geliyor
    Tıpkı sinema öğrencilerinin filmleri sonuna kadar izleyemediğini anlatan The Atlantic yazısında olduğu gibi, insanlar riskleri bilse bile sorumlu davranmıyor

    • Öğrencilerin yarısının bile sosyal medya ya da AI'ın uzun vadeli risklerini anlamadığını düşünüyorum
    • Birisi, "sinema öğrencileri hikâyesinin dersi, insanların 'sinema okuma' fikrini sevmesi ama gerçekten çalışmayı sevmemesi" dedi
    • Bir başkası da "100 film, makaleler ve sınavlar üst üste gelince herkes bıkar" diye ekledi
    • "İnsanların AI'ı sorumlu biçimde kullanacağına inanmak zaten asıl büyük endişe kaynağı" diyenler de vardı
    • "Ata binmeyi bırakıp otomobili seçtiğimiz gibi, bir şeyleri kaybediyoruz" benzetmesi de yapıldı
  • "Lump of cognition" çerçevesi, düşüncenin miktarıyla değil, hangi düşünmeyi bıraktığımızla ilgili
    Muhakeme ve sezgi, tekrar eden ve sıkıcı işlerin içinde gelişir; bunları dışarı verirsen bunun bir bedeli olur
    Kelime üretmenin maliyetinin düşmesi, düşüncenin derinliğinin artacağı anlamına gelmez

    • Zor sorunları kendi başıma çözmek için çektiğim sıkıntının sonunda öğrenmenin özü olduğunu hissediyorum
    • Ucuz kelimelerin insanlara yeterince tatmin edici görünmesi, insana kasvetli bir içgörü veriyor
    • Bence LLM'leri en fazla yazım hatası ve dilbilgisi düzeltmesi için kullanmak iyi bir iş akışı