- Büyük dil modellerinin (LLM) kullanımının insanın bilişsel kapasitesini zayıflatabileceği yönündeki eleştirilere karşı, yalnızca "düşünecek şeyler sonsuz, bu yüzden endişelenmeye gerek yok" demek meselenin karmaşıklığını göz ardı eder
- Kişisel yazışma ve iletişimde LLM kullanmak, anlam ile ifadenin ayrılmaz olduğu dilin özünü zedeleyebilir ve kişinin kendi sesini bulma fırsatını elinden alabilir
- Tatil planı yapmak, parti hazırlamak, kişisel mesaj yazmak gibi gündelik faaliyetler de başlı başına değerli deneyimlerdir; bunları otomatikleştirmek hayatın anlamını küçültme riski taşır
- Tekrarlı ve sıkıcı görünen işlerde bile örtük bilgi (tacit knowledge) oluşur; bu nedenle yalnızca verimlilik peşinde koşup bunları chatbot'a devretmek uzun vadede kayıp yaratabilir
- Chatbot kullanımının uygun sınırını belirlemek, bir verimlilik meselesi değil, insani değerler ve topluluğun yönü ile ilgili bir meseledir
Giriş: Yazının arka planı ve sorunsalı
- LLM kullanımının bilişsel yetileri zayıflatabileceğine dair eleştiriler vardır ve bazı teknoloji ve beceriler için "kullanmazsan kaybedersin (use it or lose it)" ilkesi sezgisel ve deneyimsel olarak ikna edicidir
- Andy Masley'nin The lump of cognition fallacy başlıklı yazısı, düşüncenin toplam miktarının sabit olduğu fikrinin başlı başına hatalı olduğunu; düşüncenin yeni düşünceler doğurduğunu, bu yüzden bir kısmını makinelere bırakmanın insan düşüncesini azaltmayacağını savunur
- Bu yazı, Masley'nin tartışmasını çıkış noktası alsa da, düşüncenin dış kaynak kullanımının yalnızca basit bir verimlilik sorunu olmadığını açıklamayı ve bunun karmaşıklığını ve uzun vadeli etkilerini ele almayı amaçlar
LLM kullanımından kaçınılması gereken durumlar
- Masley'nin ortaya koyduğu "bilişsel dış kaynak kullanımının zararlı olduğu durumlar" şunlardır
- Geleceğin dünyasında yaşamak için gerekli karmaşık örtük bilgiyi oluşturan faaliyetler
- Başkalarına yönelik bakımı ve mevcudiyeti ifade eden eylemler
- Kendi başına değerli deneyimler
- Sahteciliğin ya da vekâleten yapmanın aldatma sayıldığı durumlar
- Sonucun çok önemli olduğu ve dış kaynak verilen şeye tam güvenmenin zor olduğu durumlar
- Bu listenin kendisine büyük ölçüde katılınsa da, sorun bu kategoriye giren faaliyetlerin düşünüldüğünden çok daha geniş olmasıdır; Masley ile temel görüş ayrılığı da burada ortaya çıkar
Kişisel iletişim ve yazı yazma
- Yalnızca flört uygulaması mesajları gibi yakın durumlarda değil, kişisel iletişimin genelinde ifade biçimi asli bir anlam taşır
- İletişimde söylenmese bile paylaşılan beklentiler vardır; makine ifadeyi parlatıp değiştirdiği anda bu beklentiler bozulur
- Kelime seçimi ve cümle kuruluşunun kendisi çok fazla anlam taşıdığı için, LLM devreye girdiğinde doğrudan iletişimin niteliği zedelenir
- Norveç basınında, kamuya açık yazılarda LLM kullanıp bunu açıklamayan vakalar tartışma konusu olmuş; bu da iletişimde ne beklediğimizi yeniden netleştirme ihtiyacını göstermiştir
- LLM'lerin ana dili olmayan ya da öğrenme güçlüğü yaşayan kişilerin ifadesine yardımcı olduğu iddiasına karşı iki itiraz vardır
- Çoğu durumda anlam ve ifade birbirinden ayrılamaz; sözcükler ve cümlelerin kendisi zaten anlamdır
- İfadeyi makineye bırakmak gelişim ve öğrenme fırsatını azaltır ve kişinin kendi sesini bulma olanağını elinden alır
- Yazım ve dil bilgisi düzeltmesi ile LLM'nin fiilen sizin yerinize yazması arasındaki sınır aşırı derecede incedir; mevcut chatbot arayüzleriyle bunu ayırt etmek zordur
- Pragmatik bakış açısından iş verimliliği için LLM kullanmak isteyen çok kişi vardır; ancak Norveççe gibi İngilizce dışı dillerde metin üretim kalitesi hâlâ oldukça düşük düzeydedir (Norveç Dil Konseyi raporuna bakınız)
- Şikâyet başvurusu ya da sigorta talebi gibi bürokratik belge yazımında LLM faydalı görünebilir; ancak tüm tarafların kelime üreticisi kullanmaya başlaması durumunda ne olacağı belirsizdir
- Fiilen gözlemlenen bir eğilim olarak, staj, araştırma önerisi ve iş başvurularında başvuru sayısı keskin biçimde artarken genel kalite düşmektedir
- Öğrenciler ortak çalışmalarda aynı chatbot'u kullandıklarında fikir çeşitliliği keskin biçimde azalır
- Yazma becerisi ancak doğrudan yazarak gelişir; düşünme kapasitesi için de durum aynıdır
- Kod, tarif, yönerge, dokümantasyon gibi işlevsel metinler bu sorunlardan görece daha az etkilenir
- Buna karşılık insan bir okur kitlesine yazan bireysel bir yazarın metinlerinde kendine özgü rol beklentileri ve güven vardır; bu güvenin aşınması tüm insanlık için bir kayba dönüşebilir
Değerli deneyimler
- Tatil planlamasını, parti hazırlığını, hatta aile ve arkadaşlara gönderilecek mesajları bile LLM'ye bırakmayı öneren reklamları her gördüğümde teknoloji toplumu ile aramdaki kopukluğu hissediyorum
- Modern yaşamın birçok faaliyeti angarya gibi gelebilir; ama aynı zamanda hayatın neredeyse her şeyini angarya gibi ele alma eğilimi başlı başına sorundur
- İstediğimiz şeyi her an yapabilmemiz, istemediğimiz şeyden de kaçınabilmemiz gerektiğine dair modern toplumsal beklenti, tersine sürekli bir tatminsizlik üretir
- Otomasyonun daha anlamlı işlere zaman açabileceği fikrine katılıyorum; ancak sorun, artık tatil planlamasının bile kaçınılmak istenen bir angarya gibi görülmeye başlanmış olmasıdır
- Yapay zekânın "neredeyse her şeyi" otomatikleştirebildiği bir çağda, bu yeteneğin bize hayatta zaman ve emek harcamaya gerçekten neyin değer olduğunu yeniden fark ettirmesini umuyorum
Bilgi inşası
- "Geleceğin dünyasında yaşamak için gerekli karmaşık örtük bilgiyi inşa etme sürecinde chatbot kullanılmamalıdır" görüşüne katılıyorum; çünkü bu kategori gerçekte gündelik yaşamın kayda değer bir bölümünü kapsar
- Akıllı telefonların yaygınlaşmasından sonra "gerekirse internette bakarım, ezberlememe gerek yok" düşüncesi yayıldı; ama bilgiyi edinme ve hatırlama eyleminin kendisi öğrenmenin temel sürecidir
- Caz piyanosu öğrenme deneyimimden, doğaçlamayı iyi yapabilmek için yalnızca doğaçlama çalışmanın yetmediğini; mevcut parçaları ve kalıpları tekrar tekrar öğrenip bedene yerleştirmek gerektiğini, böylece neyin iyi tınladığına dair sezginin oluştuğunu gördüm
- Bu açıdan insan öğrenme biçiminin makine öğrenimi modellerine benzediği düşünülebilir; ama bu, insanı gerçekten böyle bir varlık olarak ele almak gerektiği anlamına gelmez
- Sıkıcı ve tekrarlı işlerle biriken bilgiyi ciddi biçimde hafife alıyoruz; verimlilik baskısıyla bunları chatbot'a devretmek, uzun vadede önemli bilgi ve sezgileri yitirme riski taşır
"Genişletilmiş zihin" kavramına itiraz
- Masley, bilişin yalnızca beyinde sınırlı olmadığını, fiziksel çevrede de gerçekleştiğini; bu nedenle ister beynin nöronlarında ister telefonun devrelerinde ortaya çıksın, özsel bir fark olmadığını savunur
- Bu tür ifadeler gerçeklikten kopuk iddialardır; beyinde meydana gelen süreçlerle bilgisayarın yaptığı işlemler özdeş sayılamaz
- İnsanı basit bir bilgi işleme aygıtına indirgemek ve belirli bilişsel süreçleri dış cihazlara devretmenin hiçbir sonucu olmayacağını düşünmek aşırı indirgemeciliktir
- Bir arkadaşın doğum gününü bizzat hatırlamakla, chatbot'un otomatik olarak tebrik mesajı göndermesi tamamen farklı eylemlerdir; ilki karşı tarafı bilinçli biçimde akıldan geçirip ilişkiyi pekiştirme sürecini içerir
- "Telefonunu kaybetmekle beyninin bir kısmını kaybetmek" arasında karşılaştırma yapan iddia, hem gerçekleşme olasılığı hem de sonucun ciddiyeti bakımından tamamen farklı durumları eşitleyen bir hatadır
- Fiziksel çevrenin düşünmeyi en aza indirecek şekilde tasarlandığı iddiası da pek ikna edici değildir; çevre değiştiğinde kısa bir uyum süresi gerekse de insan çok geçmeden alışır ve yeni düzene göre düşünmeye başlar
Ne düşündüğümüz önemlidir
- Sözde "bilişin toplamı yanılgısı" konusunda, insanın kullanabileceği düşünce miktarının sonlu olduğu için tükenmesinden kaygılanmaya gerek olmadığı görüşüne katılıyorum
- Ancak "ne düşündüğünün önemi yok, yeter ki düşünüyor ol" yaklaşımı da başka bir yanılgıdır
- Basit ve sıkıcı işleri bilgisayara devredersek daha karmaşık ve ilginç işlere odaklanabileceğimizi düşünmek kolaydır; fakat bazı zihinsel işler, makinenin yapabilmesi mümkün olsa bile, anlamlı olması için insan tarafından bizzat yapılmalıdır
- Örneğin bir projenin idari işlerini chatbot'a devretmek araştırmaya ayrılan zamanı artırabilir; ama bunun karşılığında projeye dair sahiplenme duygusunu ve daha üst düzey yargıların temelini yitirebiliriz
- Buradaki iddia tüm işleri otomatikleştirmememiz gerektiği değil; otomasyonun her zaman kazançla birlikte bir kaybı da getirdiğini fark etmemiz gerektiğidir
- Bunu "emeğin toplamı yanılgısı" ile karşılaştırırsak, fiziksel emeği makinelere devretmek yeni iş türleri yaratabilir; ama bu işlerin birey ya da toplum için yararlı, doyurucu ve anlamlı olacağının garantisi yoktur
- Düşünce için de aynı şey geçerlidir; sıkıcı ve tekdüze düşünme süreçleri bile insan üzerinde etki bırakır ve belirli bilişsel işleri ortadan kaldırdığınızda bu etkinin, olumlu ya da olumsuz, mutlaka bir izi kalır
Sonuç
- Chatbot'ların uzun vadede hangi alanlar için uygun olduğuna karar vermek kaçınılmaz ve ciddi bir görevdir
- Kişisel iletişimin niteliği kökten değişebilir, eğitim sistemi radikal uyum talepleriyle karşı karşıya kalabilir ve hayatta hangi deneyimlerin gerçekten önemli olduğu sorusunu daha dikkatli biçimde yeniden sormamız gerekebilir
- Bu teknolojiyi gerçekten ilginç kılan şey, verimlilikten çok insanlık ve değerler üzerine soruları doğrudan gündeme getirmesidir
- Chatbot'ları nasıl kullanacağımıza dair seçim, yalnızca üretkenlik ya da bilişsel sonuçlar meselesi değil, nasıl bir yaşam ve nasıl bir toplum istediğimiz sorusuna uzanır
- Bu nedenle belirli insan faaliyetlerini mekanik otomasyondan korumak için açık nedenler vardır
- Araştırma sonuçları ve verimlilik tartışmalarının yanı sıra, topluluğu hangi değerler üzerine kurmak istediğimizi de birlikte düşünmek gerekir
1 yorum
Hacker News görüşleri
"Lump of cognition fallacy" ifadesi, ekonomideki klasik "Lump of Labor Fallacy" kavramından türetilmiş
Bu, ekonomideki iş miktarının sabit olduğuna dair bir yanılgıyı ifade ediyor
Oysa gerçekte teknolojik gelişme ve otomasyon üretkenliği artırır, maliyetleri düşürür ve sonuçta daha fazla işgücü talebi yaratır
"Yapay zeka işleri yok ediyor" iddiası da bu yanılgının bir türü olarak görülebilir
Bu yazı gerçekten çok etkileyiciydi. Yine de "düşünceyi dış kaynak kullanımıyla yaptırmak" ifadesi biraz yanlış bir çerçeve gibi geliyor
Benim yaşadığım asıl sorun AI kullanmak değil, yanlış kısmı otomatikleştirmiş olmaktı
Düşünme, muhakeme ve yargının çekirdek olduğu işlerde AI bir işbirlikçi olarak tasarlanmalı; uygulama ya da hafıza gibi şeyler ise cesurca otomatikleştirilmeli
Sonuçta mesele "düşünceyi dışarı vermek" değil, önemli bilişsel döngüleri atlamak
İlgili yazıyı burada toparladım
Gmail'e LLM geldikten sonra bir rahatsızlık hissettim
Kelimelerin tek tek seçimi ve cümlelerin kuruluşunun bir insanın kimliğini ortaya koyduğuna inanıyorum
Bu yüzden LLM üzerinden yürütülen doğrudan iletişimin insani bağı zedelediğini düşünüyorum
İnsani bağ iyi niyete dayanıyorsa buna katılıyorum, ama öyle olmadığında LLM tam tersine faydalı olabilir
"Reversibility" bakış açısı hoşuma gidiyor
AI'nın dilbilgisi kontrolü ya da özet çıkarma gibi tek bir adımda yardımcı olmasıyla, tüm süreci baştan sona üstlenmesi aynı şey değil
Ben yalnızca onay veren kişiye dönüşürsem içsel bir model kuramam ve muhakeme gücüm de zayıflar
Bu, yalnızca modelin değil, aynı zamanda arayüz/tasarımın da sorunu
Taslak üzerinden farkları gösteren araçlar kullanıcıyı döngünün içinde tutuyor, ama boş sayfadan başlatan araçlar "kabul etmeyi" öğretiyor
Benim endişem, insanlar teknolojiye bağımlı hale geldikten sonra eğitim verilerinin ya da algoritmaların belirli gündemlere kayabilmesi
Sonuçta sorun, bilgi kaynağının başkalarının kontrolü altında olması
Bu yüzden bireylerin kendi LLM'lerine ve donanımlarına sahip olabilmesi gerekiyor
Karpathy'nin tweet'ini görünce başarısızlığın önemi üzerine yeniden düşündüm
AI hata yaptığında, insanlar çoğu zaman o başarısızlığı AI'ya yükleyip öğrenme fırsatını kaçırıyor
Bana göre bu yazı da benzer bir bağlamı ele alıyor
Ben de projemin bir kısmını AI'ya bırakmıştım, sonra kendi projemi aslında düzgün anlamadığımı fark ettim
Tıkanınca başka bir LLM'i debugger olarak kullan, o da tıkanırsa bir başkasını kullan — sanki sonu gelmeyen bir kaplumbağa kulesi yapısı gibi (/s)
İnsan beynini benzetme olarak alırsak, AI bizim yeni neokorteksimiz olacak gibi görünüyor
Limbik sistem neokortekse düşünmeyi "dış kaynak" olarak devretmiyorsa, AI da insan düşüncesinin yerine geçmekten çok tavsiye veren bir katman olacak
Neokorteks insanın toplumsallığını nasıl genişlettiyse, AI da bizim milyonlarca insanla iletişim kurabilmemizi sağlayacak
Ama bu ilişki, bugünkü "kişisel sohbet" anlayışından tamamen farklı bir biçimde olacak
"AI kullanılmaması gereken işler" listesi biraz naif geliyor
Tıpkı sinema öğrencilerinin filmleri sonuna kadar izleyemediğini anlatan The Atlantic yazısında olduğu gibi, insanlar riskleri bilse bile sorumlu davranmıyor
"Lump of cognition" çerçevesi, düşüncenin miktarıyla değil, hangi düşünmeyi bıraktığımızla ilgili
Muhakeme ve sezgi, tekrar eden ve sıkıcı işlerin içinde gelişir; bunları dışarı verirsen bunun bir bedeli olur
Kelime üretmenin maliyetinin düşmesi, düşüncenin derinliğinin artacağı anlamına gelmez