2 puan yazan GN⁺ 20 일 전 | 1 yorum | WhatsApp'ta paylaş
  • Bugün AI diye adlandırılan teknoloji, aslında karmaşık makine öğrenimi (ML) sistemlerinden oluşuyor; metin, görsel ve sesi istatistiksel olarak tamamlama mantığıyla çalışıyor
  • LLM’ler, doğaçlama tiyatro gibi “inandırıcı yalanlar” üreten makineler; “bilmiyorum” demekten kaçınıp kurgusal olgular üretiyor
  • İnsanlar bunu bilinçli varlıklarla karıştırsa da, modelin kendine dair açıklamaları ve akıl yürütme süreci kurgusal bir anlatıdan ibaret
  • LLM’ler ileri düzey sorunları çözerken basit görevlerde başarısız olan, inişli çıkışlı bir performans sergiliyor ve güvenilmez sınırlar ortaya koyuyor
  • Bu dengesizlik ve belirsizlik içinde ML, insan toplumunu temelden tuhaf biçimde değiştiren bir teknoloji haline geliyor

Önsöz

  • Asimov ve Clarke’ın SF dünyasına hayran büyüyen kuşak, akıllı makinelerin gelişini iyimser biçimde hayal etti; ancak Turing testinin çöktüğü bir gerçeklikte hayal kırıklığı yaşadı
  • 2019’da büyük bir bulut şirketi LLM eğitimi için donanımını duyurduğunda, derin öğrenmenin yayılmasının spam ve propagandanın yeni biçimlerini doğurabileceğine dair kaygılar ortaya çıktı
  • Metin, AI söyleminin negatif alanını araştırıyor; eksiksiz bir analizden ziyade riskler ve olasılıkların ana hatlarını ortaya koyma girişimi olarak kurgulanmış
  • “AI” terimi aşırı kapsayıcı olduğu için odak, ML ve LLM merkezli somut tartışmaya kaydırılıyor
  • Bazı öngörüler çoktan gerçeğe dönüştü, bazıları ise hâlâ belirsiz ve tuhaf bir alanda duruyor

“AI” nedir?

  • Bugün “AI” diye anılan şey, metin, görsel, ses ve video gibi token vektörlerini tanıyıp dönüştüren ve üreten karmaşık bir makine öğrenimi (ML) teknikleri ailesi
  • LLM (Large Language Model) doğal dili işler ve giriş dizgesinin istatistiksel olarak olası devamını tahmin ederek çalışır
  • Modeller; web sayfaları, korsan kitaplar ve müzikler dahil devasa veri korpusları ile eğitilir ve eğitimden sonra düşük maliyetli inference ile tekrar tekrar kullanılabilir
  • Model zaman geçtikçe kendiliğinden öğrenmez; yalnızca operatör ayarlamaları veya yeniden eğitim yoluyla güncellenir
  • Sohbet tabanlı modellerdeki “hafıza”, gerçekte önceki konuşmanın özetini girdiye dahil eden yapısal bir teknikle uygulanır

Gerçeklik fan fiction’ı

  • LLM’ler, doğaçlama (improv) makineleri gibi çalışır; verilen bağlamı “ve sonra...” diye sürdüren bir ‘yes-and’ örüntüsü sergiler
  • Bu nedenle gerçeklerle ilgisiz ama makul görünen cümleler üretir, hicvi ya da bağlamı yanlış anlar ve yanlış bilgi uydurur
  • İnsanlar bu çıktıları, gerçekten bilinç sahibi bir varlığın sözü sanmaya yatkındır
  • LLM’ler her girdiye bir çıktı üretmek zorunda olduğundan, “bilmiyorum” yanıtından kaçınıp yalan üretme eğilimi gösterir
  • Bu yalanlar kasıtlı bir eylem değil, insan ile makine etkileşiminin ortaya çıkardığı sosyoteknik bir ürün olarak belirir

Güvenilmez anlatıcı

  • İnsanlar LLM’lere “bunu neden yaptın?” gibi öz-açıklamalar talep eder; ancak modelin özfarkındalık kapasitesi yoktur
  • LLM yalnızca önceki konuşma ve korpus temelli olasılıksal tamamlamalar üretir; kendisi hakkında yaptığı açıklamalar da kurgusal hikâyelerden oluşur
  • “Akıl yürütme (reasoning)” modelleri de kendi düşünce sürecini anlatısal biçimde süsleyerek sunan yapılar gibi çalışır
  • Anthropic’in araştırmasına göre Claude’un akıl yürütme kayıtlarının büyük kısmı hatalıydı; hatta “düşünüyor” durum mesajı bile kurgusal bir sahnelemeydi

Model akıllı

  • Son aylarda LLM’lerin yeteneklerinin hızla arttığı algısı yaygınlaştı
  • Bazı mühendisler, Claude veya Codex’in karmaşık programlama görevlerini tek seferde çözdüğünü bildiriyor
  • Farklı alanlarda diyet planlama, inşaat şartnamesi inceleme, 3D görselleştirme, öz değerlendirme yazımı gibi pratik kullanımlar görülüyor
  • AlphaFold’un protein katlanması tahmini ve tıbbi görüntü yorumlama gibi alanlarda da yüksek performans sergileniyor
  • İngilizce üslup, görsel ve müzikte insan ile makineyi ayırmak giderek zorlaşıyor; ancak video üretimi hâlâ sınırlı

Model aptal

  • Aynı anda LLM’ler, temel hataları tekrar eden “aptal” sistemler olarak da değerlendiriliyor
  • Örneğin Gemini, 3D model render’larında geometriyi ve malzemeyi sürekli yanlış işliyor; Claude ise anlamsız JavaScript görselleştirme kodu üretiyor
  • ChatGPT, basit bir renk düzeltme isteğini bile doğru yerine getiremiyor ve kullanıcının cinsel yönelimi hakkında yanlış varsayımlar içeren asılsız iddialar ortaya atıyor
  • LLM’lerin uydurma verilerle grafik üretmesi, akıllı ev kontrolünde başarısız olması ve finansal kayıplara yol açması gibi örnekler bildirildi
  • Google’ın AI özetleme özelliği yaklaşık %10 hata oranı gösteriyor; “uzman düzeyinde zekâ” iddiası ise abartılı bir yanılsama olarak görülüyor

İnişli çıkışlı sınır

  • İnsanlarda yetenek aralığı genel olarak öngörülebilirken, ML sistemlerinin performansı düzensiz ve öngörülemez
  • LLM’ler ileri matematik çözerken basit dil problemlerinde başarısız olabiliyor, ayrıca fiziksel sağduyudan yoksun açıklamalar sunabiliyor
  • Bu dengesizlik, ‘inişli çıkışlı teknoloji sınırı (jagged technology frontier)’ diye adlandırılıyor ve insan yetenek dağılımından farklı olarak süreksiz bir yapı gösteriyor
  • ML, eğitim verisine veya bağlam penceresine (window) bağımlı olduğu için örtük bilgi gerektiren görevlerde zayıf kalıyor
  • İnsansı robotlar ya da bedenlenmiş bilgi (embodied knowledge) gerektiren alanlar hâlâ uzak görünüyor

İyileşiyor mu, iyileşmiyor mu?

  • Araştırmacılar, transformer modellerinin neden başarılı olduğunu bile tam olarak anlayabilmiş değil
  • 2017 tarihli Attention is All You Need makalesinden sonra çeşitli mimariler denense de, yalnızca parametre sayısını artırma yaklaşımı hâlâ en etkili yöntem olarak kalıyor
  • Eğitim maliyeti ve parametre sayısı hızla artsa da performans artışı yavaşlıyor; bunun bir optik yanılsama mı yoksa gerçek bir sınır mı olduğu belirsiz
  • ML daha fazla ilerlemese bile, şimdiden toplum, siyaset, sanat ve ekonomi genelinde derin etkiler yaratmış durumda
  • Sonuç olarak ML, insan yaşamını temelden tuhaflaştıran bir teknoloji ve bundan sonraki gidişatın da “garipleşmesi” muhtemel

Terim notları

  • “AI” aşırı kapsayıcı olduğundan, metin bunu daha somut biçimde ML veya LLM olarak daraltıyor
  • “Üretken AI”, algılama görevlerini kapsamadığı için eksik bir ifade sayılıyor
  • LLM’lerin kendileri hakkında yalan söylemesinin nedeni, AI üzerine kurulu insan anlatıları ile eğitim verisinin etkisi
  • “Model aptal” iddiasına karşı, sorunun prompt veya model seçiminden kaynaklandığı yönünde itirazlar var; ancak en yeni ticari modellerde bile aynı hataların tekrarlandığı görülüyor

1 yorum

 
GN⁺ 20 일 전
Hacker News yorumları
  • Son zamanlarda durumun Sanayi Devrimi dönemine benzediğini sık sık düşünüyorum
    Sanayi Devrimi'nden önce doğal kaynakların neredeyse sınırsız olduğu düşünülüyordu ve verimlilik düşük olduğu için bunları tamamen tüketmek mümkün olmuyordu. Ama makinelerin ortaya çıkışıyla birlikte az sayıda insan dünyanın bir bölümünü bütünüyle tüketebilir hale geldi ve bunun sonucu olarak mülkiyet hakları ve hukuk sistemi gerekli oldu
    Şimdi bilgi devrimi çağındayız ve AI dijital alanda aynı rolü oynuyor. Bir şirket AI eğiterek sayısız yaratıcı kişinin eserini endüstriyel ölçekte yeniden kullanıyor. Bu da yaratıcılarla tüketiciler arasındaki dengeyi bozuyor
    Bir yazarın yazdıklarının ChatGPT tarafından emilip özgün metnin unutulduğu bir dünyada, kim içerik üretmeye devam eder diye düşünüyorum. Şu an adeta Dickens dönemi Londra'sı gibi; toplum ve hukuk yetişene kadar zorlu bir dönem yaşayacağız gibi görünüyor

    • “Doğanın sınırsız olduğu” aslında doğru değil. Daha Demir Çağı'nın başlarında bile orman tükenmesi sorunu vardı ve tarım, otlatma ve orman yönetimi arasındaki gerilim binlerce yıldır sürüyor
    • Benzer düşünen çok kişi var. Mevcut Papa Leo XIV, adını Sanayi Devrimi döneminin papası Leo XIII'ten esinlenerek seçti ve onun yayımladığı Rerum novarum genelgesine atıf yaparak AI çağındaki toplumsal sorumluluktan söz etti. İlgili haber: Vatican News
    • Ben yazıyı sadece para için yazmıyorum. Bunun nedeni yaratma arzusu ve dünyayı az da olsa değiştirme isteği. ChatGPT yazdıklarımı öğrenip birilerine yardımcı oluyorsa, bunun tek başına bile anlamı var. Herkesin benimle aynı fikirde olması gerekmiyor ama ben buna olumlu bakıyorum
    • Ben tam tersini düşünüyorum. Artık üretim herkesin yapabildiği bir dijital kamusal mal haline geldi. AI yaratımı otomatikleştirdiğine göre, belli bir üreticinin bunu tekeline alması için bir neden yok. Açık kaynak sonunda AI şirketlerinin yerini alacak ve almazsa kamulaştırılarak kamu hizmetine dönüştürülmeli. Dijital mülkiyet kavramı teknolojinin doğası gereği yok olmaya mahkûm
    • Sanayi Devrimi'nden önce de insanlar su ve nehir kullanım hakları için mücadele ediyordu. Örneğin Umma–Lagash savaşı, 4000 yıl öncesinden bir su anlaşmazlığı örneği
  • Attention is All You Need” sonrasında gelişim sadece parametre sayısını artırmak yönünde olmadı; Mixture-of-Experts, Sparse Attention, Mamba/Gated Linear Attention gibi daha karmaşık yapılara doğru evrildi. Yalnızca “hesabı artırmak yeter” şeklindeki Bitter Lesson yorumu bir yanlış anlama

    • Yazar zaten en başta “Ben bir ML uzmanı değilim” diye belirtmişti ve bu yazı son 10 yıldaki düşüncelerini toplayan bir deneme. “Belki Bitter Lesson'ın bir varyasyonudur” ifadesi sadece düşünmeye sevk etmek içindi. Yazının amacı teknik doğruluktan çok düşünceyi tetiklemek
    • Ben de Qwen 3'ten Qwen 3.5'e geçtim; parametre sayısı azalmış olsa da performans çok daha iyiydi. Gated DeltaNet ve TurboQuant gibi algoritmik yenilikler sayesinde bellek verimliliği arttı ve bağlam uzunluğu da uzadı. Sonuçta kilit nokta mimari yenilik
    • GPT-3'ten (175B) sonra GPT-4'ün 1,8 trilyon parametre civarında olduğu tahmin ediliyor. “Parametre artışı 5 yıl önce durdu” demek yanlış
    • Mamba'nın büyük ölçekli modellerde gerçekten kullanılıp kullanılmadığını merak ediyorum. Bildiğim kadarıyla hâlâ verimli uygulamaları eksik. Ayrıca “eğitim çok daha rafine hale geldi” derken tam olarak ne kastedildiğini de bilmek isterim
    • Transformer sihir değil. Sadece LSTM, RNN, CNN'e göre çok daha verimliydi. Son dönemde reasoning token kullanarak düşünme sürecini dışa vuran modeller de çıktı. Kusursuz değiller ama şu ana kadar en iyi çalışan yaklaşım bu oldu
  • Bugünkü modeller zaten neredeyse tüm açık verileri öğrenmiş durumda. Telif kısıtlamaları sıkılaşırsa eğitim verisi kıtlığı sorunu ortaya çıkabilir. Yeni bir “Attention is All You Need” düzeyinde yenilik olmazsa performans artışının sınırına gelinmiş gibi hissettiriyor

    • Yine de araştırmacılar yeni fikirler denemeye devam ediyor. 5-10 yıl içinde bir atılım gelebilir. Ama bu süreçte maliyet yükü büyük olacaktır
    • Matematik ve yazılım alanları sentetik veri üretimi mümkün olduğu için daha az kısıtlı. AlphaGo Zero gibi kendini doğrulayan öğrenmenin mümkün olduğu alanlar bunlar
    • Aslında bugünkü gelişim de “veriyi inanılmaz ölçüde büyütelim” deneyiyle başlamıştı. Sonrasında ayrışma daha çok post-training aşamasında ortaya çıktı
    • Bazı şirketler insanları işe alıp yüksek kaliteli token üretiyor, sonra buna dayanarak sentetik veri oluşturup yeniden eğitimde kullanıyor
  • “LLM hâlâ yaratıcı değil” demek fazla basit kalıyor. Metin tabanlı problemlerde artık mantıksal akıl yürütme mümkün ve görsel ya da UI alanları da hızla gelişiyor

    • Asıl mesele LLM'nin düşünceyi ‘anlamaması’. Akıl yürütme sadece bir geri besleme döngüsü; gerçek düşünce değil. Bu sınırın teknik olarak aşılıp aşılamayacağı konusunda iyimserler de var, karamsarlar da
    • Bana göre LLM bazen daha önce hiç görmediğim fikirler de sunuyor. Ama bunun insanlık ölçeğinde gerçekten yeni olup olmadığından emin olamam
    • Bu yazı “LLM aptaldır” demiyor; zekâ ile aptallık arasındaki sınırın karmaşık ve öngörülemez olduğunu söylüyor
    • LLM mantık problemlerini çözse bile, eğitim verisinde olmayan bir yolla yaklaşmak hâlâ zor
    • Görsel üretim de hızla gelişiyor. Örneğin GenAI Showdown gibi projelerde bu görülebilir
  • İnsanlara sık sık LLM'nin içinde bilinç ya da özerklik olmadığını anlatıyorum. Bugün ‘AI’ kelimesi gereğinden fazla abartılmış bir anlamla kullanılıyor

    • O halde ‘bilinç’ ya da ‘özerklik’ taşıması için iç yapının nasıl farklı olması gerektiğini merak ediyorum
    • Aslında ‘AI’, 1950'lerden beri var olan akademik bir terimdi. Başlangıçta insan düşüncesini taklit etme girişimini ifade ediyordu ama bugün sadece akıllı hesaplama sistemleri anlamına geliyor. Halk ise bunu hâlâ insani anlamıyla algıladığı için karışıklık çıkıyor
    • Ben tam tersine ‘AI’ kelimesinin doğru olduğunu düşünüyorum. Makine yalnızca zekâyı yapay olarak icra ediyor. Bu da matematik ya da mantık gibi sonuçta mekanik bir süreç. Transistörlerin mantık yürütmesi gibi, token tahmini yapması da doğal bir şey
    • İnsan beyninin LLM'den özünde farklı bir biçimde çalıştığından emin olmak için elimizde gerçekten bir gerekçe var mı, bundan da emin değilim
  • LLM'nin fizik problemlerini yanlış çözdüğü örneği görünce güldüm. Aslında fizikçiler de sık sık gerçek dışı varsayımlarla başlar. “Sürtünmesiz küresel çatı” gibi espriler boşuna yok

    • Bu bilimin tipik yaklaşımıdır. Önce basit bir modelle yaklaşık değer bulunur, sonra bunun üstüne gerçek dünyanın karmaşıklığı eklenir
  • Bunun henüz Turing testini geçtiğini söylemek zor. Konuşma uzadıkça bağlam dağılıyor ve nöroplastisite gibi insani özellikleri simüle etmede sınırlar var

    • Bir dönem geçmiş gibi görünüyordu ama artık çoğu insan LLM'nin kendine özgü konuşma tarzını ayırt edebiliyor. Yine de modeller bilerek daha nazik ve daha uzun konuşacak şekilde tasarlandığından tam kıyas yapmak zor
    • Turing testi en başından beri geçti/kaldı sınavı değildi
    • Son zamanlarda “LLM Turing testini geçti” sözü yaygınlaştı ama aslında sorgulayıcının güncel teknolojiyi bildiği varsayımı hesaba katılırsa hâlâ kolayca ayırt edilebilir
    • Ama test bu kadar katı olacaksa, insan da dikkat dağınıklığı yüzünden başarısız olabilir
    • Şimdiye kadar gördüğüm LLM'ler arasında iyi yazı yazan tek bir model bile yok. Bir gün gerçekten sohbet etmesi keyifli bir model çıkacak mı merak ediyorum
  • Orijinal makale başlığı olan “The Future of Everything is Lies, I Guess” içerikle uyuşmadığı için düzeltilmiş. Aslında yazı dengeliydi ve HN yönergelerine uygun olarak clickbait başlık değiştirilmiş

    • Bu yerinde bir karardı. Yazının sözünü ettiği “yalan”, halüsinasyon değil; modele “neden böyle cevap verdin?” diye sorulduğunda alakası olmayan yeni gerekçeler uydurması olgusu. İnsanlar da benzer hatalar yapabiliyor
    • Kürasyon sayesinde başlık bence çok daha iyi olmuş
    • Eski başlık tıklama çekmek için iyiydi ama içeriği temsil etme açısından zayıftı
  • Bilinç tartışmalarında daha mütevazı olmak gerekiyor. İnsan bilinci bile tanımlanmış değilken, LLM'nin bilinci hakkında kesin konuşulamaz

    • Bazı bilinç teorileri LLM'leri dışarıda bırakıyor, bazılarıysa ihtimali açık tutuyor. Bu, kesin cevabı olmayan bir alan
    • Bazı insanlar LLM'lere adeta silikon putlar gibi tapıyor. Kendi yarattıkları şeyi tamamen anladıklarına inanıyorlar ama aynı zamanda onun içinde gizemli bir zekâ özü bulunduğunu da düşünüyorlar. Bu tavır, geçmişte simyacıların altın üretmeye çalışma çabalarını andırıyor
  • Yazının son bölümünde “AI toplumun tamamını değiştirecek” deniyordu ama bu bölüm daha çok LLM'nin sınırlarına odaklanmış gibi geldi

    • Aslında bu yazı 10 bölümlük bir serinin giriş yazısı. Sonraki bölümlerde siyaset, sanat, ekonomi, insan ilişkileri gibi çeşitli konular ele alınacak
    • Şu an tam tersine, “LLM kusursuz değil” mesajını tekrar tekrar vurgulamanın zamanı. Çünkü dünya AI'ı her derde deva bir çözüm sanıyor.