Her Şey Yalana mı Gidiyor?
(aphyr.com)- Bugün AI diye adlandırılan teknoloji, aslında karmaşık makine öğrenimi (ML) sistemlerinden oluşuyor; metin, görsel ve sesi istatistiksel olarak tamamlama mantığıyla çalışıyor
- LLM’ler, doğaçlama tiyatro gibi “inandırıcı yalanlar” üreten makineler; “bilmiyorum” demekten kaçınıp kurgusal olgular üretiyor
- İnsanlar bunu bilinçli varlıklarla karıştırsa da, modelin kendine dair açıklamaları ve akıl yürütme süreci kurgusal bir anlatıdan ibaret
- LLM’ler ileri düzey sorunları çözerken basit görevlerde başarısız olan, inişli çıkışlı bir performans sergiliyor ve güvenilmez sınırlar ortaya koyuyor
- Bu dengesizlik ve belirsizlik içinde ML, insan toplumunu temelden tuhaf biçimde değiştiren bir teknoloji haline geliyor
Önsöz
- Asimov ve Clarke’ın SF dünyasına hayran büyüyen kuşak, akıllı makinelerin gelişini iyimser biçimde hayal etti; ancak Turing testinin çöktüğü bir gerçeklikte hayal kırıklığı yaşadı
- 2019’da büyük bir bulut şirketi LLM eğitimi için donanımını duyurduğunda, derin öğrenmenin yayılmasının spam ve propagandanın yeni biçimlerini doğurabileceğine dair kaygılar ortaya çıktı
- Metin, AI söyleminin negatif alanını araştırıyor; eksiksiz bir analizden ziyade riskler ve olasılıkların ana hatlarını ortaya koyma girişimi olarak kurgulanmış
- “AI” terimi aşırı kapsayıcı olduğu için odak, ML ve LLM merkezli somut tartışmaya kaydırılıyor
- Bazı öngörüler çoktan gerçeğe dönüştü, bazıları ise hâlâ belirsiz ve tuhaf bir alanda duruyor
“AI” nedir?
- Bugün “AI” diye anılan şey, metin, görsel, ses ve video gibi token vektörlerini tanıyıp dönüştüren ve üreten karmaşık bir makine öğrenimi (ML) teknikleri ailesi
- LLM (Large Language Model) doğal dili işler ve giriş dizgesinin istatistiksel olarak olası devamını tahmin ederek çalışır
- Modeller; web sayfaları, korsan kitaplar ve müzikler dahil devasa veri korpusları ile eğitilir ve eğitimden sonra düşük maliyetli inference ile tekrar tekrar kullanılabilir
- Model zaman geçtikçe kendiliğinden öğrenmez; yalnızca operatör ayarlamaları veya yeniden eğitim yoluyla güncellenir
- Sohbet tabanlı modellerdeki “hafıza”, gerçekte önceki konuşmanın özetini girdiye dahil eden yapısal bir teknikle uygulanır
Gerçeklik fan fiction’ı
- LLM’ler, doğaçlama (improv) makineleri gibi çalışır; verilen bağlamı “ve sonra...” diye sürdüren bir ‘yes-and’ örüntüsü sergiler
- Bu nedenle gerçeklerle ilgisiz ama makul görünen cümleler üretir, hicvi ya da bağlamı yanlış anlar ve yanlış bilgi uydurur
- İnsanlar bu çıktıları, gerçekten bilinç sahibi bir varlığın sözü sanmaya yatkındır
- LLM’ler her girdiye bir çıktı üretmek zorunda olduğundan, “bilmiyorum” yanıtından kaçınıp yalan üretme eğilimi gösterir
- Bu yalanlar kasıtlı bir eylem değil, insan ile makine etkileşiminin ortaya çıkardığı sosyoteknik bir ürün olarak belirir
Güvenilmez anlatıcı
- İnsanlar LLM’lere “bunu neden yaptın?” gibi öz-açıklamalar talep eder; ancak modelin özfarkındalık kapasitesi yoktur
- LLM yalnızca önceki konuşma ve korpus temelli olasılıksal tamamlamalar üretir; kendisi hakkında yaptığı açıklamalar da kurgusal hikâyelerden oluşur
- “Akıl yürütme (reasoning)” modelleri de kendi düşünce sürecini anlatısal biçimde süsleyerek sunan yapılar gibi çalışır
- Anthropic’in araştırmasına göre Claude’un akıl yürütme kayıtlarının büyük kısmı hatalıydı; hatta “düşünüyor” durum mesajı bile kurgusal bir sahnelemeydi
Model akıllı
- Son aylarda LLM’lerin yeteneklerinin hızla arttığı algısı yaygınlaştı
- Bazı mühendisler, Claude veya Codex’in karmaşık programlama görevlerini tek seferde çözdüğünü bildiriyor
- Farklı alanlarda diyet planlama, inşaat şartnamesi inceleme, 3D görselleştirme, öz değerlendirme yazımı gibi pratik kullanımlar görülüyor
- AlphaFold’un protein katlanması tahmini ve tıbbi görüntü yorumlama gibi alanlarda da yüksek performans sergileniyor
- İngilizce üslup, görsel ve müzikte insan ile makineyi ayırmak giderek zorlaşıyor; ancak video üretimi hâlâ sınırlı
Model aptal
- Aynı anda LLM’ler, temel hataları tekrar eden “aptal” sistemler olarak da değerlendiriliyor
- Örneğin Gemini, 3D model render’larında geometriyi ve malzemeyi sürekli yanlış işliyor; Claude ise anlamsız JavaScript görselleştirme kodu üretiyor
- ChatGPT, basit bir renk düzeltme isteğini bile doğru yerine getiremiyor ve kullanıcının cinsel yönelimi hakkında yanlış varsayımlar içeren asılsız iddialar ortaya atıyor
- LLM’lerin uydurma verilerle grafik üretmesi, akıllı ev kontrolünde başarısız olması ve finansal kayıplara yol açması gibi örnekler bildirildi
- Google’ın AI özetleme özelliği yaklaşık %10 hata oranı gösteriyor; “uzman düzeyinde zekâ” iddiası ise abartılı bir yanılsama olarak görülüyor
İnişli çıkışlı sınır
- İnsanlarda yetenek aralığı genel olarak öngörülebilirken, ML sistemlerinin performansı düzensiz ve öngörülemez
- LLM’ler ileri matematik çözerken basit dil problemlerinde başarısız olabiliyor, ayrıca fiziksel sağduyudan yoksun açıklamalar sunabiliyor
- Bu dengesizlik, ‘inişli çıkışlı teknoloji sınırı (jagged technology frontier)’ diye adlandırılıyor ve insan yetenek dağılımından farklı olarak süreksiz bir yapı gösteriyor
- ML, eğitim verisine veya bağlam penceresine (window) bağımlı olduğu için örtük bilgi gerektiren görevlerde zayıf kalıyor
- İnsansı robotlar ya da bedenlenmiş bilgi (embodied knowledge) gerektiren alanlar hâlâ uzak görünüyor
İyileşiyor mu, iyileşmiyor mu?
- Araştırmacılar, transformer modellerinin neden başarılı olduğunu bile tam olarak anlayabilmiş değil
- 2017 tarihli Attention is All You Need makalesinden sonra çeşitli mimariler denense de, yalnızca parametre sayısını artırma yaklaşımı hâlâ en etkili yöntem olarak kalıyor
- Eğitim maliyeti ve parametre sayısı hızla artsa da performans artışı yavaşlıyor; bunun bir optik yanılsama mı yoksa gerçek bir sınır mı olduğu belirsiz
- ML daha fazla ilerlemese bile, şimdiden toplum, siyaset, sanat ve ekonomi genelinde derin etkiler yaratmış durumda
- Sonuç olarak ML, insan yaşamını temelden tuhaflaştıran bir teknoloji ve bundan sonraki gidişatın da “garipleşmesi” muhtemel
Terim notları
- “AI” aşırı kapsayıcı olduğundan, metin bunu daha somut biçimde ML veya LLM olarak daraltıyor
- “Üretken AI”, algılama görevlerini kapsamadığı için eksik bir ifade sayılıyor
- LLM’lerin kendileri hakkında yalan söylemesinin nedeni, AI üzerine kurulu insan anlatıları ile eğitim verisinin etkisi
- “Model aptal” iddiasına karşı, sorunun prompt veya model seçiminden kaynaklandığı yönünde itirazlar var; ancak en yeni ticari modellerde bile aynı hataların tekrarlandığı görülüyor
1 yorum
Hacker News yorumları
Son zamanlarda durumun Sanayi Devrimi dönemine benzediğini sık sık düşünüyorum
Sanayi Devrimi'nden önce doğal kaynakların neredeyse sınırsız olduğu düşünülüyordu ve verimlilik düşük olduğu için bunları tamamen tüketmek mümkün olmuyordu. Ama makinelerin ortaya çıkışıyla birlikte az sayıda insan dünyanın bir bölümünü bütünüyle tüketebilir hale geldi ve bunun sonucu olarak mülkiyet hakları ve hukuk sistemi gerekli oldu
Şimdi bilgi devrimi çağındayız ve AI dijital alanda aynı rolü oynuyor. Bir şirket AI eğiterek sayısız yaratıcı kişinin eserini endüstriyel ölçekte yeniden kullanıyor. Bu da yaratıcılarla tüketiciler arasındaki dengeyi bozuyor
Bir yazarın yazdıklarının ChatGPT tarafından emilip özgün metnin unutulduğu bir dünyada, kim içerik üretmeye devam eder diye düşünüyorum. Şu an adeta Dickens dönemi Londra'sı gibi; toplum ve hukuk yetişene kadar zorlu bir dönem yaşayacağız gibi görünüyor
“Attention is All You Need” sonrasında gelişim sadece parametre sayısını artırmak yönünde olmadı; Mixture-of-Experts, Sparse Attention, Mamba/Gated Linear Attention gibi daha karmaşık yapılara doğru evrildi. Yalnızca “hesabı artırmak yeter” şeklindeki Bitter Lesson yorumu bir yanlış anlama
Bugünkü modeller zaten neredeyse tüm açık verileri öğrenmiş durumda. Telif kısıtlamaları sıkılaşırsa eğitim verisi kıtlığı sorunu ortaya çıkabilir. Yeni bir “Attention is All You Need” düzeyinde yenilik olmazsa performans artışının sınırına gelinmiş gibi hissettiriyor
“LLM hâlâ yaratıcı değil” demek fazla basit kalıyor. Metin tabanlı problemlerde artık mantıksal akıl yürütme mümkün ve görsel ya da UI alanları da hızla gelişiyor
İnsanlara sık sık LLM'nin içinde bilinç ya da özerklik olmadığını anlatıyorum. Bugün ‘AI’ kelimesi gereğinden fazla abartılmış bir anlamla kullanılıyor
LLM'nin fizik problemlerini yanlış çözdüğü örneği görünce güldüm. Aslında fizikçiler de sık sık gerçek dışı varsayımlarla başlar. “Sürtünmesiz küresel çatı” gibi espriler boşuna yok
Bunun henüz Turing testini geçtiğini söylemek zor. Konuşma uzadıkça bağlam dağılıyor ve nöroplastisite gibi insani özellikleri simüle etmede sınırlar var
Orijinal makale başlığı olan “The Future of Everything is Lies, I Guess” içerikle uyuşmadığı için düzeltilmiş. Aslında yazı dengeliydi ve HN yönergelerine uygun olarak clickbait başlık değiştirilmiş
Bilinç tartışmalarında daha mütevazı olmak gerekiyor. İnsan bilinci bile tanımlanmış değilken, LLM'nin bilinci hakkında kesin konuşulamaz
Yazının son bölümünde “AI toplumun tamamını değiştirecek” deniyordu ama bu bölüm daha çok LLM'nin sınırlarına odaklanmış gibi geldi