5 puan yazan GN⁺ 2025-07-07 | 4 yorum | WhatsApp'ta paylaş
  • Yazının yazarı, AGI'nin (genel yapay zeka) yakın vadede ortaya çıkacağını düşünmüyor
  • LLM'ler (büyük dil modelleri) etkileyici yetenekler gösterse de insanlar gibi sürekli öğrenip kademeli olarak gelişme becerisinden yoksun
  • Mevcut LLM'ler, kullanıcı geri bildirimi üzerinden özelleşme ya da bağlam biriktirme konusunda sınırlı; bu da gerçek ofis işi otomasyonunda büyük bir engel oluşturuyor
  • Bilgisayar kullanımı ve multimodal veri gibi gerçekçi görevlerde veri kıtlığı, uzun görev süreleri ve teknik zorluklar nedeniyle ilerlemenin yavaş olacağı öngörülüyor
  • Uzun vadede çevrimiçi öğrenme mümkün hale gelirse çok ani bir dönüşüm yaşanacağı bekleniyor; ancak bunun önümüzdeki 10 yıl içinde kolayca gerçekleşeceği düşünülmüyor

Giriş ve AGI için öngörülen zamanlama tartışması

  • Yazar, farklı uzmanlarla AGI'ye ulaşma zamanlaması üzerine yaptığı tartışmalara dayanarak kendi görüşünü ortaya koyuyor
  • Bazıları AGI'nin 2 yıl sonra, bazılarıysa 20 yıl sonra ortaya çıkacağını öngörse de yazar, Haziran 2025 itibarıyla AGI'nin çok yakında geleceğini düşünmüyor

Sürekli öğrenmenin (Continual Learning) sınırları

  • Birçok kişi mevcut yapay zeka teknolojisinin bile ekonomik açıdan internetten daha dönüştürücü olduğunu savunuyor; ancak yazar buna katılmıyor
  • Fortune 500 şirketlerinin LLM'leri iş yapış biçimini kökten dönüştürmek için kullanamamasının nedeni yöneticilerin muhafazakarlığı değil, mevcut yapay zekanın sürekli öğrenme eksikliği
  • Yazar, çeşitli LLM tabanlı araçları bizzat geliştirip kullanırken, LLM'lerin tekrarlı işlerde yaklaşık 5/10 düzeyinde performans verdiğini ama kademeli gelişim becerisinden yoksun olduğunu gözlemlediğini söylüyor
  • İnsanlar bağlam kurma, kendi hatalarını analiz etme, tekrar yoluyla küçük iyileştirmeleri edinme gibi becerilerle üretkenliğini artırırken, LLM'lerde yüksek seviyeli geri bildirimin aktarılacağı bir kanal yok; yalnızca prompt ayarlayarak insana benzer biçimde “öğrenmek” mümkün değil
  • RL (RLHF) fine-tuning mevcut olsa da bu, insanlardaki uyarlanabilir ve organik öğrenmeden oldukça uzak; bu da iş otomasyonunda belirleyici bir kısıt
  • Yapay zeka modellerinin insan çalışanlar gibi iş sırasında zengin bağlam biriktirip hatırlayarak gelişmesi için hâlâ yeterli çözüm yok
  • Oturum içinde bir miktar bağlam öğrenimi gerçekleşebilse de oturum sona erdiğinde öğrenilmiş tüm bağlam kayboluyor
  • Uzun süreli bellek (rolling context window) gibi çözümler deneniyor; ancak zengin deneyimsel bilginin özeti kırılgan ve metin tabanlı alanlar dışında daha da verimsiz çalışıyor
  • Yapay zeka gelişimi mevcut seviyede takılı kalırsa bile birçok ofis işi bu teknolojiyle kolayca ikame edilemeyecek; insan çalışanların bağlam öğrenme becerisi önemli bir avantaj olmaya devam edecek
  • Başka bir deyişle, sürekli öğrenme teknolojisi gerçekten hayata geçtiği anda yapay zekanın değeri sıçramalı biçimde artacak ve nihayetinde bu teknoloji mümkün olduğunda birden fazla örnek arasında öğrenim paylaşımı sayesinde insanlardan daha hızlı süperzekaya dönüşmesi mümkün olacak
  • Ancak laboratuvarların çığır açıcı teknolojileri tamamen olgunlaştırmadan önce kusurlu sürümlerini yayımlama motivasyonu da güçlü olduğundan, sürekli öğrenmede gerçek sıçrama yaşanmadan önce bazı işaretlerin görüleceği tahmin ediliyor

Bilgisayar kullanımı ve otomasyondaki pratik zorluklar

  • Anthropic araştırmacılarıyla yapılan görüşmelerde 2026 sonuna kadar yüksek güvenilirliğe sahip bilgisayar kullanım ajanlarının ortaya çıkacağı öngörüsü dile getirilmiş olsa da yazar buna kuşkuyla yaklaşıyor
  • Şu anda da bilgisayar kullanım ajanları mevcut; ancak pratikte kullanımları verimsiz
  • Vergi beyanı gibi gerçek görevleri otomatikleştirmek için birden fazla sistem, uzun süreli ajan çalıştırma ve çeşitli multimodal veri işleme gerekiyor; bu da eğitim ve doğrulama süreçlerini çok yavaşlatıyor
  • Mevcut metin ön eğitim verilerinin (yani dil modellerinde kullanılan büyük internet metin koleksiyonlarının) aksine, multimodal bilgisayar kullanım veri setleri yetersiz; bu nedenle yüksek güvenilirlikte ajan geliştirilmesinin zaman alacağı düşünülüyor
  • Yeni önerilen yenilikçi algoritmalar bile gerçek saha uygulamasına ulaşmak için yıllar süren mühendislik ayarları gerektiriyor; bu yüzden bilgisayar kullanımı alanındaki ilerlemenin oldukça yavaş olması bekleniyor

Akıl yürütme yeteneğindeki ilerleme ve sınırlar

  • Gemini 2.5 gibi en yeni modeller, konuşanın niyetini yorumlama, mantıksal öz denetim, bağlama uygun tepki verme gibi alanlarda gerçekten akıl yürütme becerisi sergiliyor
  • Claude Code gibi araçlar, yalnızca verilen spesifikasyondan çalışan kodu hızla üretebildiği için, gerçekten de geniş alanlarda başlangıç düzeyinde bir “genel zeka” emaresi gösteriyor
  • En üst düzey LLM'lerin güçlü olduğu alanlarda oldukça etkileyici sonuçlar da görülebiliyor

Kısa ve uzun vadeli AI/AGI tahminleri

  • Yazar, kendi tahminlerine olasılıksal bir bakışla yaklaştığını özellikle vurguluyor; bu nedenle önlem almanın hâlâ makul olduğunu belirtiyor
  • Aşağıdaki maddelere %50 olasılıkla bahis yapmaya istekli olduğunu söylüyor
    • 2028'e kadar: Yapay zekanın küçük bir işletmenin vergi beyanı sürecinin tamamını uçtan uca yürütebilecek seviyeye ulaşma ihtimali var
      • Mevcut bilgisayar kullanımı becerisi GPT-2 seviyesinde kalıyor; veri kıtlığı ve uzun zaman ufku nedeniyle optimizasyon zorluğu yüksek
      • Etkileyici demolar 2026~2027 döneminde de çıkacaktır; ancak tamamen otonom biçimde uzun süreli ve karmaşık görevleri yerine getirme seviyesi zor görünüyor
    • 2032'ye kadar: Yapay zekanın insanlar gibi iş sırasında doğal ve kademeli biçimde öğrenip, birkaç aylık iş uyum sürecinin ardından bağlamı, tercihleri ve iş bilgisini insanlar kadar içselleştirebildiği bir döneme ulaşılması mümkün olabilir
      • Çevrimiçi sürekli öğrenmenin uygulanması yakın görünmese bile, 7 yıllık sürede temel bir atılım yaşanabilir

Yapay zeka ilerlemesini sınırlayan etkenler ve gelecek görünümü

  • AGI'nin gerçekleşme zamanı olasılıksal olarak çok geniş bir dağılıma (log-normal) sahip ve yapay zeka ilerlemesi son 10 yılda hesaplama gücündeki (training compute) artışla yakından bağlantılı oldu
  • Hesaplama gücündeki artışın 2030 sonrasında sınırlarına ulaşması bekleniyor; bu durumda algoritmik yenilikler darboğaz haline gelecek
  • Yenilikçi bir paradigma değişimi olmazsa, AGI'nin her yıl ortaya çıkma olasılığı zamanla azalabilir
  • Eğer “uzun vade” tahmini doğru çıkarsa, 2030~2040 arasında gündelik dünyanın büyük ölçüde değişmemesi de mümkün; ancak mevcut yapay zeka sınırları aşılırsa çok daha radikal değişimler yaşanabilir

4 yorum

 
mirea0 2025-07-08

Kalıcılık ve öğrenme konusunda fiziksel sınırlamalar olduğu için AGI’nin gerçekleşmediğini düşünüyorum
Bu, kelimenin tam anlamıyla fiziksel sınırlamalar olduğu için; teknolojik kapasite yetersiz olduğu için değil
Böyle sınırlamalar konulmaz ve AGI olarak bir adım daha ileri gidilirse, o noktadan sonra geri döndürmek zor olur; AI geliştiricileri de bunun farkında olduğu için onu sadece hizmete uyarlanmış şekilde geliştiriyorlar, bu sınırlamaları kaldırmaya çalışmıyorlar diye düşünüyorum

 
iolothebard 2025-07-08

Size tamamen katılıyorum!

 
GN⁺ 2025-07-07
Hacker News görüşleri
  • “Bence gerçekten önemli nokta şu: LLM’lerin zaman içinde insanlar gibi kademeli olarak daha iyi hale gelmemesi yönünde temel bir sorun var. LLM’lerin temel performansı birçok görevde ortalama insandan yüksek olabilir, ancak modele yüksek boyutlu geri bildirim verecek hiçbir yöntem olmadığı için kutudan çıktığı halinin ötesinde iyileşememesi gibi bir problem var. Bunu sinir ağlarında sık görülen bir sınır olarak görüyorum. Waymo Driver gibi sistemler bu sorundan kaçınıyor. Örneğin Waymo’da sürüş sırasında bir sorun çıkarsa, çeşitli simülasyonlar çalıştırıp sorunlu durumu farklı biçimlere dönüştürerek Driver’a yeniden öğreten bir süreç var. Tam yöntemi açıklamadılar ama bunun uçtan uca sinir ağından farklı bir yapı olduğunu söylediler. Waymo içinde uçtan uca sinir ağı denemişlerdi ama mevcut sistemden daha iyi olmadığı için şimdi başka bir şey kullanıyorlar; bunun tam olarak ne olduğunu bilen kişi sayısı çok az.”
    • “LLM’ler insanlar gibi kademeli gelişmese bile, Prolog gibi araçlarla yeteneklerini genişletebilmesi önemli. Bence yapay zekanın bir sonraki aşaması, LLM’lerin daha iyi araçlar veya stratejiler kullanabilmesini sağlamak olacak. Örneğin mantık kuralları, sezgisel algoritmalar ve ince ayarlanmış LLM ajanlarını tek bir mimaride birleştirip LLM’in araçları olarak kullanan yapılar olgunlaşacak. Ekonomik baskının özellikle askeri amaçlı yapay zeka geliştirmeyi hızlandırdığına da dikkat etmek gerek. Prolog sistemleri kullanılırsa LLM, veritabanına olgu ekleyebilir, yeni ilişkiler çıkarımlayabilir ve böylece sürekli öğrenebilir. Arama için yeni modeller ya da yöntemler öneren sezgiseller de eklenebilir.”
    • “Bildiğim kadarıyla Waymo; sezgiseller, kurallar, sinir ağları ve başka tekniklerin insanlar tarafından bir araya getirildiği bir sistem. Tam anlamıyla uçtan uca bir sinir ağı değil. AIish ifadesi iyi oturuyor; tasarım gereği AGI’dan uzak.”
    • “Birçok kişinin neden şu soruyu neredeyse hiç sormadığına şaşırıyorum: Mevcut son teknoloji yapay zeka zaten insanı çok daha güçlü hale getirmiyor mu? Kendi kendini iyileştirmenin geometrik olarak hızlanması bana daha çok korkutucu geliyor. Diyelim ki her şey yolunda gitti; insanlar artık zihinsel rekabette birinciliği koruyamayacak ve bu kabul etmesi zor bir kırılma noktası olur. Eğer gerçekten öz-iyileştirme istiyorsak, insanların kendilerinin gereksiz hale gelmesine alışması gerekir.”
    • “Sinir ağlarının sınırlarını merak ediyorsanız John Carmack’in yakın tarihli konuşmasına bakın: YouTube bağlantısı. Yaklaşık 30. dakikada bu konuyu doğrudan ele alıyor.”
    • “Yapay zekanın çoğu devasa veriyle eğitildiği için, bir sonraki büyük veri kümesi hazır olana kadar çok zaman geçmesi gerekmesi de bir sınır.”
  • “AGI’nin yakında geleceğini söyleyen insanlar genelde ya 1. bir şey satmaya çalışıyordur, ya 2. kendi hikayesine fazla kapılmıştır, ya 3. başka bir sebeple aşırı heyecanlıdır, ya da 4. büyük ihtimalle üçünün hepsidir. LLM’ler tasarım gereği dilde güçlü ve metin özetlemede fena değil, ama mantıkta zayıf ve uzamsal akıl yürütmede çok kötü. Bu yüzden kavramları bağlamada da iyi değiller. Tanınmış bir LLM’ye ‘alan fark etmeksizin en zor çözülmemiş problem nedir’ diye sorarsanız, bilim dergisi tarzı bir yazı çıkar ama içinde ince ama kritik hatalarla dolu olur; cevap kulağa makul gelse de aslında çöptür.”
    • “LLM’ler, eğitim veri kümesini sıkıştırıp metin tabanlı etkileşimli erişim sunan araçlardan ibaret.”
    • “Bence burada kilit ifade ‘belirsiz’. LLM’ler genel olarak zeki göründüğü için ben kendi ölçütüme göre AGI çağına girdiğimizi hissediyorum ama sanırım birçok kişi AGI’yi ‘insanüstü yapay zeka’ olarak görüyor. O ölçüte göre henüz orada değiliz ve bundan sonrası da kolay görünmüyor. Bana göre şu an zaten AGI çağındayız.”
    • “LLM’ler, bizim yarattığımız metin dünyasında gerçekten çok iyi çalışıyor ama hakikati arayan varlıklar değiller. Canlılar ölümcül hatalar yaptıklarında ölür; yapay zeka ise yanlış yapsa bile sadece binlerce token üretir.”
    • “Hakikat arayışının eksikliğinin LLM’lerin sorunu olduğu eleştirisine katılıyorum ama insanlarda da bunun çok örneği var, o yüzden bana çok büyük bir eleştiri gibi gelmiyor. AGI’nin ilk tanımını—insan medyanının üstünde olacak şekilde neredeyse her görevi yapabilme—esas alırsak, şu an buna epey yakınız ve önümüzdeki 5 yıl içinde fiziksel olmayan işlerde uzman düzeyinde rekabet mümkün görünüyor (fiziksel işler için tahminen 5–10 yıl gerekir). LLM’lerin dilde güçlü olduğu doğru ama bence bu zaten zeka düzeyini yansıtıyor. Uzamsal düşünmede zayıf oldukları değerlendirmesinin de biraz abartılı olduğunu düşünüyorum; önceki uzamsal akıl yürütme odaklı modellerden çok daha iyiler. İnsandan geride olsalar bile, son modellerin robotlara uygulanıp gerçekten çalışıyor olması bile yapay zeka açısından çok hızlı bir ilerlemeye işaret ediyor.”
    • “Benim AGI tanımıma göre, eğer bir yapay zeka ilgili alandaki uzman çalışanların en az %5’inden neredeyse tüm işlerde daha iyiyse AGI’ye ulaşılmış sayılır. İnsanların en alt %5’lik zihinsel kapasitesinin bile ‘zeka’ diye adlandırılmayı hak ettiğini düşünüyorum; eğer bir yapay zeka bu eşiği aşarak insanlığın önemli bir kısmından her alanda daha iyiyse buna AGI demeliyiz. Ama bunun tek bir alanda değil, tüm zihinsel görevlerde daha iyi bir yapay zeka olması gerekir.”
  • “Ben sadece AGI’nin yakında gelmemesini umuyorum. Toplum ve siyaset buna hiç hazır değil; ters giderse insanlığın geleceği distopyaya kayabilir. Üstelik şu an yapay zekada biraz daha düşük güç tüketimi ve küçük iyileştirmeler bile olsa, birçok alanda zaten son derece kullanışlı hale geliyor; buna bile insan toplumu henüz tam hazır değil. Sorun şu ki, temel model geliştiren şirketlerin şimdiye kadar harcadıkları parayı geri kazanmasının pek net bir yolu yok; bu yüzden ya büyük bir atılım ya da yapay zekayı zorlayarak birçok alana itmek dışında seçenekleri kalmamış gibi görünüyor.”
    • “Ben de aynı hissediyorum ve bu balonun yakında sönmesini içtenlikle umuyorum. Meta’nın artırılmış gerçekliğe 100 milyar dolar yatırdığı söyleniyor; yönetim kurulunda oturan o adam yine reklam maliyetlerini azaltmak yerine pervasızca yeni maceralara atılıyor. Altman gibi figürler de artık geri dönemeyecekleri bir yola girdi ve fırsat varken olabildiğince para toplamaya çalışacaklar. Hepimiz için tek umut, bunların eski dotcom balonunda olduğu gibi başarısız olması.”
    • “Yapay zekaya yapılan yatırım o kadar büyük ki, sadece amortisman giderleri bile tüm yapay zeka şirketlerinin toplam gelirinden fazla olabilir; birçok kişi bu sabit maliyetlerin nasıl geri kazanılacağını gözden kaçırıyor.”
    • “Eğer tek bir yapay zeka neredeyse hiç çalışan olmadan bir sektörün tamamının yerini alabiliyorsa, maliyetleri geri kazanmak çok kolay olur. Muazzam bir kâr yaratabilir.”
    • “Düşük doğum oranlarının gerçekten ciddi bir sorun olduğunu düşünüyorsanız, AGI’nin yakında gelmesi aslında çözüm olabilir. Ekonomik sorunları sonsuz nüfus artışı varsayımıyla çözmeye çalışan paradigmayı yeniden düşünmek gerekiyor.”
    • “AGI insan zekasıyla tam olarak aynı mı olmak zorunda? Bazı işlevlerde çok güçlü, bazılarında zayıf olsa da buna AGI diyebilir miyiz diye düşünüyorum.”
  • “AGI’nin yakında çıkmasından bir yana, bunun überhaupt mümkün olup olmadığından bile emin değilim. En azından geleneksel bilgisayar donanımıyla zor olduğunu düşünüyorum. Bilgiyi düzgün biçimde tekrar üretme becerisinin tek başına zeka tanımı ya da ölçümü olamayacağını düşünüyorum. Gerçek anlamda yapay zekayı hayata geçirirsek, ilk gösterildiğinde insan ölçütlerine göre çok düşük zekalı görünebilir ama dış yardıma ihtiyaç duymadan kendi kendine öğrenebilen gerçek bir yapay zeka olabilir.”
    • “İnsan genel zekâsının doğaüstü ve ölçülemez bir unsurdan kaynaklandığına inanmıyorsanız, AGI’nin imkânsız olduğu iddiası bence çürür. Sonuçta insan da bir makine, dolayısıyla beynin biyolojik olmayan bir biçimde kopyalanabileceğini düşünüyorum. Belki de ilk AGI, bir petri kabında büyütülmüş ve üstüne sadece bir Python API eklenmiş bir beyin olur; belki de silikon tabanlı olur.”
    • “Başka bir açıdan da düşünmek gerek. Araçlar benim zekâmı aşarsa buna nasıl uyum sağlayacağımı düşünüyorum. İnternette artık birinin bir soruya ChatGPT ile cevap verdiği, o sorunun bile ChatGPT tarafından üretildiği durumlar var; kimin ne yaptığı tamamen belirsizleşiyor.”
    • “Bence zekânın genişleme sınırı hesaplama kaynaklarından geliyor. Bir sistemi iyi modellemek için gereken hesaplama miktarı, sistem karmaşıklaştıkça ya da kaotik hale geldikçe neredeyse üstel olarak artıyor. Bu nedenle zekânın etkisi özünde sadece basit ve düzenli sistemlerde ortaya çıkabilir. En pratik ve sağlam yaklaşım, değişkenleri olabildiğince ortadan kaldırmaktır. Sonuçta ister süperzeka olsun ister olmasın, zekânın gerçek sınırı bu.”
    • “Bunun neden imkânsız olduğunu düşündüğünü merak ediyorum.”
    • “AGI hakkında net bir tanım ya da uzlaşma yok. Bence bundan sonra da yapay zekanın zaten güçlü olduğu alanlarda—metin ve görsel üretimi, kod üretimi gibi—kademeli iyileşmeler görmeye devam edeceğiz. Yapay zekanın herkesin bütün sorunlarını çözeceği ve insanlığın sahilde ütopik bir refah yaşayacağı fantezisinin gerçeklikle hiçbir bağı yok.”
  • “Dwarkesh’in bakış açısı etkileyici. Onun ne kadar ilerleme kaydettiğini dinlemek her zaman keyifli. Temel iddiası, uyarlanabilir öğrenmenin gerekli olduğu ama bunun işaretlerinin görünmediği yönünde. Benim tahminim, frontier lab’ler uzun bağlamın bu sorunu çözeceğini umuyor. 10 milyon token’lık uzun bağlam, iç durumu iyi koruyup çeşitli görevleri yerine getirebilir; şu anki sınırlama ise uzun bağlamlı modellerde pencere bazında kalite dalgalanmasının yüksek olması. Soruyu şöyle de sorabiliriz: 2 yıl içinde 10 milyon token’dan fazla işe yarar bağlam penceresine sahip olabilir miyiz? Bence olasılığı yüksek.”
    • “Bunu çözdüğünü iddia eden bir şirket vardı ama şimdi onlardan sadece sessizlik geliyor.”
    • “‘Uzun bağlam’ın ne kadar uzun olması gerektiği sorusu kalıyor. Gerçek insanlarda onlarca yıla yayılan çok modlu girdiler bağlamın parçası.”
    • “Demmis’in AGI’ye 10 yıl içinde ulaşılacağı yönündeki sözüne inanıyorum. Kendisi bu alanı uzun süre öncülük ederek geliştirdi ve OpenAI bile bir bakıma Demmis’in araştırma hızından çekindiği için kuruldu. Demmis’in öngörüsüne güveniyorum; 2035 civarında insanlarla neredeyse tüm görevlerde eşit ya da daha iyi bir AGI ortaya çıkacağını söylüyor.”
    • “Yakında (<5 yıl) gerçek test-time learning’in devreye gireceğinden eminim. Alphaproof’ta (DeepMind’ın IMO challenge’ı) bu teknik zaten kullanıldı.”
  • “ABD’de yetişkinlerin %54’ünün ülke genelinde 6. sınıf ve altı okuma-anlama düzeyine sahip olduğuna dair bir istatistik var. Bu durumda AGI’ye zaten ulaşmış olabilir miyiz diye düşündürüyor: Wikipedia bağlantısı
    • “Bir ülkenin eğitimde başarısız olmasıyla AGI’nin ne ilgisi var, emin değilim.”
    • “İyi bir nokta. O zaman LLM’nin çamaşır yıkayıp bulaşık yıkadığını da görmek isterim. Bir robota beden kazandırsanız bile kolay olmayacaktır.”
    • “Sadece okuyabiliyor olmak AGI için yeterli koşul mu diye düşündürüyor.”
    • “Ekonomik açıdan AGI’yi genel işgücüyle, örneğin copy-editing gibi belirli bir işe alınan çalışanlarla karşılaştırmak daha gerçekçi. Ülke genelindeki ortalamadan çok, gerçekten işe alınma olasılığı olan iş uyumuna bakmak gerekir.”
    • “Okuma yazma bilmeyen insanlar bile LLM’lerin yapamadığı devasa zorlukları çözebilir.”
  • “Bence yapay zekanın gelişimi tartışmalarındaki sorun, gelecekteki yapay zekanın sorunları insanlarla aynı şekilde çözeceğinin varsayılması. Böyle bakınca sürekli öğrenme eksikliği ölümcül kusur gibi görünüyor. Oysa derin öğrenmenin gelişim tarihinde sürekli öğrenme hiçbir zaman itici güç olmadı; büyük veri kümeleri ve ölçekleme en başarılı yöntemlerdi. Sürekli öğrenmenin zorunlu olduğu iddiası ikna edici olacaksa, görevler arası öğrenmenin sınırlarını ve yapay zekanın asla başaramayacağı alanları somut biçimde göstermek gerekir. Yazarın RL flywheel’dan—iyi bir programlama yapay zekasına RL tekrar tekrar uygulandığında ortaya çıkan hızlandırıcı etkiden—söz ederkenki belirsizliğe rağmen metnin genel tonu bana biraz fazla kendinden emin geliyor.”
    • “Alphaproof, her problem için AlphaZero tarzı test-time training kullanarak benzer problemler üretme yaklaşımını kullandı.”
    • “Sürekli öğrenmenin derin öğrenmenin gelişim tarihinde önemli olmamasının sebebi, bu alandaki insanların baştan farklı bir hedef seçmiş olması olabilir. Hedef en zeki yapay zeka değil de en faydalı ve üretken yapay zeka ise, zeki ama inatçı bir dâhiden ziyade aptal olsa bile başarısızlıktan öğrenen bir varlık çoğu zaman daha değerli olabilir.”
  • “Benim bakış açıma göre mevcut LLM’ler, insanların söyleyebileceği şeyleri tahmin etmeye dayalı bir yapı olduğu için zeka/akıl yürütme de insan düzeyinde kalacaktır. Bilgi kapsamı insanı aşabilir ama zeka ya da yaratıcılıkta insana eşit veya daha düşük kalabilir. Yapay zeka şirketleri sonraki nesil LLM’lerin yeni içgörüler üretip çözülmemiş problemleri çözeceğini öngörüyor ama gerçek içgörü için alt ilkelerden kavramları serbestçe yeniden kurabilen bir iç yapı gerektiğini düşünüyorum. LLM’ler yeni anlayış katmanları inşa edemediği için sınırları var. Eğer gerçekten insan beyninde olduğu gibi girdiden soyut kavrayışa katman katman çıkan bir yapı kurulursa bu sınır aşılabilir. Bir gün yeni bir yapay zeka paradigması çıkıp LLM’leri geride bırakabilir ama açıkçası tahminimin yanlış çıkmasını isterim; ASI de biraz korkutucu.”
    • “İnsan düzeyinde yapay zeka performansı ortaya çıksa bile, makineler insanlardan farklı olarak sadece GPU performansını artırarak anında 10 kat daha hızlı zeka elde edebilir. Hızın kendisi bile insanüstü bir yetenek ve aynı sistemi birçok kez çalıştırıp farklı yaklaşımları eşzamanlı deneyerek en iyi çözümü seçmek de mümkün. Doğrulanabilir görevlerde bu muazzam bir üstünlük sağlar.”
    • “Mevcut LLM’ler artık yalnızca basit insan cümlesi tahmincileri değil; matematik ve programlama problemlerinde doğru cevapla ilişkili token’ları tahmin etmeye doğru evriliyor.”
  • “Tartışmaların çoğu yapay zeka konusunda karamsar ama aslında yazar 2030’ların başına kadar AGI’ye ulaşma olasılığını %50 olarak vermiş ve 2028’e kadar ASI’nin yanlış yönde gelişme ihtimaline karşı da hazırlıklı olunması gerektiğini söylemişti. Yani yazar aslında yapay zeka konusunda daha iyimser.”
    • “Eğer 3 yıl içinde ASI ters çalışmaya başlarsa, hiçbir önlem anlamlı olmayabilir diye düşünüyorum.”
  • “Son zamanlarda artık kimsenin model boyutlarını açıklamamasından, model eğitiminin çoktan sınıra dayanmış olduğuna dair bir işaret çıkarılabileceğini düşünüyorum.”
 
kandk 2026-02-17

Yine aynı şey.