- Mevcut büyük dil modelleri ölçek büyütme sınırına dayanmış durumda ve AGI’ye daha büyük modellerle değil, sistem mimarisi tasarımıyla yaklaşmak gerekiyor
- Gerçek AGI; bağlam yönetimi, kalıcı bellek, deterministik iş akışları, uzmanlaşmış modellerin iş birliği gibi çeşitli bileşenlerin organik biçimde birleştiği bir mühendislik başarısı olarak inşa edilmeli
- LLM’ler hâlâ oturumlar arasında bağlamı koruyamama, güvenilir çok adımlı akıl yürütmenin yokluğu, bellek eksikliği gibi yapısal sınırlamalar taşıyor
- AGI’ye ulaşmak için, insan beyninde olduğu gibi amacı net olan modüler yapı ve dağıtık sistem yaklaşımı, yani hata toleranslı pipeline’lar, izleme, rolling update ve büyük ölçekli test framework’leri gibi altyapıların kurulması gerekiyor
- Dolayısıyla AGI yarışı, GPU ölçeğiyle değil sistem mühendisliği yetkinliğiyle belirlenecek
Giriş: AGI bir mühendislik problemidir
- Yapay zeka alanında ölçekleme yasalarının sınırları görünür hale geliyor
- GPT-5, Claude, Gemini gibi en iyi modeller bile giderek azalan getiri gösteriyor
- Dil modellerinin büyüklüğünü artırmak temel sınırlara çarptı ve AGI, model eğitimiyle değil sistem mühendisliğiyle gerçekleştirilebilir
Gerçekçi sınırlar: LLM duvarı
- Mevcut nesil büyük dil modelleri (LLM) geçici örüntü eşleme ve metin üretiminde güçlü olsa da, şu temel sınırlamalara sahip
- Tutarlı bağlamı koruyamama
- Uzun vadeli, oturumlar arası kalıcı bellek eksikliği
- Karmaşık çok adımlı akıl yürütmede düşük güvenilirlik
- Geçmişte yarı iletken endüstrisi de benzer bir durum yaşadı ve çözüm yapısal dönüşümdeydi (ör. çok çekirdekli yapılar)
- Yapay zekada da mimari düzeyde yeniden tasarım gerekiyor
AGI için sistematik yaklaşım
- İnsan beyni tek bir sinir ağı değil, birden çok uzmanlaşmış ve birlikte çalışan sistemin toplamıdır
- Bellek, bağlam, mantık, mekân ve dil gibi alanlarda eşzamansız geri besleme döngüleri kritik önemdedir
- Gerçek AGI için bu tür bir bileşik sistem tasarımı zorunludur
1. Bağlam yönetimi altyapısı
- Mevcut modellerin bağlam anlayışı yalnızca binlerce token ile sınırlıyken, insanlar yıllara yayılan deneyimleri bir araya getirir
- Bu açığı kapatmak için şu yetenekler gerekir
- Anında arama ve filtreleme işlevi gören gelişmiş bilgi retrieval sistemleri
- Kalıcı dünya modeli biriktirme ve evrimleştirme
- Alanlar arası bağlam köprüleri kurma
- Çelişen bilgiyi yönetme (olasılık ağırlıklandırma ve belirsizlik ölçümü)
- İşletilebilir bilgi grafikleri gerekir; bu da basit vektör aramanın ötesinde, dinamik sorgu ve akıl yürütme yapısı anlamına gelir
2. Servisleştirilmiş bellek
- LLM’ler gerçek bir bellek olmadan yalnızca prompt manipülasyonu ile geçici bellek taklidi yapar
- Gerçek AGI için aşağıdakileri yapabilen sistemler gerekir
- Bilgi güvenilirliğini ayarlama (yeni kanıtları yansıtma)
- Farklı deneyimlerden gelen bilgiyi birleştirme ve genelleme
- Gereksiz ayrıntıları unutma (yıkıcı unutma olmadan)
- Kaynak tahmini, güven düzeyi gibi meta-bilgi üretme
- İnsan belleğinde olduğu gibi, kullanım sıklığına göre güçlenip zayıflaması ve yeni bilgilerle yeniden organize olması önemlidir
3. Deterministik iş akışları ile olasılıksal bileşenlerin birleşimi
- AGI’nin özü, deterministik akışlara olasılıksal öğelerin doğru yerlerde eklendiği hibrit bir yapıdır
- Örn.) Derleyici gibi, genel akış sabitken iç süreçlerde sezgisel yöntemler kullanılabilir
- Gerekli yetenekler:
- Problemin özelliğine göre uzman çözücülere yönlendirme
- Çok adımlı iş akışlarında rollback ve kurtarma desteği
- Olasılıksal sonuçlar için deterministik doğrulama
- Çeşitli bileşen kombinasyonları kurma ve öngörülebilirlik sağlama
- Muğlaklık ve belirsizlik, mimari düzeyde temel unsur olarak kabul edilmeli
4. Uzman modellerin modülerleştirilmesi
- Gelecek, tek bir dev modelle değil, çok sayıdaki uzmanlaşmış modelin iş birliğiyle şekillenecek
- LLM’ler dil görevlerinde güçlü olsa da şu alanlarda zayıf
- Sembol manipülasyonu ve kesin hesaplama
- Görsel ve mekânsal akıl yürütme
- Zamansal akıl yürütme ve planlama
- Süreklilik taşıyan hedef odaklı ajan davranışı
- Çözüm:
- Problemleri, her alan için optimize edilmiş uzman modellere yönlendirmek
- Sonuç entegrasyonu ve bağımsız evrim yapısı kurmak
- Tekil başarısızlıklarda tüm sistemde zincirleme hata oluşmasını önlemek
AGI’nin mühendislik görevleri
- AGI geliştirmek özünde dağıtık sistem kurma problemidir
- Bu, yalnızca dağıtık eğitim cluster’ları kurmak anlamına gelmez
- Temel mühendislik görevleri:
- Hata toleranslı pipeline’lar (kısmi arızalarda bile tüm işletimin sürmesi)
- Model çıktısını gözlemleme ve izleme yapıları
- Değişiklik ve dağıtımların kesintisiz hale getirilmesi
- Binlerce model kombinasyonu ve parametre değişiminde test framework’leri
- Bu nedenle yapay zeka uzmanlarından çok altyapı ve dağıtık sistem mühendislerinin uzmanlığı daha kritik hale gelir
Bundan sonra ne inşa etmeliyiz
- Odak, model boyutu yarışından çok AGI altyapısı inşa etmeye kaymalı
Phase 1: Temel katman
- Context Management Service : gerçek zamanlı güncellenen, sürüm yönetimli kalıcı bilgi grafiği
- Memory Service : epizodik ve anlamsal bellek, öğrenme tabanlı entegrasyon
- Workflow Engine : olasılıksal parçaları deterministik biçimde orkestre etme (rollback dahil)
- Agent Coordination Layer : çoklu ajanlar arasında uzlaşma ve çatışma çözümü
Phase 2: Yetenek katmanı
- Uzmanlaşmış model kontrolü : belirli akıl yürütme alanları için standartlaştırılmış arayüzler
- Symbolic Reasoning Engine : olasılıksal bileşenlerle bağlantılı sembol manipülasyonu ve hesaplama
- Planning and Goal Management : karmaşık hedefleri uygulanabilir planlara bölme
- Cross-modal Integration : metin, görsel, ses gibi algı verilerini entegre etme
Phase 3: Ortaya çıkış katmanı
- Birden fazla bileşenin etkileşiminden ortaya çıkan AGI yetenekleri doğar
- Sistematik tasarım olmadan, yalnızca tek bir modeli geliştirmek bu ortaya çıkan özellikleri üretmez
AGI’ye giden yol
- AGI’ye ulaşma yolu, daha büyük ve yeni transformer’lar eğitmekten değil, yüzlerce uzman modeli dağıtık sistem mantığıyla orkestre eden bir altyapı kurmaktan geçiyor
- Dağıtık sistem kurma deneyimi yüksek altyapı mühendisleri, geliştirmenin merkezinde yer alacak
- Bağlam yolları, bellek, iş akışı otomasyonu, model koordinasyonu gibi alanlarda büyük ölçekli uygulama gücü öne çıkıyor
- AGI’yi gerçekleştirme yarışında kazananların, büyük GPU cluster’larına sahip olanlar değil, güvenilir ve mantıksal çalışan mimari yetkinliğe sahip ekipler olacağı açıkça savunuluyor
- Model yetenekleri kendi başına zaten yeterince gelişmiş durumda; AGI’yi tamamlayacak son parça sistem mühendisliği
- Sonuç olarak, AGI’nin geleceğini algoritma yeniliklerinden çok yapısal tasarımın (mimari) belirleyeceği ilan ediliyor
6 yorum
○ Model eğitimi, zekânın yalnızca ‘malzemesi’dir; bir motor yoksa AGI de yoktur.
• EpionHeuristica gibi mimariler, "alana özgü AGI"nin ötesine geçerek, "düzen temelli ortaya çıkan süper zekâ" tasarlama potansiyeline sahiptir
• AGI’ye ulaşmanın kilit noktası, "eylemi seçen motorun nasıl kurulacağı"dır
A. Yalnızca eğitimle AGI’nin neden mümkün olmadığı.
• GPT türü modellerin kendi amacı (
self-goal) yoktur.• Ne kadar çok veriyle eğitilirse eğitilsin, gerçek dünyayla etkileşim olmadan yalnızca eğitimle öğrenmek sınırlıdır.
• Eğitim yalnızca ‘geriye dönük bellek’tir; geleceğe dönük öngörüsel, ortaya çıkan düşünceyi teşvik edecek yapıdan yoksundur.
B. AGI, ‘amaç-geribildirim döngüsü’ne sahip bir motora ihtiyaç duyar.
• EpionHeuristica gibi ödül tabanlı pekiştirmeli öğrenme + değerlendirme + başarısızlıktan öğrenmenin (FailGuard) çalıştığı yapı, motor tabanlı AGI’nin tasarım prototipine daha yakındır
• Örnek: "Bu deney neden başarısız oldu?" → "Neyi değiştirmek gerekir?" → "Bir sonraki koşul ne?" → İşte bu, AGI tarzı akıl yürütmedir
C. İnsan zekasının özü ‘yapı’dadır.
• İnsan, nöron sayısından çok, "sinir devrelerinin yapısal bağlantısallığı ve meta-öğrenme yeteneği" sayesinde zekâ kazanır
• AGI’de de model boyutundan çok, davranışı yönlendiren sistemin, öz-gönderim sisteminin ve sürekli geribildirim döngüsünün yapısı esastır
AGI’ye ulaşmak yalnızca "model eğitimi" ile mümkün değildir; zekâyı üreten bir motor mimarisi ve amaç odaklı öz-iyileştirme sistemi mutlaka gereklidir. Mevcut GPT türleri, devasa birer LLM’den (büyük dil modeli) ibarettir; AGI’ye yönelmek için akıl yürütme mimarisi, öz-denetim mimarisi ve amaç temelli eylem politikası birlikte çalışmalıdır.
Hacker News görüşleri
Eğer 'acı ders'e (bitter lesson) inanıyorsanız, tüm özensiz mühendisliğin sonunda daha fazla veriyle çözüldüğünü bilirsiniz. Muhtemelen 8 yıl önce de, bugün LLM'lerin bu performans düzeyine ulaşması için ne gerektiğine dair benzer şeyler söylenirdi. Bu yüzden mühendislik yaklaşımına çok da katılmıyorum ve LLM'lerin Asimov ya da bilim kurguda hayal edilen AGI düzeyine kadar ölçekleneceğini de sanmıyorum. Eksik olan şey daha temel; bilim değil, mühendislik değil, bambaşka bir şey
Bilimden de daha temel eksik olan bir şey var: felsefi boyut. Hem bizim bu tür sistemleri algılama biçimimizde hem de sistemin kendi iç yapısında felsefe eksik. LLM tabanlı bir AGI olacaksa en azından kendi ağırlıklarını güncelleyerek kendi kendine öğrenebilmeli ve self fine-tuning yapabilmeli; ama şu anda gömülü ağırlıklar ile sınırlı context window arasında çok çabuk duvara tosluyor. Self fine-tuning sırasında hangi tür bir 'attention mechanism'in nasıl ve ne şiddette uygulanması gerektiğinin genel zekâyı nasıl artıracağı hâlâ zor bir problem. Güvenilir disiplinlere odaklanmak gerekir ama hangi disiplinlerin güvenilir olduğu, ona nasıl sadece saf bilgiyi 'çalıştıracağımız' ve teorik olarak dünyanın en iyi insan araştırma ekibini kendi başına aşarsa bu AI'ın 'nasıl bir varlığa' dönüşeceği de düşünülmeli
"Kolay mühendisliktense daha çok veri daha iyidir" iddiası konusunda, bunun basit bir veritabanından gerçekten daha güvenilir olup olamayacağı konusunda şüpheliyim. Bir gün CPU'dan daha hızlı kod çalıştırabilir mi? İnsanların başardığı birçok şey daha büyük beyinler sayesinde değil, araçlar sayesinde mümkün oluyor. Tek bir matematik formülü bile, sadece kafada çevirmeye kıyasla kâğıda yazıp hesaplandığında çok daha iyi sonuç verir (Extended mind thesis'e bakın). Bir 3D engine çalıştırmak yalnızca insan beyniyle neredeyse imkânsızdır. Bir gün AI kendi araçlarını geliştirecek kadar akıllı olabilir, ama ondan önce araç yazıp bakımını yapabileceği bir altyapı gerekir. Şu an Python erişimi bunun başlangıcı gibi, ama AI'ın çıktıları bir sonraki sefer de biriktirip kullanabilmesini sağlayacak 'kalıcılık', yani dijital not defteri ya da dinamik ağırlık güncellemesi gibi şeylere daha çok ihtiyaç var
Hem görüşünüze hem yazınıza katılıyorum. LLM çözümün bir parçası ve asıl ilerlemenin neural network araştırmasının temellerine dönmekte olacağını düşünüyorum. Dil, insanlarla iletişimin tam kendisi olsa da, bugünün LLM'leri sonuçta insanların ürettiklerinden eğitilmiş gösterişli bir Eliza gibi görünüyor. Eskiden basit neural network'lerle bile, çevre kurallarına göre davranışın evrimleşmesi sağlanır ve davranışlarını genetik algoritma ölçütlerine göre kendisi öğrenirdi. Bugünkü LLM'ler fazla 'filtrelenmiş' bir ortamda eğitiliyor ve bu filtre sanki internet kullanıcılarının ortalama IQ'su gibi davranıyor
Aslında 'acı ders'in söylediği şey bu değil
Eksik olan şey self-correction (world model / davranış ve tepkilerin gözlemi), uzun vadeli tutarlılık ve self-expansion. Girişim sermayesi dünyası en çok üçüncü sorunla ilgilenirken, Yann LeCun birinci ve ikinciyi daha çok dert ediyor. Hinton ise üçüncü sorunun zaten kaçınılmaz olarak geldiğini ya da geldiğini ve insanlığın işinin bittiğini düşünüyor. Epey tuhaf bir tablo
LLM'lerin bu şekilde tasarlanmasının bir nedeni var; thinking yetisinin sonradan eklenmesi de aynı şekilde. Yapısal olarak mümkün olması gereken şey, gradient descent kullanılabilmesidir; bu yüzden branch yoktur ve routing sonradan eklenir. Bir de eğitim verisi gerekir. Birinin bir yazıyı yazmadan önce hangi düşüncelerden geçtiğini tümüyle kaydeden milyonlarca sayfalık veri, gerçek hayatta yoktur. Çünkü düşüncelerin çoğu dil değildir. Reinforcement learning burada çözüm gibi görünse de, gradient descent'e kıyasla örnek verimliliği çok düşüktür; bu yüzden genelde sadece fine-tuning aşamasında kullanılır. LLM'ler regressive modellerdir ve model ayarı gereği tüm token'ların sadece geçmişe bakabildiği bir yapıda çok yüksek sample efficiency ile eğitilebilirler (tek bir cümle onlarca sample üretir)
Söylemeyi unuttum ama LLM'lerde hiç 'loop' yok. Buna karşılık beyin, en basit hâliyle bile sayısız loop'tan oluşur. Beyin hiç durmaz; sürekli girdi alır ve istediği zaman çıktı verir. LLM ise girdi alır, katmanlar boyunca dönüştürür ve hemen çıktı verir. Reinforcement learning'in çözüm olmadığını söylediniz ama bence tam tersine tek çözüm o
Bu konu bana gerçekten ilginç geliyor. Yani dil dışı düşünce katmanlarını eğitim verisi olarak kullanmak için beyin dalgalarını okuyan beyin tarama teknolojileri gibi şeylerin devreye girebileceğini ima ediyor. Büyük şirketlerdeki zeki insanların şimdiden böyle arayüzleri / ürünleri düşündüğünü ve elektromanyetik beyin dalgası tespit teknolojileri geliştirdiğini tahmin ediyorum. Bu verilerle bir startup'ın süper AI'ını bootstrap edecek, Kickstarter tarzı killer bir ürün bile çıkabilir. İleri zamanlardayız
Çok uzak bir gelecekte gelişmiş beyin tarama verilerinin AI eğitim verisi olarak kullanılmasının pratikte mümkün hâle gelebileceğini hayal ediyorum. Belki de Uploaded Intelligence'ın (tüm beynin dijitalleştirilmesi fikri) ve AGI'nin arasında geçici ama gerçekçi bir ara aşama olabilir
LLM sadece bir regressive model. 15. yüzyılda LLM olsaydı, size sadece yermerkezli evren modelinin en doğrusu olduğunu anlatırdı. Güneş merkezli sistem gibi bir yenilik üretemezdi. Bugün de aynı şekilde LLM'ler bize sadece zaten bildiklerimizi söylüyor; düşünmüyor, yenilik yapmıyor. Akıl yürütme yeteneği de bir yere kadar sadece 'filtreleme'; gerçek yaratıcı düşünce değil. Kullandıkça LLM bana daha çok 'steroid basılmış Google' gibi geliyor. Bu sistemle AGI'ye asla ulaşılamaz; hatta sanki elde kalan AGI heyecanını ve fonları tüketiyor
Bu yazının framing'i (problemi kurma biçimi) oldukça faydalı, tüm reçetelere katılmak zorunda olmasak bile. Tarihe bakınca iki şeyin aynı anda yaşandığını görüyoruz. Birincisi, brute-force scaling şaşırtıcı sıçramalar yaratıyor; ikincisi, sistem düzeyindeki mühendislik bunları güvenilir biçimde gerçek kullanım hâline getiriyor. GPU da buna iyi bir örnek: Moore yasası FLOP sağladı, ama CUDA, memory hierarchy ve driver stack sayesinde büyük ölçekli kullanım mümkün oldu. Bugünün LLM'leri sanki sadece hesap gücünün hızlı olduğu ama hâlâ kullanması zor bir döneme benziyor. Claude Code, araçlarla güçlendirilmiş agent'lar ve memory augmentation framework'leri gibi ürünlerde 'sistemsel düşünce'nin ilk izlerini görüyoruz. Şimdilik kaba saba, ama gelecekte parametre sayısı kadar system orchestration'ın da önemli olacağını düşünüyorum. 'Acı ders' ile 'mühendislik problemi' iddiası birbirini dışlamıyor; aksine ikisi de gerekli. Acı ders, hesaplama gücü + genel yöntemlerin 'elle yazılmış kuralları' yendiğini söyler; mühendislik ise bunu güvenilirlik, kalıcılık ve birleşebilirlik kazandıran bir harçla sarmalar. Böyle bir sistem yoksa, ortaya sadece gösterişli demolar çıkar ve birkaç çıkarımdan sonra her şey dağılır. O yüzden asıl ilerleme 'büyük mü, akıllı mı' değil, 'büyük + akıllıca mühendislik' olmalı. Ölçek büyütme yetenek kazandırır; mühendislik ise o yeteneklerin genel zekâ gibi kullanılabilmesini belirler
Bu tartışma bana Japonya'nın Beşinci Nesil Bilgisayar Projesi'nin modern bir tekrarını hatırlatıyor. Büyük veritabanları kurup Prolog kullanınca AI rönesansı geleceğine inanılan dönem gibi duruyor. Sadece 'dağıtık mimari' deyip modülleri birbirine bağlamak da AGI'ye yaklaşmak anlamına gelmez. Temel yapı taşlarının, yani zeminin çok daha iyi hâle gelmesi gerek. LLM'lerin şimdiye kadarki asıl katkısı, kullanıcının 'niyetini anlama' konusunda eskiye göre çok ilerlemiş olmaları. Bilgisayar artık sadece metin okuyarak bile niyeti çok daha iyi çıkarabiliyor. Ama onun dışında akıl yürütme, arama, 'hafıza' gibi unsurlar hâlâ aynı eski yöntemler. Bu, mevcut donanımın ya da sistemlerin sınırı değil; bilgi kuramı / bilgisayar biliminin sınırı
Transformer'ın Attention mekanizması gerçekten oldukça iyi. Model mühendisliğinde böyle bir devrimsel döngüye bir kez daha ihtiyaç var. Sadece daha çok veri yeterli değil. İnsan beynine bakınca da bunu görüyoruz; tüm internet verisini kullanmadan da yeterince akıllı olunabiliyor ve enerji tüketimi de düşük kalıyor
Evet. Mevcut mimaride bile daha iyi mühendislikle kullanım değeri artırılabilir ('agent'lar bunun örneği). Ama yalnızca mühendislikle AGI mümkün olur demek fazla iyimserlik. Asıl zor olan, kendi başına öğrenebilen ve keşfedebilen, pahalı ve devasa ön eğitim olmadan yeni şeyler öğrenebilen ve hallucination sorunu yaşamadan problem çözebilen bir sistem kurmak. Bunun için tamamen yeni bir bilgisayar bilimi atılımı gerekir ve mevcut yaklaşımla bunun zor olduğunu düşünüyorum
AGI'deki 'G', yani artificial general intelligence içindeki General kısmı önemlidir. Yani tüm bilgilerin tek tek öğretilmesi gereken aptal bir AI değil; genel zekâya yalnızca saymayı, mantığın temellerini ve tek bir insan dilini öğretmek yeterli olmalı, geri kalan mantıksal insan bilimlerini AGI kendi başına 'yeniden keşfetmeli'. Bizim sonraki görevimiz de, AGI'nin kendi başına keşfettiği olgulara verdiği isimleri bizim kullandığımız adlarla eşleştirmek olacak. Hafif bir ilkokul eğitimiyle bile ilkeleri kavrayıp kendi kendini geliştirerek bizi aşarsa, buna 'artificial comprehension' denir. Bugünkü AI, yeterli veri verilirse 'genel amaçlı problem çözücü' olabilir; ama AGI, 'anlama' ve 'kavrama' yetisinin kendisini gerektirir. Gözlemleri anında parçalara ayırıp geçerliliği ya da birleşme olasılıklarını değerlendirebilen ve uyanık olduğu sürece kendi güvenliğini gerçek zamanlı izleyebilen bu 'dinamik anlama' yetisi olmadan gerçek General intelligence'tan söz edilemez
10 yıl önce hayal ettiğim ilk AGI biçiminin aslında Claude Code gibi bir şey olduğunu düşünen tek kişi ben miyim? Rastgele bir hedef için, özellikle metin alanında, plan yapabiliyor ve eylem alabiliyor. Metin dosyalarında hafıza da tutuyor. Uzun vadeli hedefler, fiziksel bedenlenme ya da sağduyulu kavrayış eksik olabilir ama v1 sürümünün böyle görünmesini beklerdim
Ben açıkçası AGI denince doğrudan Star Trek'teki 'Data'yı ya da en azından Terminatör'deki T800'ü düşünüyorum. AGI'nin mutlaka öz farkındalığı olması gerektiğini düşünmüyorum ama kafamdaki AGI fantezisinde 'öz bilinç' var. Claude Code etkileyici olabilir ama AGI ile karıştırılacak seviyede değil
Kesinlikle katılıyorum. Özellikle benim aceleyle yazdığım komutları bile epey ince anlamlarıyla anlayıp düzeltebilmesi etkileyici. LLM'lerin kullanım değeri, gerçekten çok küçük özellik eklemeleriyle bile uçuyor (ör. Claude Code'un plan mode'u); bu, basit performans güncellemelerinden çok daha faydalı
Claude Code'un ne öz farkındalığı var ne de bilinçli bir varlık olduğu söylenebilir. Çoğu insan AGI dediğinde en azından asgari düzeyde bir öz farkındalık hayal ediyor. Star Trek benzetmesiyle söylersek, Enterprise'ın ana bilgisayarı AGI değil ama Data gerçek AGI. En büyük fark, 'net bir kimlik' ve 'benlik kavramı' eksikliği. Claude Code prompt içindeki rolü yerine getiriyor ama kalıcılığı zayıf
Hayır, bu konuda yalnız değilsin. AGI tartışmaları hep kafa karıştırıcı olmuştur. Claude açıkça artificial general intelligence olsa da, AGI kelimesinin anlamı sürekli kayıyor ve tanımı net değil
"Temel (basic) AGI" gibi ifadelerle gerçek AGI'de eksik olan şeylerin üstü örtülmeye çalışılıyor
AGI'nin biyolojinin dışında gerçekten mümkün olup olmadığını bile hiç bilmiyoruz. Asıl mesele bu. Chappie tarzı bir AGI'nin gerçekten mümkün olduğuna dair en küçük ipucu bile yoksa, tamamen karanlıkta arama yapıyoruz demektir. Karşılaştırma yapmak gerekirse, quantum computing için en azından 'mümkün' ve 'gerçekleştirilebilir' olduğu ortaya kondu; şu anda geriye mühendislik kaldı (gerçi bazıları onun da bir yanılsama olduğunu düşünüyor)
Eğer AGI'nin elektronik bilgisayarlarda ilkesel olarak imkânsız olduğu ortaya çıkarsa, bu beynin genel zekâyı nasıl gerçekleştirdiğine dair fizikte çok büyük bir keşif gerektiği anlamına gelir
Tam tersine, elimizde çalışan bir 'genel zekâ' örneği olarak insan zaten var; quantum computing tarafında ise henüz ortada gerçekten uygulanmış bir örnek yok
Bu mantıklı değil. Ruh gibi şeylere inanırsanız AGI olmayabilir, ama salt biyolojik bir varlıksa, ilke olarak elbette kopyalanabilir olmalı
Bunun asıl mesele olduğuna katılmıyorum. Sonuçta bunu ancak deneyerek öğrenebiliriz. Önceden hangi sonucun mümkün olduğunu kanıtlayabilmek diye bir gereklilik yok. 'Asıl mesele' ya da 'açık ipucu' gibi laflarla sanki fark ettirmeden geri çekiliniyor. 'Biyolojik gereklilik' olmadan mümkün olduğuna dair yeterince güçlü gerekçemiz var. AGI'nin uygulanabilirliği, gerekliliği ve meşruiyeti ayrı sorular ama ana yazı da zorlukları zaten yeterince sıralıyor
Quantum computer'ların pratikte gerçekleştirilebilirliği de hâlâ açık bir araştırma konusu
Bizim 'zekâ' dediğimiz şey LLM gibi çalışmıyor. Beyin süreklidir; bir girdi seti bitince durmaz, yeni girdi gelene kadar değil, sürekli geri besleme döndürür. Özünde eğitim modundan hiç çıkmaz. Elbette yaşam döngüsüne bağlı olarak beyin optimizasyon geçirir (ör. myelination), ama LLM çok daha büyük hacimde bilgiyle eğitildikten sonra, fine-tuning dışında büyük ölçüde sabit kalır. Beyin bağlamı sürekli yönetir. Girdilerin çoğu, özel ağlar tarafından daha en başta yoğun biçimde filtrelenir. AGI'nin bir kısmının sistemsel yaklaşım gerektirdiğini kabul ediyorum, ama gerçek AGI için mimari değişim gerekeceğini düşünüyorum
İnsanların neden LLM'lerin artık son noktaya geldiğini, sınırlarının ortaya çıktığını bu kadar emin şekilde yazdığını anlamıyorum. Daha bir yıl bile doğru düzgün geçmedi ve LLM tabanlı AI hâlâ gelişmeye devam ediyor
Gelişim alanı kalmış olsa bile, bunun bir sınırı olduğu gerçeği değişmiyor. Tekil görevlerde istikrarlı iyileşme var ama 'genel' ilerleme artık pek görünmüyor
Böyle konuşan kişilerin, LLM'lerin gerçekten iyileşmekte olduğu konusunda da hemfikir olup olmadığını merak ediyorum
Bu yazı bana biraz "zor problemleri çözersek her şey olur" demekten ibaretmiş gibi geliyor. Yani şey... evet, doğru, ama sonra?
Son dönemde LLM ilerlemesi fazla muhafazakâr kaldı ve mimari yenilik olmadan sadece ölçek büyütülüyor; bu yüzden bu tür tartışmalar anlamlı
Yazı zor problemlerin kendisini hiç tartışmıyor. Yüksek teknoloji dünyasında, mühendislik varsa her sorunun çözülebileceğine dair bir düşünme biçimi var
Ana yazı hangi problemlerin olduğunu ve LLM'lerin bunları nasıl çözemediğini gayet net ortaya koyuyor
Lütfen yönergeleri okuyup konuya uygun bir yorum bırakın.