2 puan yazan flamehaven01 5 일 전 | Henüz yorum yok. | WhatsApp'ta paylaş

Genel bakış

  • OpenMythos, Claude Mythos’a benzer bir yapıyı açık araştırma temelinde yeniden kurmayı amaçlayan teorik bir mimari deneyi (theoretical architecture experiment) olarak tanıtılıyor
  • Yazı, OpenMythos’un kendisini basit bir “slop” olarak görmüyor
  • Bunun yerine OpenMythos’u örnek alarak, AI topluluğunda README’ler, AI özetleri, YouTube/Reddit yayılımı ve GitHub yıldızlarının doğrulamadan önce kamusal bir güven oluşturduğu yapıyı ele alıyor
  • Yazı bu olguya “sheepwave” adını veriyor
  • Burada sheepwave, cehalet ya da basit merak değil; teknik olarak makul ve duygusal olarak çekici hikâyelerin doğrulanmadan önce kolektif bir kanaate dönüşmesi anlamına geliyor
  • Temel iddia, “OpenMythos ilginç değil” değil; ilginç bir araştırma artefaktının doğrulanmış bir mimari atılımı (architecture breakthrough) gibi tüketilme biçiminin sorunlu olduğu

OpenMythos nedir?

  • OpenMythos, Anthropic’in Claude Mythos’unu doğrudan kopyalayan ya da sızdırılmış bir model değil
  • Geliştirici, OpenMythos’un Claude Mythos’un doğrulanmış bir yeniden uygulaması değil, açık araştırma akışlarının bir araya getirilmesiyle oluşturulmuş teorik bir mimari deneyi olduğunu söylüyor
  • OpenMythos’un dikkat çekmesinin nedeni, Claude Mythos adının zaten bir gizem taşıyor olmasıydı
  • Claude Mythos’un tam mimarisi açıklanmadığı için toplulukta “içinde ne var?” sorusu oluştu
  • OpenMythos, bu boşluğa “böyle bir yapı olabilir” şeklinde bir form sundu
  • İnternette “açık araştırmaya dayalı tahmini bir recurrent-depth mimari deneyi” ifadesinden çok, “Claude Mythos yeniden kuruldu” cümlesi hızla yayıldı

OpenMythos neden hızla ilgi gördü?

  • OpenMythos, AI topluluğunun zaten inanmak istediği birçok beklentiye aynı anda dokundu
  1. Parametre verimliliği beklentisi
  • Daha küçük recurrent-depth modellerin, daha büyük sabit derinlikli Transformer’larla benzer kaliteye ulaşabileceği anlatısı güçlü bir mesaj taşıyor
  • “Daha büyük olmadan daha derin olabilir” anlatısı, GPU maliyetleri ve frontier lab merkezli yapıdan yorulmuş topluluk için cazip geliyor
  1. Döngü tipi mimari
  • Yinelemeli hesaplama görsel olarak “düşünüyormuş gibi” görünüyor
  • Ancak paylaşılan ağırlıklarla yapılan yinelemeli hesaplama ile gerçek muhakeme yeteneği ya da adaptif davranış aynı şey değil
  1. Kişisel/küçük donanım beklentisi
  • Recurrent-depth yapı ile MLA tarzı cache sıkıştırmasının birleşmesi, küçük modellerin daha büyük modeller gibi hissedilebileceği beklentisini yaratıyor
  • Ama pratikte dal işleme maliyeti, bellek davranışı, eğitim kararlılığı, kernel verimliliği, bağımlılık doğruluğu ve throughput gibi mühendislik sorunları sürüyor
  1. Claude Mythos isminin kendisi
  • Anthropic tam yapıyı açıklamamışken OpenMythos, topluluğun görmek istediği “formu” sundu
  1. MoE, MLA, LTI, ACT, recurrent-depth yapı gibi güncel AI mimari anahtar kelimelerinin tek bir depoda toplanmış olması
  • Bu yüzden OpenMythos’u içi boş bir abartı olarak kolayca görmezden gelmek zorlaşıyor
  • Gerçek fikirler içerdiği için abartı daha da güçlenebiliyor

Sheepwave nasıl çalışıyor?

  • Yazı, OpenMythos etrafındaki tepkiyi üç aşamada açıklıyor
  1. İnanma aşaması
  • İnsanlar Claude Mythos, açık kaynak, recurrent-depth yapı ve parametre verimliliği gibi işaretleri görüp önce olasılığa tepki veriyor
  • Bu aşamada gerçek eğitim yolu ya da performansın yeniden üretilebilmesinden çok, “makul bir olasılık” tüketiliyor
  1. Büyütme aşaması
  • YouTube, Reddit, newsletter’lar, sosyal paylaşımlar ve AI özetleri hikâyenin en güçlü versiyonunu tekrar ediyor
  • Bu aşamada benchmark yeniden üretimi ya da eğitim yolunun doğrulanması gerekmiyor
  • Önemli olan “iyi yayılan hikâye”
  1. Kod düzeyinde şüphe aşaması
  • Kod analistleri depoyu klonlayıp eğitim script’lerini, router yollarını, ACT mantığını, MoE dal işleme yapısını ve büyük context ayarlarını inceliyor

  • Ancak bu aşama genellikle geç geliyor

  • Bu yapı bir bilgi asimetrisi problemi

    • “770M model 1.3B düzeyinde performans veriyor” gibi tek satırlık iddialar hızla yayılıyor
    • Buna karşılık “Bu verimlilik iddiası bu depoda gerçekten yeniden üretildi mi, MoE dal işleme büyük ölçekte ayakta kalıyor mu, router bias değerleri eğitim script’lerinde gerçekten güncelleniyor mu?” gibi sorular uzun kod incelemeleri gerektiriyor
  • Bir cümle gönderiye dönüşürken, diğeri inceleme gerektiriyor

  • Bu yüzden kamusal hafızada basit iddia kalıyor, denetim sonucu ise geç düşülen bir dipnot (footnote) olmaya yatkın oluyor

Bu sheepwave neden farklı?

  • Bu kez yaşanan abartıda AI asistanları da rol oynuyor

  • Bir GitHub bağlantısı AI’ya verildiğinde, AI README’yi, dosya yapısını, mimari terimleri ve makul görünen referansları okuyup ikna edici bir özet üretebiliyor

  • Bu kullanışlı olsa da doğrulama anlamına gelmiyor

  • Genel sohbet ortamlarındaki AI asistanları tipik olarak şunları yapmıyor

    • çoklu GPU eğitiminin yeniden üretimi
    • benchmark eğrilerinin yeniden üretimi
    • uzun süreli eğitimde router dengesinin korunup korunmadığını gözleme
    • MoE throughput ölçümü
    • büyük context ayarlarında başlatma ve bellek davranışını doğrulama
  • Bu yüzden “AI bile şaşırdı” tepkisi, gerçek kod doğrulamasından çok README’ye ve deponun yüzey yapısına verilen tepki olabilir

  • Yazının temel ayrımı şu

    • Bazen AI koda hayran kalır
    • Bazen AI README’ye hayran kalır
    • İkisi aynı şey değildir
  • Bu kez yaşanan abartı, “eylem alan ajanlar” etrafında değil, “düşünüyormuş gibi görünen bir mimari” etrafında dönüyor

  • Böyle mimari abartıları dramatik bir demo çöküşüyle değil, eğitim yolu, benchmark yeniden üretimi, loss function, entegrasyon durumu ve execution path gibi daha sessiz noktalarda açığa çıkan zayıflıklarla çözülüyor

Kaynak düzeyinde denetim sonuçları

  • Yazı, OpenMythos hakkında bir kaynak düzeyinde denetim sonucunu da sunuyor

  • Bu denetimde model uygulaması, eğitim script’leri, varyant model ayarları, tokenizer, testler, bağımlılık dosyaları ve README iddiaları gerçek kod yollarıyla karşılaştırılıyor

  • Denetim sonucunda OpenMythos’un içi boş bir abartı (Empty slop) olmadığı değerlendiriliyor

  • Gerçekten uygulanmış öğeler de var

    • Prelude + Recurrent Block + Coda yapısı mevcut
    • LTI tarzı yineleme kararlılığı, güçlü uygulama unsurlarından biri olarak değerlendiriliyor
    • MLA tarzı cache sıkıştırması, uzun context işleme sorunlarıyla bağlantılı
    • ACT tarzı durdurma mantığı da mevcut
    • Recurrent-depth yapı; ölçekleme, hesaplama dağıtımı, yineleme, bellek ve routing tartışmalarına dahil edilebilir
  • Ancak bu, kamusal anlatının ima ettiği düzeyde bir operasyonel hazırlık anlamına gelmiyor

Denetimde görülen temel farklar

  • 770M vs 1.3B verimlilik iddiası

    • Bu, depoda yeniden üretilmiş bir sonuçtan çok dış kaynaklı bir iddia ya da alıntıya yakın duruyor
    • Bu nedenle bunu “sonuç değil, alıntı” olarak görmek daha doğru
  • MoE routing

    • Routing mantığı mevcut, ancak iç içe Python dal işleme yapıları büyük ölçekli throughput açısından risk oluşturuyor
    • Bu, “kesinlikle imkânsız” demek değil; gerçek profiling gerektiren bir risk demek
  • Router dengesi

    • Router bias mekanizması görünür durumda, ancak yayımlanmış eğitim script’lerinde bunun açıkça güncellendiği bir yol görünmüyor
    • Uzun süreli eğitimde yük dengeleme riski artabilir
  • ACT durdurma mantığı

    • ACT tarzı durdurma mantığı mevcut
    • Ancak yayımlanan eğitim yolunda açık bir ponder loss ya da hesaplama düzenlileştirme terimi yok
    • Durdurma başlığı, dil modeli kaybı üzerinden dolaylı biçimde gradient alabilir; ancak verimli adaptif durdurmayı doğrudan teşvik eden bir amaç fonksiyonu bulunmuyor
  • MoDA modülü

    • Ayrı bir deney dosyası olarak var, ancak ana modele entegre edilmiş görünmüyor
  • Büyük varyant model

    • 100B+ veya 1M context ayarları, anında RoPE buffer oluşturan yapı nedeniyle gerçek kullanım ayarından çok hedef odaklı bir ayara yakın duruyor

Araştırma etiketi meselesi

  • OpenMythos, operasyonel bir modelden çok teorik bir yeniden kurulum (theoretical reconstruction) ya da araştırma artefaktı (research artifact) olarak görülebilir
  • Bu etiketin kendisi meşru
  • Araştırma projeleri eksik eğitim yolları, deneysel yapılar ve tamamlanmamış entegrasyonlar içerebilir
  • Sorun, araştırma etiketi ile kamusal abartının farklı dillerle çalışması

Araştırma etiketi ile kamusal abartı arasındaki fark

  • Araştırma etiketi: “Bu teorik bir deneydir”

    • Kamusal abartı: “Bu, AI’nin geleceğini değiştirecek”
  • Araştırma etiketi: “Bu, açık araştırma ve tahmine dayalı bir yeniden kurulumdur”

    • Kamusal abartı: “Birisi Claude Mythos’u yeniden uyguladı”
  • Araştırma etiketi: “Bu, keşfedilecek bir mimaridir”

    • Kamusal abartı: “Küçük modeller artık büyük modeller gibi düşünebilir”
  • Yazı bu farkı şöyle açıklıyor: “Proje araştırmanın diliyle konuşuyor, ama kamusal tepki bunu varışın diline çeviriyor.”

AI depolarını değerlendirmek için üç katman

  • Yazıya göre AI açık kaynak depolarını değerlendirirken üç katmanı ayırmak gerekiyor
  1. Anlatı (Narrative)
  • README’nin, açıklayıcı yazıların ve sosyal paylaşımların söylediği şeyler
  1. Mekanizma (Mechanism)
  • Kodun gerçekten uyguladığı yapı
  1. Operasyonel yol (Operational path)
  • Eğitim yolu, yürütme yolu ve değerlendirme yolunun gerçekten desteklediği yetenekler

  • AI alanındaki abartıların çoğu bu üç katmanı tek bir şeymiş gibi birleştiriyor

  • İyi mühendislik due diligence’i bu üç katmanı birbirinden ayırır

Sonuç

  • OpenMythos göz ardı edilecek ya da alay edilecek bir şey değil
  • OpenMythos, yararlı, ilgi çekici ve teknik açıdan anlamlı çıkarımlar sunan bir araştırma artefaktı
  • Ancak bu, yalnızca mimari sayesinde ölçek sınırlarının şimdiden aşıldığının kanıtı değil
  • README bir başlangıç noktasıdır; doğrulamanın sonu değil
  • Yazının vardığı sonuç şu cümleyle özetleniyor: “README kıyı değildir. Kıyı, kod yoludur.”
  • İlgili yazılarda tam sheepwave analizi ve ayrıca ayrı bir OpenMythos v0.5.0 kaynak düzeyinde denetim raporu yer alıyor
    https://flamehaven.space/writing/…

Henüz yorum yok.

Henüz yorum yok.