1 puan yazan GN⁺ 4 일 전 | 1 yorum | WhatsApp'ta paylaş
  • primitive set için Erdős toplamının en küçük değerinin 1 olduğu ve elemanlar sonsuza gittikçe bu değere yaklaştığına dair eski bir problem, GPT-5.4 Pro tarafından üretilen bir çözümle çözülmüş kabul ediliyor
  • Çözüm, Liam Price'ın tek bir prompt ile elde edip erdosproblems.com'a yüklediği bir çıktıydı; ardından Kevin Barreto ve uzmanların incelemesinden geçerken hızla ilgi çekti
  • Bu ispat, insanların genelde seçtiği ilk yaklaşımdan farklı bir yol izledi ve ilgili alanda bilinen formülleri bu probleme beklenmedik biçimde birleştirmesiyle öne çıktı
  • ChatGPT'nin orijinal ispatı doğrudan kullanılmak için oldukça hamdı; uzmanlar özünü ayıklayıp anladıktan sonra daha kısa ve daha düzenli bir biçime getirdi
  • Ünlü matematikçilerin de çözemediği bir problemde LLM'nin yeni yaklaşımının işe yaraması, büyük sayıların yapısını görme biçimini ve benzer problemleri birlikte ele alma bakışını değiştirebilir

Problem ve çözüm yöntemi

  • primitive set, kümedeki hiçbir sayının başka bir sayıya tam bölünmediği bir tamsayı kümesini ifade eder
    • Erdős, bu tür kümeler için hesaplanan Erdős sum kavramını tanımladı ve kümedeki sayılar büyüdükçe bu puanın düştüğünü düşündü
    • En küçük değerin tam olarak 1 olduğu ve küme elemanları sonsuza gittikçe bu değere yaklaştığı yönündeki tahmin uzun süre açık kaldı
  • Bu çözüm, Liam Price'ın GPT-5.4 Pro'ya tek bir prompt vererek aldığı ve ardından erdosproblems.com üzerinde yayımladığı bir sonuçtu
    • Price, problemin arka plan geçmişini bilmeden Erdős problemlerini yapay zekaya denemek için verirken, görünüşte doğru bir çözüm elde etti
    • Daha sonra Kevin Barreto ile birlikte inceledi ve iletişime geçilen uzmanlar hızla konuyla ilgilenmeye başladı
  • Daha önce de yapay zekanın çeşitli Erdős problems çözdüğüne dair haberler çıkmıştı; ancak problemlerin önem ve zorluk düzeyi büyük ölçüde değiştiği için bunlar matematiksel yeteneği ölçmekte eksik kalıyordu ve bazı çözümler göründüğü kadar yeni değildi
    • Bu sonuç ise ünlü matematikçilerin de çözemediği bir problemi ele alması ve aynı tür problemler için kullanılmayan bir yöntemi benimsemesi nedeniyle farklı değerlendiriliyor

Neden farklı değerlendiriliyor

  • İnsanlar bu problemi çözerken çoğunlukla benzer bir ilk yaklaşım seçiyordu, ancak bu LLM çözümü tamamen farklı bir yoldan ilerledi
    • İlgili matematik alanında iyi bilinen formülleri kullandı, fakat bunları böyle bir probleme uygulama fikri daha önce akla gelmemişti
  • Terence Tao, problemin kendisinin sanılandan daha kolay olabileceğini ve ilk yaklaşımlarda bir tür mental block yaşandığını belirtiyor
  • Jared Lichtman, ChatGPT'nin orijinal ispatının olduğu haliyle oldukça ham olduğunu ve ne söylemeye çalıştığını uzmanların ayıklayıp anlamasının gerektiğini söyledi
    • Şu anda Lichtman ve Tao, ispatı daha kısa hale getirerek LLM'nin temel içgörüsünü daha net gösterecek biçimde düzenlemiş durumda
  • Bu sıçrama, büyük sayılara ve onların yapısına bakışta yeni bir düşünme tarzına yol açabilir
    • Uzun vadeli önemi için henüz kesin konuşmak erken, ancak benzer problemlerin tek bir çerçevede birleştiği sezgisini destekleyen bir yaklaşım olarak görülüyor

1 yorum

 
GN⁺ 4 일 전
Hacker News görüşleri
  • https://archive.ph/2w4fi

  • Paul Erdős, 1900'lerin büyük bölümünde yaşamış, son derece ünlü ama bir o kadar da tuhaf bir matematikçiydi
    Matematikçilerin uğraştığı problemleri bulup kaydetme alışkanlığı vardı; bunların zorluk seviyesi de bugünün lisans ödevi düzeyinden çözülürse Fields Medal ayarında sayılacak problemlere kadar çok genişti
    Bu problemleri bir arada tutan esas nokta, son 100 yılın en zeki insanlarından birinin bunlara anında cevap verememiş olması
    Bugünlerde bu tür problemlerin ispatlarını LLM'lerle üretmeye çalışıp bir tür benchmark gibi kullanıyoruz ve her yeni model çıktığında birkaç tanesi daha çözülüyor

    • Matematikçilerin tepkilerine bakınca, bu Erdős ispatı oldukça özel bir dönüm noktası gibi görünüyor
      Daha önce de birkaç uzman matematikçinin baktığı bir problemdi; ortaya çıkan ispatın şaşırtıcı ve zarif olduğu, hatta yeni bağlantılar gösterdiği söyleniyor
      Önceki ChatGPT'nin Erdős problem çözümleri genel olarak daha az etkileyiciydi; literatür taramasına daha yakın ya da görece kolay ama ihmal edilmiş problemleri çözme düzeyindeydi
      Prompt'u okuyunca, alışılmadık olsa da olur diye cesaretlendirilmesinin başarıda payı olup olmadığını merak ediyor insan
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • Makalede ele alınan şey mevcut bir açık problemin çözülmüş olması; dolayısıyla doğal olarak daha zor tarafta yer alıyor
  • Gerçek konuşmada kullanılan prompt buydu
    İnternette arama yapmamasını, number theory and primitive sets problemi için sıradan olmayan, yeni ve yaratıcı bir ispat ya da çürütme üretmesini istemişler
    Tam bir unconditional proof veya disproof talep etmişler ve böyle bir iddianın alışılmadık, yaratıcı unsurlar gerektirebileceğini tekrar özellikle vurgulamışlar
    Bir de üstünde Thought for 80m 17s yazıyordu
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • 5.5 Pro, Extended Thinking ile çalıştırınca 17 dakikada,
      önerilen bound'un doğru olduğunu ve sabit 1'in sharp olduğunu söyleyip
      w(a)= 1/alog(a) ve uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x)) ifadelerini ispatlayacağını öne sürmüş
      Bunun, istenen 1+o(1) sonucundan daha güçlü bir sonuç olduğunu iddia etmiş
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • Benim durumumda Pro ile 20 dakika sürdü
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      Ama bunun gerçekten doğru bir ispat olup olmadığını değerlendirecek kadar matematik bilgim yok
    • Aynı prompt'u free plan ile denedim ama sonuç çok daha zayıftı
  • Bilimsel ilerleme çoğu zaman bir alandaki teknik X'in başka bir alandaki problem Y'ye uygulanmasıyla oldu ve LLM'ler bu tür alanlar arası bağlantılarda insandan daha güçlü görünüyor
    Çünkü tek bir insanın bilebileceğinden çok daha fazla teori ve yaklaşım biliyorlar ve meslektaşlarının yanında aptal görünecekleri endişesini taşımak zorunda değiller

    • Benim düşündüğüm reasoning de tam olarak bu
      Bilgiyi genelleştirme ve başka alanlara uygulama yeteneği
    • Zihinsel işlerin önemli bir kısmı aslında intellectual labor denen şeye daha yakın; çok sayıda bilgiyi tek yerde birleştirmekten ibaret
      Bu işte LLM'ler insanlardan çok daha iyi ve insanların bunu geleneksel olarak yaratıcılık diye yanlış sınıflandırmış olabileceğini düşündürüyor
    • Ben de gerçekten bu şekilde kullanıyorum
      Müthiş bir atılım yarattığını söyleyemem ama whitepaper'a dönüştürülebilecek içgörüler edindiğim birkaç an olmuş gibi hissediyorum
      Birçok alan arasında korelasyonlar kurma sürecinin kendisi bile LLM deneyi olarak oldukça eğlenceli
    • Uygarlık büyük ölçüde left-brained/sequential/language based bir tarzla ilerledi ve bilgisayarlarla yapay zeka bunun zirvesi gibi görünüyor
      Ben de çocukken bütün sayfayı bir anda okur gibiydim, sonra bir noktada kelime kelime ve satır satır okumaya geçtim ve o mod yerleşti
      Üniversite yıllarımda bir ara kendi matematik alanımda daha derin, daha geniş ve daha doğrusal olmayan bir kavrayış açılmıştı ama bunun sol beyin becerisinin keskinleşmesi mi yoksa sağ beynin daha fazla devreye girmesi mi olduğunu bilmiyorum
      LLM'ler bu tür sıralı düşünmede bizi açıkça geçecek; o zaman insanların geriye kalan right-brainness tarafına mı daha çok yönelmesi gerekecek, yoksa AI oraya da daha hızlı mı ulaşacak, merak ediyorum
    • Bir alandaki teknikleri başka bir alana uygulamanın temsilî örneğine bakmak isterseniz Langlands project'e göz atabilirsiniz
  • AI, benim en sevdiğim tuhaf işbirlikçi

  • Bazı Erdős problemleri, sonradan geliştirilen sofistike teknikler kullanıldığında fiilen neredeyse apaçık hale gelebiliyor
    Hocalarımdan biri Erdős ile ortak makale yazmış biriydi; bir süre çözümsüz kalan bir Erdős problemini lisans quiz sorusu olarak verebildiğini anlatırken bununla epey övünürdü

    • Bu noktaya bir şey eklemek gerekirse, o problemler zaten büyük ölçüde LLM'lerde denenmiş durumda
      Bu yüzden bu örnek, modelin gerçekten güçlendiğine dair bir kanıt gibi görünüyor
      Önceki nesil LLM'ler bu problemi çözememişti
    • Tao'ya göre bu problem için mevcut standart yaklaşım çıkmaz sokak gibi görünüyor ama aynı zamanda o kadar doğal ki herkesin ilk denediği adım da bu
      Bu yüzden bu sonuç daha da umut verici duruyor
      Çünkü benzer problemler üzerinde değerlendirilmeye değer yeni bir yaklaşım hattı ortaya çıkmış oldu
  • Bu noktada bir GitHub repo açıp, bir sürü çözülmemiş dry lab problemi koyarak her yeni model çıktığında hepsini çalıştıran bir harness yapmak güzel olurdu

    • Nitekim Terence Tao ve başka matematikçiler böyle bir depoyu zaten işletiyor ve LLM'lerle çözüm bulmak için aktif olarak kullanıyorlar
      [1] https://github.com/teorth/erdosproblems
    • O repo kelimenin tam anlamıyla Erdős problemlerinin kendisi
      Bu yazı da onlardan birinin çözülmüş olduğunu anlatıyor
  • ChatGPT'nin ispatının aslı aslında epey berbattı ve ne demeye çalıştığını anlamak için bir uzmanın ayıklaması gerekiyordu cümlesini görünce, matematik makalesi okurken hep hissettiğim şeyin aynısı geldi aklıma

  • Bu problem 60 yıllık bir problemse, aslında dolaylı biçimde çoktan çözülmüş olup modelin sadece farklı bilgileri çaprazlayarak bunu fark etmiş olması mümkün değil mi diye düşündüm
    Siteye bakınca, insanların geçmişte bunu tartıştığına dair neredeyse hiçbir iz yok; yakın tarihli yorumların da sadece GPT'nin bunu bulduğunu söylemesi bu hissi daha da güçlendirdi
    60 yıllık bir problemse daha eski tartışmalar olmasını beklerdim; acaba benim gözden kaçırdığım bir şey mi var
    Yine de harika bir keşif ve benzer şekilde GPT ile tekrar kontrol etmeye değer başka problemler de olabilir gibi görünüyor

  • İnsanlar da, insanların yaptığı makineler de çoğunlukla birikimli biçimde problem çözer
    Var olan temelin üstüne sürekli yeni katmanlar ekledikleri için, tekerleği yeniden icat etmek istememeleri onları kolayca belli düşünme kalıplarına hapsedebilir
    Bu yüzden saf bir LLM'nin uzmanların denemediği bir yaklaşım önermesi bana çok da şaşırtıcı gelmiyor
    LLM'ler bu gibi sınırlı durumlarda farklı bir yaklaşım sunma rolünde oldukça faydalı olabilir; mutlaka doğru cevabı vermeleri de gerekmez, alternatif sunup oyunu değiştirmeleri yeterli
    Ama bu Erdős probleminin pratikte ne kadar değerli olduğu konusunda emin değilim
    Bunun LLM'lerin işe yaramaz oyuncaklar olmadığının kanıtı olup olmadığını soracak olursanız, bu bana 1928'de sayı teorisine milyonlarca dolar yatırmalı mıyız diye sormaya benziyor
    O dönemde verilecek cevap muhtemelen hayır, bir de ofisimden çıkın olurdu