ChatGPT kullanan bir amatör Erdős problemini çözdü
(scientificamerican.com)- primitive set için Erdős toplamının en küçük değerinin 1 olduğu ve elemanlar sonsuza gittikçe bu değere yaklaştığına dair eski bir problem, GPT-5.4 Pro tarafından üretilen bir çözümle çözülmüş kabul ediliyor
- Çözüm, Liam Price'ın tek bir prompt ile elde edip erdosproblems.com'a yüklediği bir çıktıydı; ardından Kevin Barreto ve uzmanların incelemesinden geçerken hızla ilgi çekti
- Bu ispat, insanların genelde seçtiği ilk yaklaşımdan farklı bir yol izledi ve ilgili alanda bilinen formülleri bu probleme beklenmedik biçimde birleştirmesiyle öne çıktı
- ChatGPT'nin orijinal ispatı doğrudan kullanılmak için oldukça hamdı; uzmanlar özünü ayıklayıp anladıktan sonra daha kısa ve daha düzenli bir biçime getirdi
- Ünlü matematikçilerin de çözemediği bir problemde LLM'nin yeni yaklaşımının işe yaraması, büyük sayıların yapısını görme biçimini ve benzer problemleri birlikte ele alma bakışını değiştirebilir
Problem ve çözüm yöntemi
- primitive set, kümedeki hiçbir sayının başka bir sayıya tam bölünmediği bir tamsayı kümesini ifade eder
- Erdős, bu tür kümeler için hesaplanan Erdős sum kavramını tanımladı ve kümedeki sayılar büyüdükçe bu puanın düştüğünü düşündü
- En küçük değerin tam olarak 1 olduğu ve küme elemanları sonsuza gittikçe bu değere yaklaştığı yönündeki tahmin uzun süre açık kaldı
- Bu çözüm, Liam Price'ın GPT-5.4 Pro'ya tek bir prompt vererek aldığı ve ardından erdosproblems.com üzerinde yayımladığı bir sonuçtu
- Price, problemin arka plan geçmişini bilmeden Erdős problemlerini yapay zekaya denemek için verirken, görünüşte doğru bir çözüm elde etti
- Daha sonra Kevin Barreto ile birlikte inceledi ve iletişime geçilen uzmanlar hızla konuyla ilgilenmeye başladı
- Daha önce de yapay zekanın çeşitli Erdős problems çözdüğüne dair haberler çıkmıştı; ancak problemlerin önem ve zorluk düzeyi büyük ölçüde değiştiği için bunlar matematiksel yeteneği ölçmekte eksik kalıyordu ve bazı çözümler göründüğü kadar yeni değildi
- Bu sonuç ise ünlü matematikçilerin de çözemediği bir problemi ele alması ve aynı tür problemler için kullanılmayan bir yöntemi benimsemesi nedeniyle farklı değerlendiriliyor
Neden farklı değerlendiriliyor
- İnsanlar bu problemi çözerken çoğunlukla benzer bir ilk yaklaşım seçiyordu, ancak bu LLM çözümü tamamen farklı bir yoldan ilerledi
- İlgili matematik alanında iyi bilinen formülleri kullandı, fakat bunları böyle bir probleme uygulama fikri daha önce akla gelmemişti
- Terence Tao, problemin kendisinin sanılandan daha kolay olabileceğini ve ilk yaklaşımlarda bir tür mental block yaşandığını belirtiyor
- Jared Lichtman, ChatGPT'nin orijinal ispatının olduğu haliyle oldukça ham olduğunu ve ne söylemeye çalıştığını uzmanların ayıklayıp anlamasının gerektiğini söyledi
- Şu anda Lichtman ve Tao, ispatı daha kısa hale getirerek LLM'nin temel içgörüsünü daha net gösterecek biçimde düzenlemiş durumda
- Bu sıçrama, büyük sayılara ve onların yapısına bakışta yeni bir düşünme tarzına yol açabilir
- Uzun vadeli önemi için henüz kesin konuşmak erken, ancak benzer problemlerin tek bir çerçevede birleştiği sezgisini destekleyen bir yaklaşım olarak görülüyor
1 yorum
Hacker News görüşleri
https://archive.ph/2w4fi
Paul Erdős, 1900'lerin büyük bölümünde yaşamış, son derece ünlü ama bir o kadar da tuhaf bir matematikçiydi
Matematikçilerin uğraştığı problemleri bulup kaydetme alışkanlığı vardı; bunların zorluk seviyesi de bugünün lisans ödevi düzeyinden çözülürse Fields Medal ayarında sayılacak problemlere kadar çok genişti
Bu problemleri bir arada tutan esas nokta, son 100 yılın en zeki insanlarından birinin bunlara anında cevap verememiş olması
Bugünlerde bu tür problemlerin ispatlarını LLM'lerle üretmeye çalışıp bir tür benchmark gibi kullanıyoruz ve her yeni model çıktığında birkaç tanesi daha çözülüyor
Daha önce de birkaç uzman matematikçinin baktığı bir problemdi; ortaya çıkan ispatın şaşırtıcı ve zarif olduğu, hatta yeni bağlantılar gösterdiği söyleniyor
Önceki ChatGPT'nin Erdős problem çözümleri genel olarak daha az etkileyiciydi; literatür taramasına daha yakın ya da görece kolay ama ihmal edilmiş problemleri çözme düzeyindeydi
Prompt'u okuyunca,
alışılmadık olsa da olurdiye cesaretlendirilmesinin başarıda payı olup olmadığını merak ediyor insan[1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
Gerçek konuşmada kullanılan prompt buydu
İnternette arama yapmamasını, number theory and primitive sets problemi için sıradan olmayan, yeni ve yaratıcı bir ispat ya da çürütme üretmesini istemişler
Tam bir unconditional proof veya disproof talep etmişler ve böyle bir iddianın alışılmadık, yaratıcı unsurlar gerektirebileceğini tekrar özellikle vurgulamışlar
Bir de üstünde
Thought for 80m 17syazıyorduhttps://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
önerilen bound'un doğru olduğunu ve sabit 1'in sharp olduğunu söyleyip
w(a)= 1/alog(a)veuniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))ifadelerini ispatlayacağını öne sürmüşBunun, istenen
1+o(1)sonucundan daha güçlü bir sonuç olduğunu iddia etmişhttps://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
Ama bunun gerçekten doğru bir ispat olup olmadığını değerlendirecek kadar matematik bilgim yok
Bilimsel ilerleme çoğu zaman bir alandaki teknik X'in başka bir alandaki problem Y'ye uygulanmasıyla oldu ve LLM'ler bu tür alanlar arası bağlantılarda insandan daha güçlü görünüyor
Çünkü tek bir insanın bilebileceğinden çok daha fazla teori ve yaklaşım biliyorlar ve meslektaşlarının yanında aptal görünecekleri endişesini taşımak zorunda değiller
Bilgiyi genelleştirme ve başka alanlara uygulama yeteneği
Bu işte LLM'ler insanlardan çok daha iyi ve insanların bunu geleneksel olarak yaratıcılık diye yanlış sınıflandırmış olabileceğini düşündürüyor
Müthiş bir atılım yarattığını söyleyemem ama whitepaper'a dönüştürülebilecek içgörüler edindiğim birkaç an olmuş gibi hissediyorum
Birçok alan arasında korelasyonlar kurma sürecinin kendisi bile LLM deneyi olarak oldukça eğlenceli
Ben de çocukken bütün sayfayı bir anda okur gibiydim, sonra bir noktada kelime kelime ve satır satır okumaya geçtim ve o mod yerleşti
Üniversite yıllarımda bir ara kendi matematik alanımda daha derin, daha geniş ve daha doğrusal olmayan bir kavrayış açılmıştı ama bunun sol beyin becerisinin keskinleşmesi mi yoksa sağ beynin daha fazla devreye girmesi mi olduğunu bilmiyorum
LLM'ler bu tür sıralı düşünmede bizi açıkça geçecek; o zaman insanların geriye kalan right-brainness tarafına mı daha çok yönelmesi gerekecek, yoksa AI oraya da daha hızlı mı ulaşacak, merak ediyorum
AI, benim en sevdiğim tuhaf işbirlikçi
Bazı Erdős problemleri, sonradan geliştirilen sofistike teknikler kullanıldığında fiilen neredeyse apaçık hale gelebiliyor
Hocalarımdan biri Erdős ile ortak makale yazmış biriydi; bir süre çözümsüz kalan bir Erdős problemini lisans quiz sorusu olarak verebildiğini anlatırken bununla epey övünürdü
Bu yüzden bu örnek, modelin gerçekten güçlendiğine dair bir kanıt gibi görünüyor
Önceki nesil LLM'ler bu problemi çözememişti
Bu yüzden bu sonuç daha da umut verici duruyor
Çünkü benzer problemler üzerinde değerlendirilmeye değer yeni bir yaklaşım hattı ortaya çıkmış oldu
Bu noktada bir GitHub repo açıp, bir sürü çözülmemiş dry lab problemi koyarak her yeni model çıktığında hepsini çalıştıran bir harness yapmak güzel olurdu
[1] https://github.com/teorth/erdosproblems
Bu yazı da onlardan birinin çözülmüş olduğunu anlatıyor
ChatGPT'nin ispatının aslı aslında epey berbattı ve ne demeye çalıştığını anlamak için bir uzmanın ayıklaması gerekiyorducümlesini görünce, matematik makalesi okurken hep hissettiğim şeyin aynısı geldi aklımaBu problem 60 yıllık bir problemse, aslında dolaylı biçimde çoktan çözülmüş olup modelin sadece farklı bilgileri çaprazlayarak bunu fark etmiş olması mümkün değil mi diye düşündüm
Siteye bakınca, insanların geçmişte bunu tartıştığına dair neredeyse hiçbir iz yok; yakın tarihli yorumların da sadece GPT'nin bunu bulduğunu söylemesi bu hissi daha da güçlendirdi
60 yıllık bir problemse daha eski tartışmalar olmasını beklerdim; acaba benim gözden kaçırdığım bir şey mi var
Yine de harika bir keşif ve benzer şekilde GPT ile tekrar kontrol etmeye değer başka problemler de olabilir gibi görünüyor
İnsanlar da, insanların yaptığı makineler de çoğunlukla birikimli biçimde problem çözer
Var olan temelin üstüne sürekli yeni katmanlar ekledikleri için, tekerleği yeniden icat etmek istememeleri onları kolayca belli düşünme kalıplarına hapsedebilir
Bu yüzden saf bir LLM'nin uzmanların denemediği bir yaklaşım önermesi bana çok da şaşırtıcı gelmiyor
LLM'ler bu gibi sınırlı durumlarda farklı bir yaklaşım sunma rolünde oldukça faydalı olabilir; mutlaka doğru cevabı vermeleri de gerekmez, alternatif sunup oyunu değiştirmeleri yeterli
Ama bu Erdős probleminin pratikte ne kadar değerli olduğu konusunda emin değilim
Bunun LLM'lerin işe yaramaz oyuncaklar olmadığının kanıtı olup olmadığını soracak olursanız, bu bana 1928'de sayı teorisine milyonlarca dolar yatırmalı mıyız diye sormaya benziyor
O dönemde verilecek cevap muhtemelen
hayır, bir de ofisimden çıkınolurdu