- Erdős #281, sonsuz sayıda kongruens nasıl seçilirse seçilsin, bunların hiçbirine uymayan tam sayıların neredeyse hiç kalmadığı bir durumu varsayan bir problem
- Bu durum doğruysa, gerçekte sonsuz sayıdaki tüm kongruensleri kullanmadan da yalnızca ilk birkaç tanesiyle neredeyse tüm tam sayıların elenebileceğinin söylenip söylenemeyeceğine odaklanıyor
- Neel Somani, GPT-5.2 Pro kullanarak bu soruya bir çözüm sundu; birçok matematikçi de mantığın kilit adımlarını merkez alarak inceleme ve düzeltmeler yaptı
- Tek tek tam sayıları doğrudan hesaplamak yerine, tüm tam sayıları tek bir uzay olarak ele alıp yoğunluk ve limit özellikleriyle problemi çözmeye çalışan bir yaklaşım
- Aynı sonucun geçmişte bilinen teoremlerin birleşimiyle de elde edilebildiği ortaya çıkarken, bu bağlantının neden uzun süre fark edilmediğine dair tartışmalar da sürdü
Erdős Problemi #281 — tartışmanın ana teoremi
- Erdős #281, sonsuz sayıda kongruens verildiğinde, bu kongruensler nasıl seçilirse seçilsin sonunda neredeyse tüm tam sayıların bunlardan en az birine dahil olduğu bir durumu varsayan problem
- Tüm kongruensler birlikte uygulandığında, hiçbir kongruense girmeyen tam sayıların neredeyse hiç kalmadığı özelliğinin zaten bilindiği bir kurgu
- Bu özellik geçerliyse, gerçekte sonsuz sayıda kongruensi sonuna kadar kullanmadan da yalnızca ilk birkaç taneyle neredeyse aynı etkinin ortaya çıkıp çıkmadığı soruluyor
- Sonsuz adımda geçerli olan bir sonucun sonlu adımda da otomatik olarak güvence altına alınıp alınmadığına dair bir soru yapısı
- En kötü artık sınıfı seçimine her zaman izin veren koşul altında, yalnızca sonlu sayıda kongruensin yeterli olup olmadığını söylemenin zorluğu var
Neel Somani ve GPT-5.2 Pro çözümünün yaklaşımı
- Tek tek tam sayıları incelemek yerine, tüm tam sayıları tek bir uzay olarak görüp problemi yoğunluk kavramıyla ele alan bir yaklaşım
- İlk k kongruensten kaçınan tam sayıların kümesini tek bir nesne olarak tanımlama yöntemi
- k büyüdükçe bu kümenin giderek küçülmesi ve sonsuz adım sonucuna yakınsaması yapısından yararlanılıyor
- Sonsuz sayıdaki tüm kongruenslerden kaçınan tam sayıların neredeyse hiç olmadığı varsayımından, sonlu adımda da bu kümenin yeterince küçük olmak zorunda olduğu sonucuna varan bir mantık kuruluyor
- Limit, ortalama ve kaydırma özellikleri kullanılarak genel akış oluşturuluyor
İnceleme süreci ve tartışmanın gelişimi
- Sunulan çözümde limit alma sırası ve ortalamaların ele alınış biçiminin gerekçesi yoğun biçimde incelendi
- Bazı adımlarda ek açıklama ve düzeltme gerektiğine dair eleştiriler ortaya çıktı
- Birden fazla matematikçi mantığı açık biçimde denetleyerek adım adım anlamı netleştiren bir süreç yürüttü
- Sonuç olarak, ispatın temel yapısı korunurken akış daha açık bir biçime kavuşturuldu
Klasik teoremlerle bağlantı
- Aynı sonucun daha önce bilinen teoremlerin birleştirilmesiyle de çıkarılabildiği doğrulandı
- Sonsuz sayıda koşul altında yoğunluk yakınsamasını ele alan sonuç ile sonlu koşullarda en kötü durumu açıklayan teoremin birleşimi söz konusu
- Bu bağlantı sayesinde, sonsuz adımdaki özelliğin sonlu adımda da güçlü biçimde yansıdığı yapı görünür hale geliyor
- Böyle bir bağlantının neden uzun süre açık biçimde düzenlenmediğine dair tartışmalar genişledi
Bu örnek neden dikkat çekiyor
- Uzun zaman önce ortaya atılmış bir problemin, yapay zeka tabanlı bir çözüm önerisi vesilesiyle yeniden yoğun ilgi görmesi
- Yapay zeka, tamamlanmış cevabı tek başına vermekten çok, yeni bir bakış açısıyla tartışmayı tetikledi
- Problemin hangi dil ve çerçeve içinde yeniden ifade edildiğine bağlı olarak zorluk derecesinin büyük ölçüde değişebildiği görüldü
1 yorum
Hacker News görüşleri
Bu yüzden LLM'in ürettiği ispat, Terence Tao'nun wiki bölüm 2 kısmına taşındı
İlgili tartışma erdosproblems forum gönderisinde yer alıyor
Daha da garibi, bu ispatın bizzat Erdős'ün makalesinde yer almasına rağmen onun problemi çözümsüz bırakmış olması
Zaten bir çözüm vardı ve kimsenin bunu fark etmemesinin nedeni insanların pek ilgilenmemesiydi
Eski literatürü tarayıp buna “yeni ilerleme” demek, yanılsamalı bir ilerleme olabilir
Saf matematiğin büyük bir kısmı sonuçta entelektüel bulmaca oyunu gibi hissettiriyor
Tao'nun wiki açıklamasına göre,
Erdős problemlerinin zorluk seviyesi çok değişken ve bazıları AI'nin çözmeye uygun olduğu düşük zorluklu problemler olarak sınıflanıyor
Kolay problemler bile “en iyi matematikçilerin hemen çözemeyeceği düzeyde” olduğundan AI performansı için uygun bir ölçüt sayılabilir
AI geliştikçe giderek daha zor problemlere doğru zorluk merdivenini tırmanacağı düşünülüyor
hatta söz konusu ispatın Erdős'ün kendi makalesinde bulunduğunu da bilmiyorlardı
Buna rağmen Fediverse ve Twitter'da bunu LLM atılımı diye konuşuyorlar
LLM'in limit değişimi veya niceleyici işlemede hata yapmaktan kaçınmış olması etkileyiciydi
Önceki nesil modellerin bu tür yerlerde hata yapacağını söylüyor,
ve bu sonucu wiki'nin bölüm 1'ine eklediğini belirtiyor
aynı sonucun zaten ispatlandığı ortaya çıktı
Tao da “yeni ispat mevcut olandan farklı, ama bunu bölüm 2'ye taşıyorum” diye yorum yaptı
En yeni modeller “%100 kusursuz kod” diye kendinden emin konuşuyor ama gerçekte çöküyor
z.ai için ödeme yapmaya çalışırken bile hata verdi, satın alma bile yapılamadı
LLM etkileyici bir teknoloji ama aynı zamanda abartılmış bir teknoloji
Loglar ya da çalıştırma çıktıları gibi ampirik kanıtlar lazım
Model yalnızca metin üretir, bunu doğrulaması gereken uygulamadır
Ama kusursuz metin üretimi şu anda imkansız
Çünkü LLM'lerin kendinden emin ama yanlış cevaplar verdiğini çok gördüm
OpenAI'nin hafıza politikası ve model erişim kısıtları da ilginç bir konu
Bu örnekte ise ChatGPT 5.2'nin 1 saat içinde cevap verdiği söyleniyor,
ama bunun tekrarlanabilir olup olmadığı, neden böyle bir çözüm ürettiği ve tam olarak neyi ispat ettiği belirsiz
Tao'nun doğrulaması güven veriyor, ama sonunda şu soru kalıyor: “Model saf matematiğe daha uygun olacak şekilde mi eğitildi?”
Önceki örneğe ve ChatGPT oturum bağlantısına bakılabilir
İlgili bağlantı
ardından Lean gibi biçimsel ispat sistemleriyle bunları doğrulamaya yönelik girişimlerin bir parçası
Tao önce ispatın doğruluğuna bakıyor, ardından literatür taramasıyla özgünlüğünü kontrol ediyor
Şu anda tamamen yeni ispatlar neredeyse yok, ama yeni yaklaşımlar ortaya çıkıyor
Bu örnek de önce yeni bir ispat gibi görünmüştü, ama sonunda Erdős'ün zaten bildiği bir sonuç olduğu anlaşıldı
İki ispat Opus'a verildiğinde, eşdeğer olduklarını doğruladığı belirtiliyor
ayrıntılı doğrulama eksikse tüm ispatın çökebileceği eleştirisi yapılıyor
Örnek olarak (U_k) kümeleri üzerinden olası bir karşı örnekten söz ediliyor
İlgili tartışma için bu yoruma bakılabilir
ChatGPT veya Gemini Pro'ya kıyasla matematiksel doğruluğu daha düşük deniyor
Acaba bazı profesyonel matematikçiler AI kullanıp bunu açıklamıyor olabilir mi diye düşündürüyor
Sporda doping yarışı gibi, geri kalmamak için herkes kullanmaya başlayacak
Üstelik AI kullanımı kurallara da aykırı değil
ama LLM'lerin henüz somut ilerleme sağlayamamış olması daha olası görünüyor
Kişisel görüş olarak teşekkür kısmında bir satır yeterli olabilir
Bir matematik postdoc'u olarak GPT 5.2'yi deneyince, daha az yalan söylediği ve başarısız olduğunda dürüst olduğu söyleniyor
Buna karşılık Gemini 3'ün yanıldığında uydurma teoremler üretme eğiliminde olduğu belirtiliyor
yoksa gerçekten özgün araştırma çıktıları mı sayılması gerektiği merak ediliyor
Erdős problemlerinde zorluk farkı büyük ve AI'nin çözmesi kolay düşük zorluklu bir alt küme bulunuyor
Sonuçta Erdős listesine girmiş bir problemse, en azından birileri onu bir kez denemiş olabilir