1 puan yazan GN⁺ 2026-01-19 | 1 yorum | WhatsApp'ta paylaş
  • Erdős #281, sonsuz sayıda kongruens nasıl seçilirse seçilsin, bunların hiçbirine uymayan tam sayıların neredeyse hiç kalmadığı bir durumu varsayan bir problem
  • Bu durum doğruysa, gerçekte sonsuz sayıdaki tüm kongruensleri kullanmadan da yalnızca ilk birkaç tanesiyle neredeyse tüm tam sayıların elenebileceğinin söylenip söylenemeyeceğine odaklanıyor
  • Neel Somani, GPT-5.2 Pro kullanarak bu soruya bir çözüm sundu; birçok matematikçi de mantığın kilit adımlarını merkez alarak inceleme ve düzeltmeler yaptı
  • Tek tek tam sayıları doğrudan hesaplamak yerine, tüm tam sayıları tek bir uzay olarak ele alıp yoğunluk ve limit özellikleriyle problemi çözmeye çalışan bir yaklaşım
  • Aynı sonucun geçmişte bilinen teoremlerin birleşimiyle de elde edilebildiği ortaya çıkarken, bu bağlantının neden uzun süre fark edilmediğine dair tartışmalar da sürdü

Erdős Problemi #281 — tartışmanın ana teoremi

  • Erdős #281, sonsuz sayıda kongruens verildiğinde, bu kongruensler nasıl seçilirse seçilsin sonunda neredeyse tüm tam sayıların bunlardan en az birine dahil olduğu bir durumu varsayan problem
  • Tüm kongruensler birlikte uygulandığında, hiçbir kongruense girmeyen tam sayıların neredeyse hiç kalmadığı özelliğinin zaten bilindiği bir kurgu
  • Bu özellik geçerliyse, gerçekte sonsuz sayıda kongruensi sonuna kadar kullanmadan da yalnızca ilk birkaç taneyle neredeyse aynı etkinin ortaya çıkıp çıkmadığı soruluyor
  • Sonsuz adımda geçerli olan bir sonucun sonlu adımda da otomatik olarak güvence altına alınıp alınmadığına dair bir soru yapısı
  • En kötü artık sınıfı seçimine her zaman izin veren koşul altında, yalnızca sonlu sayıda kongruensin yeterli olup olmadığını söylemenin zorluğu var

Neel Somani ve GPT-5.2 Pro çözümünün yaklaşımı

  • Tek tek tam sayıları incelemek yerine, tüm tam sayıları tek bir uzay olarak görüp problemi yoğunluk kavramıyla ele alan bir yaklaşım
  • İlk k kongruensten kaçınan tam sayıların kümesini tek bir nesne olarak tanımlama yöntemi
  • k büyüdükçe bu kümenin giderek küçülmesi ve sonsuz adım sonucuna yakınsaması yapısından yararlanılıyor
  • Sonsuz sayıdaki tüm kongruenslerden kaçınan tam sayıların neredeyse hiç olmadığı varsayımından, sonlu adımda da bu kümenin yeterince küçük olmak zorunda olduğu sonucuna varan bir mantık kuruluyor
  • Limit, ortalama ve kaydırma özellikleri kullanılarak genel akış oluşturuluyor

İnceleme süreci ve tartışmanın gelişimi

  • Sunulan çözümde limit alma sırası ve ortalamaların ele alınış biçiminin gerekçesi yoğun biçimde incelendi
  • Bazı adımlarda ek açıklama ve düzeltme gerektiğine dair eleştiriler ortaya çıktı
  • Birden fazla matematikçi mantığı açık biçimde denetleyerek adım adım anlamı netleştiren bir süreç yürüttü
  • Sonuç olarak, ispatın temel yapısı korunurken akış daha açık bir biçime kavuşturuldu

Klasik teoremlerle bağlantı

  • Aynı sonucun daha önce bilinen teoremlerin birleştirilmesiyle de çıkarılabildiği doğrulandı
  • Sonsuz sayıda koşul altında yoğunluk yakınsamasını ele alan sonuç ile sonlu koşullarda en kötü durumu açıklayan teoremin birleşimi söz konusu
  • Bu bağlantı sayesinde, sonsuz adımdaki özelliğin sonlu adımda da güçlü biçimde yansıdığı yapı görünür hale geliyor
  • Böyle bir bağlantının neden uzun süre açık biçimde düzenlenmediğine dair tartışmalar genişledi

Bu örnek neden dikkat çekiyor

  • Uzun zaman önce ortaya atılmış bir problemin, yapay zeka tabanlı bir çözüm önerisi vesilesiyle yeniden yoğun ilgi görmesi
  • Yapay zeka, tamamlanmış cevabı tek başına vermekten çok, yeni bir bakış açısıyla tartışmayı tetikledi
  • Problemin hangi dil ve çerçeve içinde yeniden ifade edildiğine bağlı olarak zorluk derecesinin büyük ölçüde değişebildiği görüldü

1 yorum

 
GN⁺ 2026-01-19
Hacker News görüşleri
  • Daha önce çözüm olmadığı söylenmişti, ancak şimdi mevcut çözümün zaten bulunduğu ortaya çıktı
    Bu yüzden LLM'in ürettiği ispat, Terence Tao'nun wiki bölüm 2 kısmına taşındı
    İlgili tartışma erdosproblems forum gönderisinde yer alıyor
    • Tao'nun şu yorumu ilginç: yeni ispatın, mevcut literatürdeki ispattan oldukça farklı olduğunu söylüyor
      Daha da garibi, bu ispatın bizzat Erdős'ün makalesinde yer almasına rağmen onun problemi çözümsüz bırakmış olması
    • Bu tür modeller, insanların birbirine bağlayamadığı bilgi noktalarını birleştiren doğal dil arama motorları gibi çalışıyor gibi görünüyor
    • Aslında bu örnek, problemin kendisinin çok da önemli olmadığını gösteriyor
      Zaten bir çözüm vardı ve kimsenin bunu fark etmemesinin nedeni insanların pek ilgilenmemesiydi
      Eski literatürü tarayıp buna “yeni ilerleme” demek, yanılsamalı bir ilerleme olabilir
      Saf matematiğin büyük bir kısmı sonuçta entelektüel bulmaca oyunu gibi hissettiriyor
  • Erdős problemlerinin niteliğini merak ettim — matematikçilerin yıllarca uğraştığı zor problemler mi, yoksa bir kenarda kalmış problemler mi?
    Tao'nun wiki açıklamasına göre,
    Erdős problemlerinin zorluk seviyesi çok değişken ve bazıları AI'nin çözmeye uygun olduğu düşük zorluklu problemler olarak sınıflanıyor
    • Erdős olağanüstü üretken bir matematikçiydi ve ödüllü problemler ortaya atmayı severdi
      Kolay problemler bile “en iyi matematikçilerin hemen çözemeyeceği düzeyde” olduğundan AI performansı için uygun bir ölçüt sayılabilir
      AI geliştikçe giderek daha zor problemlere doğru zorluk merdivenini tırmanacağı düşünülüyor
    • Fazla endişelenmeye gerek yok. Tao ve yazı sahibi de Erdős problemlerine çok ilgi duymuyordu,
      hatta söz konusu ispatın Erdős'ün kendi makalesinde bulunduğunu da bilmiyorlardı
      Buna rağmen Fediverse ve Twitter'da bunu LLM atılımı diye konuşuyorlar
  • Tao'nun forumda bizzat bıraktığı yoruma göre,
    LLM'in limit değişimi veya niceleyici işlemede hata yapmaktan kaçınmış olması etkileyiciydi
    Önceki nesil modellerin bu tür yerlerde hata yapacağını söylüyor,
    ve bu sonucu wiki'nin bölüm 1'ine eklediğini belirtiyor
    • Sonrasında biri literatürü daha derin tarayınca, 1936 tarihli Davenport ve Erdős makalesinde
      aynı sonucun zaten ispatlandığı ortaya çıktı
      Tao da “yeni ispat mevcut olandan farklı, ama bunu bölüm 2'ye taşıyorum” diye yorum yaptı
  • Keşke AI önce kendi iddialarını ispatlayabilse
    En yeni modeller “%100 kusursuz kod” diye kendinden emin konuşuyor ama gerçekte çöküyor
    z.ai için ödeme yapmaya çalışırken bile hata verdi, satın alma bile yapılamadı
    LLM etkileyici bir teknoloji ama aynı zamanda abartılmış bir teknoloji
    • AI'nin yazdığı kodu doğrulamak için, insanlarda olduğu gibi testler veya kanıtlarla doğrulamak gerekir
      Loglar ya da çalıştırma çıktıları gibi ampirik kanıtlar lazım
    • Model ile uygulamayı ayırmak gerekir
      Model yalnızca metin üretir, bunu doğrulaması gereken uygulamadır
      Ama kusursuz metin üretimi şu anda imkansız
  • Tao'nun bizzat katıldığı bir erdosproblems forum başlığı var
  • Bu ispatın gerçekten doğrulanıp doğrulanmadığını merak ettim
    Çünkü LLM'lerin kendinden emin ama yanlış cevaplar verdiğini çok gördüm
    OpenAI'nin hafıza politikası ve model erişim kısıtları da ilginç bir konu
    • Tao bunu bizzat onayladı. Bundan daha sağlam bir doğrulama herhalde olmaz
  • Kısa süre önce Harmonic'in Aristotle'ının Erdős 728 problemini çözdüğüne dair bir gönderi vardı
    Bu örnekte ise ChatGPT 5.2'nin 1 saat içinde cevap verdiği söyleniyor,
    ama bunun tekrarlanabilir olup olmadığı, neden böyle bir çözüm ürettiği ve tam olarak neyi ispat ettiği belirsiz
    Tao'nun doğrulaması güven veriyor, ama sonunda şu soru kalıyor: “Model saf matematiğe daha uygun olacak şekilde mi eğitildi?”
    Önceki örneğe ve ChatGPT oturum bağlantısına bakılabilir
    • 49 gün önce de #124 probleminin AI tarafından ispatlandığı bir örnek vardı
      İlgili bağlantı
    • Bu, LLM'lerin matematik problemleri için aday ispatlar üretip,
      ardından Lean gibi biçimsel ispat sistemleriyle bunları doğrulamaya yönelik girişimlerin bir parçası
      Tao önce ispatın doğruluğuna bakıyor, ardından literatür taramasıyla özgünlüğünü kontrol ediyor
      Şu anda tamamen yeni ispatlar neredeyse yok, ama yeni yaklaşımlar ortaya çıkıyor
      Bu örnek de önce yeni bir ispat gibi görünmüştü, ama sonunda Erdős'ün zaten bildiği bir sonuç olduğu anlaşıldı
  • Aynı prompt Deepseek'e verildiğinde, ChatGPT'den çok daha hızlı çözdüğü söyleniyor
    İki ispat Opus'a verildiğinde, eşdeğer olduklarını doğruladığı belirtiliyor
    • Ama buna karşılık, “Bu neredeyse sadece senin kendi mührünü vurman gibi,” denilerek,
      ayrıntılı doğrulama eksikse tüm ispatın çökebileceği eleştirisi yapılıyor
    • Matematiksel olarak, kesişimin yoğunluğu kısmının yeterli olup olmadığı sorgulanıyor
      Örnek olarak (U_k) kümeleri üzerinden olası bir karşı örnekten söz ediliyor
    • Kimi-k2'nin akıl yürütme bloğu da paylaşıldı
    • Deepseek'in mevcut çözümü ezberden mi çıkardığı da merak ediliyor
      İlgili tartışma için bu yoruma bakılabilir
    • Opus'un matematik için uygun olmadığı görüşü de var
      ChatGPT veya Gemini Pro'ya kıyasla matematiksel doğruluğu daha düşük deniyor
  • Şaşırtıcı biçimde, LLM ispatlarının önemli bir kısmı uzman olmayan kişilerden geliyor
    Acaba bazı profesyonel matematikçiler AI kullanıp bunu açıklamıyor olabilir mi diye düşündürüyor
    • Aslında çoğu uzman, “kendi uzmanlık alanımda LLM aptalca davranıyor” diye düşünüyor gibi görünüyor
    • Bu tür adı anılmayan AI kullanımı yakında yaygınlaşacak gibi
      Sporda doping yarışı gibi, geri kalmamak için herkes kullanmaya başlayacak
      Üstelik AI kullanımı kurallara da aykırı değil
    • Gerçekte ise uzmanların bunu zaten denemiş,
      ama LLM'lerin henüz somut ilerleme sağlayamamış olması daha olası görünüyor
    • AI katkısının nasıl belirtileceği de tartışılıyor
      Kişisel görüş olarak teşekkür kısmında bir satır yeterli olabilir
      Bir matematik postdoc'u olarak GPT 5.2'yi deneyince, daha az yalan söylediği ve başarısız olduğunda dürüst olduğu söyleniyor
      Buna karşılık Gemini 3'ün yanıldığında uydurma teoremler üretme eğiliminde olduğu belirtiliyor
  • LLM'in çözdüğü Erdős problemlerinin sadece insanların el sürmediği kolay problemler mi olduğu,
    yoksa gerçekten özgün araştırma çıktıları mı sayılması gerektiği merak ediliyor
    • Tao'nun wiki uyarı notuna göre,
      Erdős problemlerinde zorluk farkı büyük ve AI'nin çözmesi kolay düşük zorluklu bir alt küme bulunuyor
    • Yine de LLM'lerin bu tür düşük zorluklu problemleri derleyip toparlaması değerli olabilir
      Sonuçta Erdős listesine girmiş bir problemse, en azından birileri onu bir kez denemiş olabilir