- MIT'li kuramsal bilgisayar bilimci Ryan Williams'ın yayımladığı yeni ispat, bellek kaynağının zamandan daha güçlü bir hesaplama kaynağı olabileceğini gösteriyor
- Zaman-uzay karmaşıklığı ilişkisine dair 50 yıllık durgunluğu kırarak, tüm algoritmaları daha az bellekle dönüştürmenin bir yolunu sunuyor
- İspatın özü, uzay tasarruflu simülasyonu genelleştirerek, algoritmaların uzay kullanımını zamanın karekökü düzeyine indirme fikri
- Bunun sonucunda, PSPACE ile P sınıfları arasındaki farkı nicel olarak göstermede ilerleme sağlandı ve daha geniş ayrımların ispatına giden yol da açılmış olabilir
- Uzmanlar bu başarıyı “şaşırtıcı bir ilerleme ve yeni bir keşif yolculuğunun başlangıcı” olarak değerlendiriyor; sonucun ileride kuramsal bilgisayar bilimindeki başka zor problemleri çözmek için ipucu olabileceğini düşünüyor
One Small Step for Space, One Giant Leap for Complexity
Ryan Williams'ın yeni ispatına genel bakış
- 2024 yazında MIT'den Ryan Williams, kendi ispatını gözden geçirirken hata sandığı fikrin aslında geçerli olduğunu fark etti
- Tüm algoritmaları daha az bellekle çalışabilecek şekilde dönüştüren genel bir prosedür önerdi
- Bunun sonucunda, bazı problemlerin sınırlı zamanla çözülemeyeceği kanıtlanabildi
Zaman ve uzay: hesaplamanın iki kaynağı
- Her algoritma zaman ve bellek (uzay) kullanır
- Daha önce, belirli problemleri çözerken uzayın zamanla orantılı olduğu düşünülüyordu
- Williams'ın ispatı, uzayın zamandan daha güçlü olabileceğini matematiksel olarak ortaya koyuyor
Kuramsal bilgisayar biliminin başlangıcı ve tarihi
- Juris Hartmanis ve Richard Stearns, 1960'larda zaman/uzay karmaşıklığı tanımını oluşturdu
- Problemleri çözmek için gereken kaynaklara göre karmaşıklık sınıfları halinde ayırmanın temelini attılar
- P, makul sürede çözülebilen problemleri; PSPACE ise uygun miktarda bellekle çözülebilen problemleri ifade eder
İlk ilerleme: 1975'teki simülasyon tekniği
- Hopcroft, Paul, Valiant, tüm algoritmaları biraz daha az uzay kullanan biçime dönüştüren evrensel bir simülasyon prosedürü geliştirdi
- Bu, zaman ile uzay arasındaki bağlantıyı anlamada ilk adım oldu, ancak sonrasında bir sınıra takıldı
- Veri aynı anda aynı uzayı paylaşamaz varsayımı nedeniyle daha ileri gitmenin mümkün olmadığı düşünülüyordu
Dönüm noktası: Squishy Pebbles
- 2010'da öncü karmaşıklık kuramcısı Stephen Cook ve çalışma arkadaşları, ağaç değerlendirme problemi - Pebbles and Branching Programs for Tree Evaluation adlı bir görev tasarlayarak, belirli bir eşik altındaki uzay bütçesine sahip algoritmalar için bu görevin imkânsız olduğunu kanıtladı
- Ancak bir açık vardı. Bu ispat, Paul ve çalışma arkadaşlarının onlarca yıl önce kullandığı aynı sezgisel varsayıma dayanıyordu
- Yani algoritmalar, zaten dolu olan bir uzaya yeni veri yazamazdı
- 10 yılı aşkın süre boyunca karmaşıklık kuramcıları bu açığı kapatmaya çalıştı
- Stephen Cook'un oğlu James Cook ile Ian Mertz, 2023'te mevcut varsayımı bozan bir ağaç değerlendirme problemi algoritması yayımladı: Tree Evaluation Is in Space 𝑂 (log 𝑛 · log log 𝑛)
- Bellekteki verinin fiziksel olarak üst üste binebileceği yeni bir temsil modeli önerdiler
- Bu yaklaşım, mevcut simülasyon sınırlarını aşmanın anahtarı oldu
Williams'ın belirleyici sıçraması
- Öğrencilerin sunumu sayesinde Cook-Mertz tekniğiyle tanışan Williams, bunu evrensel simülasyona uygulama fikrini geliştirdi
- Yeni simülasyon, algoritmaların uzay gereksinimini zamanın karekökü düzeyine kadar azaltabiliyor
- Son makalesini 2025 Şubat'ında arXiv'de yayımladı ve akademi dünyasından büyük övgü aldı
Bu sonucun anlamı
- Bu ispat, PSPACE > P olduğunu doğrudan kanıtlamasa da, o yöne doğru ilerleyen bir 'gedik' açan belirleyici bir başarı
- Gelecekte bu prosedür tekrar tekrar uygulanıp daha büyük bir ayrım yaratılabilirse, P vs PSPACE probleminin çözümüne yaklaşmak mümkün olabilir
- Bu, bilgisayar biliminin en eski büyük problemlerinden birini çözmeye giden ilk ipucu olabilir
Etkileyici bir kapanış
- Williams sonuç hakkında şöyle diyor:
“Aslında gerçekten kanıtlamak istediğim şeyi kanıtlayamadım ama sonunda kanıtladığım şey, istediğimden daha da iyiydi.”
2 yorum
....Ha?
Hacker News görüşleri
tiçinde çalışan çok bantlı bir Turing makinesiO(sqrt(t log t))alan kullanılarak simüle edilebilir (genelde süret'den daha uzun olur) Simulating Time With Square-Root Spacenolan bir banttaO(n)süre boyunca yazabilirsiniz ama bant ikiliyse uzunluğunolan bir bantta2^nfarklı yapılandırma vardır. Alanı doğru kullanırsanız zamana göre çok daha yüksek ifade gücü elde edersiniz diye düşünüyorum.O(1)bellek rastgele erişim varsayımı fazla doğal kabul ediliyor ama gerçekte bilgisayar büyüdükçe erişim maliyetiO(n^(1/3))düzeyine kadar çıkıyor. Bunu veri merkezlerinde doğrudan hissedebiliyorsunuz. Sanırım bu, UMA dışındaki başka bir modeldi.P ≠ PSPACEkanıtlanmadığı için, sezgisel olarak açık görünen şeyleri matematiksel olarak ispatlamak zor bir alan.PTIME=PSPACE) alan o kadar büyük avantaj sağlamayabilir. Makaledet/log t'densqrt(t log t)'ye sıçrama çığır açıcı olsa da, sonsuz paralelleştirmeyle bile aşılamayan gerçek sınırlar var gibi görünüyor.Nalıp bandın sağınaNtane1yazmaya çalışırsa,NzamandaNhücre alan gerektiriyor gibi görünüyor. Ama bununN'den daha az alanla nasıl simüle edilebildiğini merak ediyorum. Turing makinesinin bantta keyfi bir konuma atlayamayan yapısı nedeniyle, bunun gerçek bilgisayarlarla ilişkisi ne diye de düşünüyorum.Nbitse, bu aslındaNadet karar problemini art arda koymakla aynı şey olur.