- AI ilerlemesini ölçen 5 gerçek gösterge üzerinden yapılan analizle Singularity'ye ulaşma zamanı milisaniye düzeyine kadar hesaplandığında 18 Temmuz 2034 Salı sonucu çıkıyor
- MMLU skoru, dolar başına token sayısı, frontier model yayın aralığı, arXiv'de "emergent" makale sayısı, Copilot kod payı gibi 5 gösterge bağımsız olarak fit edildiğinde, gerçekten hiperbolik eğrilik gösteren tek göstergenin arXiv'de "emergent" makale sayısı olduğu görülüyor
- Makine yetenek göstergelerinin tamamı doğrusal eğilim izliyor ve bir tekillik sinyali vermiyor; hızlanan tek şey, AI ortaya çıkış olgularına dair insan ilgisi ile heyecanı/endişesi
- Daha 2026 itibarıyla büyük ölçekli işten çıkarmalar, kurumsal gecikme, sermaye yoğunlaşması, güven erozyonu ve siyasi yeniden hizalanma gibi alanlarda toplumsal tekillik teknik tekillikten önce geliyor
- Tekilliğin özü, makinelerin süperzekaya ulaştığı an değil; insanların makineler hakkında tutarlı kolektif karar alma yetisini yitirdiği an
Veri: 5 AI ilerleme göstergesi
- Yunanca anlamındaki "insani önem (anthropic significance)" ölçütüne göre seçilmiş 5 gösterge kullanılıyor (Anthropic şirketini ifade etmiyor)
- MMLU skoru: Dil modelleri için SAT karşılığı sayılabilecek bir benchmark; GPT-3'ten (Haziran 2020, %43.9) Claude Opus 4.5'e (Kasım 2025, %90.8) kadar veriler dahil
- Dolar başına çıktı token sayısı: zekanın maliyet çöküşünü ölçüyor; log dönüşümü uygulanmış ve GPT-3 davinci'den (16,667 token/$) Gemini 2.0 Flash'a (2,500,000 token/$) kadar 5 basamaklık bir aralığı kapsıyor
- Frontier model yayın aralığı: "şok edici" anlar arasındaki daralan boşluk; GPT-3→ChatGPT (902 gün) ile Gemini 2.5 Pro→GPT-4.1 (20 gün) arasında keskin biçimde azalıyor
- arXiv'de "emergent" makale sayısı: son 12 aylık döneme göre, akademik heyecanı memetik biçimde ölçen gösterge
- Copilot kod payı: AI tarafından yazılan kod oranı
- Her gösterge [0,1] aralığına normalize edildi; yayın aralıkları ters çevrildi (kısa oldukça değer yükseliyor), token/$ log dönüşümünden sonra normalize edildi ve her seri kendi ölçeğini korudu
Neden hiperbolik model
- AI ekstrapolasyonlarının çoğunda kullanılan üstel fonksiyon f(t) = ae^(bt), yalnızca t→∞ iken sonsuza ulaştığı için sonlu zamanda bir tekilliği ifade edemez
- Polinom büyümesi (t^n) de sonlu zamanda sonsuza erişemez
- Hiperbolik fonksiyon x(t) = k/(t_s − t) + c, t→t_s iken paydanın 0 olması nedeniyle sonlu bir anda diverjans üretir
- Hiperbolik büyüme, büyümenin kendi büyümesini hızlandırdığı durumlarda ortaya çıkar: daha iyi AI → daha iyi AI araştırma araçları → daha iyi AI → süperdoğrusal pozitif geri besleme döngüsü
Fit metodolojisi
- Her gösterge j için bağımsız hiperbolik eğri y_i^(j) = k_j/(t_s − t_i) + c_j fit ediliyor, ancak tekillik zamanı t_s ortak tutuluyor
- Her seri kendi ölçeği k_j ve ofseti c_j ile geliyor; böylece MMLU skoru ile dolar başına token gibi y eksenleri farklı göstergeler bile t_s konusunda uzlaşabiliyor
- Toplam RSS en aza indirildiğinde en iyi t_s'nin sürekli sonsuza gitmesi gibi bir sorun var: uzaktaki hiperbolalar doğruya indirgenerek gürültülü veriye iyi uyuyor
- Alternatif olarak her seri için bağımsız R² zirvesi arayan bir grid search uygulanıyor
- Sonlu t_s değerinde R² zirve yapıyorsa gerçek hiperbolik sinyal var demektir
- R², t_s→∞ yönünde sürekli artıyorsa seri aslında doğrusaldır ve tekillik sinyali yoktur
- Sonuç: yalnızca arXiv "emergent" için belirgin bir R² zirvesi var; kalan 4 gösterge için doğrusal model daha uygun
Elde edilen tarih
- Öngörülen tekillik zamanı: 18 Temmuz 2034 Salı, 02:52:52.170 UTC
- n = 52 (5 seri), %95 güven aralığı: Ocak 2030~Ocak 2041 (132.4 ay genişlik)
- Seri bazında R² (ortak t_s ile): MMLU 0.747, token/$ 0.020, yayın aralığı 0.291, arXiv "emergent" 0.926, Copilot kod payı 1.000
- %95 güven aralığı, t_s için profil olasılığı (profile likelihood) üzerinden, F-kritik değeri esas alınarak çıkarıldı
Duyarlılık analizi
- Drop-One-Out analizi: herhangi bir gösterge çıkarıldığında t_s'nin ne kadar kaydığını ölçüyor
- MMLU, token/$, yayın aralığı veya Copilot kod payı ayrı ayrı çıkarıldığında t_s değişmiyor (+0.0 ay)
- arXiv "emergent" çıkarıldığında t_s Şubat 2036'ya kayıyor; 18.6 aylık bir oynama oluşuyor (arama sınırına itiliyor)
- Sonuç: tüm işi arXiv yapıyor; diğer seriler ortak t_s etrafında yalnızca bağlamsal eğriler sağlıyor
- Copilot için 2 veri noktasına karşı 2 parametre var; serbestlik derecesi 0, bu yüzden her hiperbola mükemmel uyuyor ve t_s'yi etkilemiyor
t_s gerçekte ne anlama geliyor
- arXiv makale sayısının sonsuza gitmesi, 2034'te bir Salı günü sonsuz sayıda makale yayımlanacağı anlamına gelmiyor
- t_s, mevcut yörüngenin eğriliğinin artık sürdürülemeyeceği nokta; yani ya niteliksel olarak yeni bir şeye sıçranacak ya da doyuma ulaşılıp hiperbolik modelin yanlış olduğu kanıtlanacak bir faz geçişi işareti
- Buradaki temel ve rahatsız edici gerçek şu: gerçekten hiperbolik giden şey, makine yeteneği değil insan ilgisi
- MMLU, token/$, yayın aralığı gibi gerçek yetenek ve altyapı göstergelerinin tamamı doğrusal ve uç noktadan yoksun
- Sonlu bir tarihe işaret eden tek eğri, araştırmacıların yeni davranışlar keşfedip adlandırma sıklığı; yani "memetik olarak ölçülen akademik heyecan"
- Verinin vardığı sonuç: makineler sabit bir hızla iyileşiyor, insanlar ise buna dair giderek hızlanan bir tempoyla ivmelenip heyecanlanıyor
Toplumsal tekillik: zaten sürmekte olan olgu
- Eğer t_s, AI karşısındaki şaşkınlık hızının insanın bunu işleme kapasitesini aştığı an ise, ilginç soru makinelerin değil insanların başına ne geldiği
- İşgücü piyasasında sert kırılma: 2025'te 1.1 milyon işten çıkarma ilan edildi (1993'ten bu yana bu eşiğin aşıldığı 6. yıl); bunların 55,000'den fazlasında neden olarak açıkça AI gösterildi
- HBR bulgusu: şirketler, AI'nın fiili performansına değil potansiyeline bakarak iş gücünü azaltıyor
- Eğrinin uç noktaya ulaşması gerekmiyor; ulaşacakmış gibi görünmesi bile proaktif yeniden yapılanmayı tetikliyor
- Kurumsal yanıtın başarısızlığı: AB AI Act kapsamındaki yüksek risk kuralları 2027'ye ertelendi; ABD, 2023 tarihli AI yürütme emrini Ocak 2025'te kaldırdıktan sonra Aralık'ta eyalet yasalarını bastırmaya dönük yeni bir emir yayımladı; California ve Colorado ise ayrı çizgi izliyor
- Şu anda yazılan yasalar 2023'ün sorunlarını düzenliyor; mevzuat GPT-4'ü yakaladığında sıra çoktan GPT-7'ye gelmiş olacak
- Devletin görünür yetersizliği güveni aşındırmıyor, çökertiyor; AI'ya küresel güven %56'ya düştü
- Dot-com düzeyinde sermaye yoğunlaşması: S&P 500'de ilk 10 hisse (çoğu AI bağlantılı) 2025'te endeks ağırlığının %40.7'sine ulaştı ve dot-com zirvesini aştı
- ChatGPT'nin çıkışından beri AI bağlantılı hisseler, S&P 500 getirisinin %75'ini, kâr büyümesinin %80'ini ve sermaye harcaması büyümesinin %90'ını oluşturdu
- Shiller CAPE 39.4; bu seviye en son 1999'da görülmüştü
- Psikolojik etki: terapistler FOBO (Fear of Becoming Obsolete / Demode Olma Korkusu) vakalarında patlama bildirdi; hastalar bunu "evrenin 'artık sana ihtiyaç yok' dediği" şeklinde ifade ediyor
- ABD'li çalışanların %60'ı, AI'nın yarattığından daha fazla işi ortadan kaldırmasını bekliyor
- AI kullanımında yıllık bazda %13 artış varken AI'ya güven %18 düştü: kullandıkça güven azalıyor
- Epistemik çatlak: AI araştırmalarının üçte birinden azı yeniden üretilebilir, araştırmacıların %5'inden azı kod paylaşıyor ve şirket laboratuvarlarının yayın üretimi azalıyor
- Frontier laboratuvarlarla kamunun bilgisi arasındaki uçurum büyüyor; politika yapıcılar zaten eskimiş bilgiyle hareket ediyor
- Mecliste ifade veren uzmanlar birbirini çürütüyor: alan, uzmanlığın oluşma hızından daha hızlı hareket ediyor
- Siyasal yeniden hizalanma: TIME popülist AI tepkisini, Foreign Affairs ise "öfke ekonomisinin popülizmi güçlendireceğini", HuffPost da AI'nın 2026 ara seçimlerini belirleyeceğini yazıyor
- MAGA, AI'nın şirket yanlısı mı yoksa emek karşıtı mı olduğu konusunda bölünmüş; Sanders ise veri merkezleri için moratoryum öneriyor
- Mevcut sağ-sol ekseni bu sorunun ağırlığını taşıyamıyor ve çözülüyor
- Bunların hepsi t_s'den 8 yıl önce yaşanıyor: toplumsal tekillik teknik tekillikten önce geliyor ve kurumsal/psikolojik kaos, yeteneklerin dikey sıçramasını beklemeden, yalnızca yörüngenin fark edilmesiyle başlıyor
Uyarılar (Caveats)
- Tarih tek bir seriden türetiliyor: gerçek hiperbolik eğriliğe yalnızca arXiv "emergent" sahip; diğer 4 seri için doğru daha uygun
- Tekillik tarihinin asıl anlamı, "AI emergence araştırmasının dikey sıçrama anı" ve buradaki kilit soru, akademik heyecanın öncü mü yoksa gecikmeli gösterge mi olduğu
- Model durağanlık (stationarity) varsayıyor: eğriler sonunda lojistik hale gelebilir (hype doygunluğu) ya da modelin ifade edemediği başka biçimlere kırılabilir (gerçek faz geçişi); t_s, şimdiki rejimin sürdürülemez noktasıdır, sonrasını tahmin etmez
- MMLU tavan etkisi: benchmark doygunluğundan kaynaklanan sivrilik sıkışması artefaktı; düşük R² bunu yansıtıyor
- Token/$ log dönüşümlü ve tekdüze değil: GPT-4, 3.5'tan daha pahalıydı; Opus 4.5 da DeepSeek-R1'den daha maliyetliydi; maliyet eğrisi pürüzsüz değil, Pareto iyileşmesi ile yüksek maliyetli modeller iç içe
- 5 gösterge yeterli değil: SWE-bench, ARC, GPQA, satın alınan compute miktarı, yetenek maaşları vb. eklenirse arXiv bağımlılığı azalabilir; 5 göstergenin seçilme nedeni ise sadece "masaya sığmaları"
- Copilot'un yalnızca 2 veri noktası var: serbestlik derecesi 0, bu yüzden t_s'ye katkı vermiyor
Sonuç
- Gerçek veri ve matematiksel modelle tek ve net bir tekillik zamanı türetiliyor
- Ancak bu tekillik, makinelerin süperzekâya ulaşması değil, insan toplumunun dikkat çöküşü anlamına geliyor
- Matematiğin bulduğu şey şu: belirli bir milisaniyede uç noktaya koşan tek bir gösterge var; o da insanların ortaya çıkan AI davranışlarını keşfetme hızı
- Kalan 4 gösterge doğrusal: makineler istikrarlı biçimde iyileşiyor, hızlanan ise insanlar
- Emek, kurumlar, sermaye, bilgi ve siyaset dahil her alanda toplumsal tekillik zaten yaşanıyor
- Teknik tekillikten önce, insanların AI değişiminin hızını kaldıramadığı kolektif bir sınır noktası daha önce gelecek
- Verideki tekillik, insan ilgisinin tekilliği ve şimdiden temas ettiği her şey üzerinde çekim etkisi yaratıyor
- İnsanlık bu geri sayımın içine çoktan girdi
3 yorum
İlginç olan şu ki, OpenAI, Google ve Anthropic’in yeni modelleri gibi büyük duyurular genelde salı ve perşembe günleri yapılıyor.
Kore saatiyle çarşamba ve cuma sabah 2-3 civarında (Kaliforniya saatiyle sabah 10’da) duyurdukları için, gecenin bir yarısı uykunuz kaçarsa o saatlerde haberlere göz atın.
Hacker News görüşleri
Bu yazı gerçekten çok ilginçti. Yazar kendi modelini ve metodolojisini uzun uzun anlattıktan sonra sonunda asıl noktaya geliyor — önemli olan tekilliğin gerçekten gelip gelmeyeceğinden çok, kaç kişinin buna inanıp buna göre hareket ettiği
Bu yüzden ben de odağı teknik tartışmadan toplumsal tartışmaya kaydırdım. “Toplumun hayatta kalmayı ücretli emeğe bağlayan yapısını değiştirmeden insan emeğini ikame etmeye çalışmak çok kötü bir şey” görüşü çok daha fazla karşılık buluyor
Basit biçimi, “herkesin zaten kazanılmış olduğuna inanmasını sağlamak”; daha sofistike biçimi ise “herkesin, başkalarının da buna inandığına inanmasını sağlamak”. Sonunda insanlar bu inanca göre davranmaya başlıyor
LLM sadece bir istatistiksel tahmin motoru, ama bu süreçte emergent behavior, yani zeki davranış ortaya çıkabilir. Bunu henüz kesin olarak bilmiyoruz
Eğer tekillik gelmeyecekse insanların inancı çok önemli olur; ama gerçekten gelirse inanç neredeyse anlamsız hale gelir
Frank Herbert’in Dune eserinden bir alıntı yaparak, insanların düşünmeyi makinelere bırakmasının sonucunda başka insanların makineler üzerinden insanlara hükmetmeye başladığını söylüyor
Artık ne okuyacağımızı, ne yazacağımızı, ne de düşüneceğimizi; LLM her şeyi yaparsa bunun insanlığın sonu olacağını savunuyor
Ayrıca Poison Fountain projesinden söz ederek, web crawler’lara her gün ‘zehirli veri’ enjekte eden bir anti-AI silahını tanıtıyor. Katılım çağrısı yapıyor
R.A. Lafferty’nin 1965 tarihli kısa öyküsü 「Slow Tuesday Night」 tanıtılıyor.
Aşırı hızlı bir toplumu anlatan, 2600 kelimelik bir bilimkurgu metni; bir günün birkaç dakika içinde geçtiği bir dünyayı tasvir ediyor
“Tekillik, makinelerin süperzeki hale geldiği an değil; insanların makineler hakkında kolektif kararları tutarlı biçimde veremez hale geldiği andır” cümlesi alıntılanıp hayranlıkla karşılanıyor
Yazının içeriği ilginçti. 2025’te 1,1 milyon kişilik işten çıkarma duyuruldu ve bunların 55 bini gerekçe olarak AI’ı gösterdi. Ama bunlar AI’ın gerçek performansına değil, ‘olasılığına’ dayalı işten çıkarmalardı
Sonuçta AI sadece zaten bildiğimiz bir gerçeği, yani anlamsız ofis işinin fazlalığını görünür hale getirdi
“Zekâ patlamasını” basit bir modelle anlatan bir diferansiyel denklem tanıtılıyor
`dx/dt = x²` denkleminin çözümü `x = 1/(C - t)`; bu da büyüme hızının x’e orantılı olduğu üstel büyümeden daha sert bir artış gösteriyor.
Ancak gerçek dünyadaki kısıtlar (enerji, kaynak vb.) hesaba katıldığında sonuçta lojistik büyümeye benzer bir forma yakınsıyor
Tüm bunların video oyunları sayesinde mümkün olduğu hatırlatılıyor. GPU donanımındaki ilerleme olmasa LLM de olmazdı
Aslında AI, onlarca yıllık teknolojik birikimin sonucu — çipler, internet, açık kaynak, bulut, veri merkezleri, matematik ve fizik; hepsi kaçınılmaz biçimde tekilliğe doğru ilerleyen sürecin parçalarıydı
“2034’e kadar sorun yoksa ne güzel” diyerek yarı şaka bir rahatlama ifade ediliyor
Tekilliğin neden artık bilginin ikiye katlanması (knowledge doubling) kavramıyla tartışılmadığı sorgulanıyor
Buckminster Fuller’ın ‘Knowledge Doubling Curve’ü ile Ray Kurzweil’in ‘Law of Accelerating Returns’ü anılarak,
eskiden insan bilgisinin 100 yılda bir, sonra 25 yılda bir ikiye katlandığı; bugün ise bu hızın sonsuza yakınsadığı noktanın tekillik sayılması gerekmez mi diye soruluyor
“2038 Unix timestamp sorununu” yaşamayacak olmakla ilgili bir rahatlama dile getiriliyor
En iyimser tahminle bile daha 8 yıl var; zaman bol ama yapılacak iş de çok. Bir yenidoğanın ilkokul öğrencisi olmasına kadar geçen sürede hiçbir şey yapmadan yaşanmaz ki.