18 puan yazan GN⁺ 2026-02-11 | 3 yorum | WhatsApp'ta paylaş
  • AI ilerlemesini ölçen 5 gerçek gösterge üzerinden yapılan analizle Singularity'ye ulaşma zamanı milisaniye düzeyine kadar hesaplandığında 18 Temmuz 2034 Salı sonucu çıkıyor
  • MMLU skoru, dolar başına token sayısı, frontier model yayın aralığı, arXiv'de "emergent" makale sayısı, Copilot kod payı gibi 5 gösterge bağımsız olarak fit edildiğinde, gerçekten hiperbolik eğrilik gösteren tek göstergenin arXiv'de "emergent" makale sayısı olduğu görülüyor
  • Makine yetenek göstergelerinin tamamı doğrusal eğilim izliyor ve bir tekillik sinyali vermiyor; hızlanan tek şey, AI ortaya çıkış olgularına dair insan ilgisi ile heyecanı/endişesi
  • Daha 2026 itibarıyla büyük ölçekli işten çıkarmalar, kurumsal gecikme, sermaye yoğunlaşması, güven erozyonu ve siyasi yeniden hizalanma gibi alanlarda toplumsal tekillik teknik tekillikten önce geliyor
  • Tekilliğin özü, makinelerin süperzekaya ulaştığı an değil; insanların makineler hakkında tutarlı kolektif karar alma yetisini yitirdiği an

Veri: 5 AI ilerleme göstergesi

  • Yunanca anlamındaki "insani önem (anthropic significance)" ölçütüne göre seçilmiş 5 gösterge kullanılıyor (Anthropic şirketini ifade etmiyor)
  • MMLU skoru: Dil modelleri için SAT karşılığı sayılabilecek bir benchmark; GPT-3'ten (Haziran 2020, %43.9) Claude Opus 4.5'e (Kasım 2025, %90.8) kadar veriler dahil
  • Dolar başına çıktı token sayısı: zekanın maliyet çöküşünü ölçüyor; log dönüşümü uygulanmış ve GPT-3 davinci'den (16,667 token/$) Gemini 2.0 Flash'a (2,500,000 token/$) kadar 5 basamaklık bir aralığı kapsıyor
  • Frontier model yayın aralığı: "şok edici" anlar arasındaki daralan boşluk; GPT-3→ChatGPT (902 gün) ile Gemini 2.5 Pro→GPT-4.1 (20 gün) arasında keskin biçimde azalıyor
  • arXiv'de "emergent" makale sayısı: son 12 aylık döneme göre, akademik heyecanı memetik biçimde ölçen gösterge
  • Copilot kod payı: AI tarafından yazılan kod oranı
  • Her gösterge [0,1] aralığına normalize edildi; yayın aralıkları ters çevrildi (kısa oldukça değer yükseliyor), token/$ log dönüşümünden sonra normalize edildi ve her seri kendi ölçeğini korudu

Neden hiperbolik model

  • AI ekstrapolasyonlarının çoğunda kullanılan üstel fonksiyon f(t) = ae^(bt), yalnızca t→∞ iken sonsuza ulaştığı için sonlu zamanda bir tekilliği ifade edemez
  • Polinom büyümesi (t^n) de sonlu zamanda sonsuza erişemez
  • Hiperbolik fonksiyon x(t) = k/(t_s − t) + c, t→t_s iken paydanın 0 olması nedeniyle sonlu bir anda diverjans üretir
  • Hiperbolik büyüme, büyümenin kendi büyümesini hızlandırdığı durumlarda ortaya çıkar: daha iyi AI → daha iyi AI araştırma araçları → daha iyi AI → süperdoğrusal pozitif geri besleme döngüsü

Fit metodolojisi

  • Her gösterge j için bağımsız hiperbolik eğri y_i^(j) = k_j/(t_s − t_i) + c_j fit ediliyor, ancak tekillik zamanı t_s ortak tutuluyor
  • Her seri kendi ölçeği k_j ve ofseti c_j ile geliyor; böylece MMLU skoru ile dolar başına token gibi y eksenleri farklı göstergeler bile t_s konusunda uzlaşabiliyor
  • Toplam RSS en aza indirildiğinde en iyi t_s'nin sürekli sonsuza gitmesi gibi bir sorun var: uzaktaki hiperbolalar doğruya indirgenerek gürültülü veriye iyi uyuyor
  • Alternatif olarak her seri için bağımsız R² zirvesi arayan bir grid search uygulanıyor
    • Sonlu t_s değerinde R² zirve yapıyorsa gerçek hiperbolik sinyal var demektir
    • R², t_s→∞ yönünde sürekli artıyorsa seri aslında doğrusaldır ve tekillik sinyali yoktur
  • Sonuç: yalnızca arXiv "emergent" için belirgin bir R² zirvesi var; kalan 4 gösterge için doğrusal model daha uygun

Elde edilen tarih

  • Öngörülen tekillik zamanı: 18 Temmuz 2034 Salı, 02:52:52.170 UTC
  • n = 52 (5 seri), %95 güven aralığı: Ocak 2030~Ocak 2041 (132.4 ay genişlik)
  • Seri bazında R² (ortak t_s ile): MMLU 0.747, token/$ 0.020, yayın aralığı 0.291, arXiv "emergent" 0.926, Copilot kod payı 1.000
  • %95 güven aralığı, t_s için profil olasılığı (profile likelihood) üzerinden, F-kritik değeri esas alınarak çıkarıldı

Duyarlılık analizi

  • Drop-One-Out analizi: herhangi bir gösterge çıkarıldığında t_s'nin ne kadar kaydığını ölçüyor
  • MMLU, token/$, yayın aralığı veya Copilot kod payı ayrı ayrı çıkarıldığında t_s değişmiyor (+0.0 ay)
  • arXiv "emergent" çıkarıldığında t_s Şubat 2036'ya kayıyor; 18.6 aylık bir oynama oluşuyor (arama sınırına itiliyor)
  • Sonuç: tüm işi arXiv yapıyor; diğer seriler ortak t_s etrafında yalnızca bağlamsal eğriler sağlıyor
  • Copilot için 2 veri noktasına karşı 2 parametre var; serbestlik derecesi 0, bu yüzden her hiperbola mükemmel uyuyor ve t_s'yi etkilemiyor

t_s gerçekte ne anlama geliyor

  • arXiv makale sayısının sonsuza gitmesi, 2034'te bir Salı günü sonsuz sayıda makale yayımlanacağı anlamına gelmiyor
  • t_s, mevcut yörüngenin eğriliğinin artık sürdürülemeyeceği nokta; yani ya niteliksel olarak yeni bir şeye sıçranacak ya da doyuma ulaşılıp hiperbolik modelin yanlış olduğu kanıtlanacak bir faz geçişi işareti
  • Buradaki temel ve rahatsız edici gerçek şu: gerçekten hiperbolik giden şey, makine yeteneği değil insan ilgisi
  • MMLU, token/$, yayın aralığı gibi gerçek yetenek ve altyapı göstergelerinin tamamı doğrusal ve uç noktadan yoksun
  • Sonlu bir tarihe işaret eden tek eğri, araştırmacıların yeni davranışlar keşfedip adlandırma sıklığı; yani "memetik olarak ölçülen akademik heyecan"
  • Verinin vardığı sonuç: makineler sabit bir hızla iyileşiyor, insanlar ise buna dair giderek hızlanan bir tempoyla ivmelenip heyecanlanıyor

Toplumsal tekillik: zaten sürmekte olan olgu

  • Eğer t_s, AI karşısındaki şaşkınlık hızının insanın bunu işleme kapasitesini aştığı an ise, ilginç soru makinelerin değil insanların başına ne geldiği
  • İşgücü piyasasında sert kırılma: 2025'te 1.1 milyon işten çıkarma ilan edildi (1993'ten bu yana bu eşiğin aşıldığı 6. yıl); bunların 55,000'den fazlasında neden olarak açıkça AI gösterildi
    • HBR bulgusu: şirketler, AI'nın fiili performansına değil potansiyeline bakarak iş gücünü azaltıyor
    • Eğrinin uç noktaya ulaşması gerekmiyor; ulaşacakmış gibi görünmesi bile proaktif yeniden yapılanmayı tetikliyor
  • Kurumsal yanıtın başarısızlığı: AB AI Act kapsamındaki yüksek risk kuralları 2027'ye ertelendi; ABD, 2023 tarihli AI yürütme emrini Ocak 2025'te kaldırdıktan sonra Aralık'ta eyalet yasalarını bastırmaya dönük yeni bir emir yayımladı; California ve Colorado ise ayrı çizgi izliyor
    • Şu anda yazılan yasalar 2023'ün sorunlarını düzenliyor; mevzuat GPT-4'ü yakaladığında sıra çoktan GPT-7'ye gelmiş olacak
    • Devletin görünür yetersizliği güveni aşındırmıyor, çökertiyor; AI'ya küresel güven %56'ya düştü
  • Dot-com düzeyinde sermaye yoğunlaşması: S&P 500'de ilk 10 hisse (çoğu AI bağlantılı) 2025'te endeks ağırlığının %40.7'sine ulaştı ve dot-com zirvesini aştı
    • ChatGPT'nin çıkışından beri AI bağlantılı hisseler, S&P 500 getirisinin %75'ini, kâr büyümesinin %80'ini ve sermaye harcaması büyümesinin %90'ını oluşturdu
    • Shiller CAPE 39.4; bu seviye en son 1999'da görülmüştü
  • Psikolojik etki: terapistler FOBO (Fear of Becoming Obsolete / Demode Olma Korkusu) vakalarında patlama bildirdi; hastalar bunu "evrenin 'artık sana ihtiyaç yok' dediği" şeklinde ifade ediyor
    • ABD'li çalışanların %60'ı, AI'nın yarattığından daha fazla işi ortadan kaldırmasını bekliyor
    • AI kullanımında yıllık bazda %13 artış varken AI'ya güven %18 düştü: kullandıkça güven azalıyor
  • Epistemik çatlak: AI araştırmalarının üçte birinden azı yeniden üretilebilir, araştırmacıların %5'inden azı kod paylaşıyor ve şirket laboratuvarlarının yayın üretimi azalıyor
    • Frontier laboratuvarlarla kamunun bilgisi arasındaki uçurum büyüyor; politika yapıcılar zaten eskimiş bilgiyle hareket ediyor
    • Mecliste ifade veren uzmanlar birbirini çürütüyor: alan, uzmanlığın oluşma hızından daha hızlı hareket ediyor
  • Siyasal yeniden hizalanma: TIME popülist AI tepkisini, Foreign Affairs ise "öfke ekonomisinin popülizmi güçlendireceğini", HuffPost da AI'nın 2026 ara seçimlerini belirleyeceğini yazıyor
    • MAGA, AI'nın şirket yanlısı mı yoksa emek karşıtı mı olduğu konusunda bölünmüş; Sanders ise veri merkezleri için moratoryum öneriyor
    • Mevcut sağ-sol ekseni bu sorunun ağırlığını taşıyamıyor ve çözülüyor
  • Bunların hepsi t_s'den 8 yıl önce yaşanıyor: toplumsal tekillik teknik tekillikten önce geliyor ve kurumsal/psikolojik kaos, yeteneklerin dikey sıçramasını beklemeden, yalnızca yörüngenin fark edilmesiyle başlıyor

Uyarılar (Caveats)

  • Tarih tek bir seriden türetiliyor: gerçek hiperbolik eğriliğe yalnızca arXiv "emergent" sahip; diğer 4 seri için doğru daha uygun
    • Tekillik tarihinin asıl anlamı, "AI emergence araştırmasının dikey sıçrama anı" ve buradaki kilit soru, akademik heyecanın öncü mü yoksa gecikmeli gösterge mi olduğu
  • Model durağanlık (stationarity) varsayıyor: eğriler sonunda lojistik hale gelebilir (hype doygunluğu) ya da modelin ifade edemediği başka biçimlere kırılabilir (gerçek faz geçişi); t_s, şimdiki rejimin sürdürülemez noktasıdır, sonrasını tahmin etmez
  • MMLU tavan etkisi: benchmark doygunluğundan kaynaklanan sivrilik sıkışması artefaktı; düşük R² bunu yansıtıyor
  • Token/$ log dönüşümlü ve tekdüze değil: GPT-4, 3.5'tan daha pahalıydı; Opus 4.5 da DeepSeek-R1'den daha maliyetliydi; maliyet eğrisi pürüzsüz değil, Pareto iyileşmesi ile yüksek maliyetli modeller iç içe
  • 5 gösterge yeterli değil: SWE-bench, ARC, GPQA, satın alınan compute miktarı, yetenek maaşları vb. eklenirse arXiv bağımlılığı azalabilir; 5 göstergenin seçilme nedeni ise sadece "masaya sığmaları"
  • Copilot'un yalnızca 2 veri noktası var: serbestlik derecesi 0, bu yüzden t_s'ye katkı vermiyor

Sonuç

  • Gerçek veri ve matematiksel modelle tek ve net bir tekillik zamanı türetiliyor
    • Ancak bu tekillik, makinelerin süperzekâya ulaşması değil, insan toplumunun dikkat çöküşü anlamına geliyor
  • Matematiğin bulduğu şey şu: belirli bir milisaniyede uç noktaya koşan tek bir gösterge var; o da insanların ortaya çıkan AI davranışlarını keşfetme hızı
    • Kalan 4 gösterge doğrusal: makineler istikrarlı biçimde iyileşiyor, hızlanan ise insanlar
  • Emek, kurumlar, sermaye, bilgi ve siyaset dahil her alanda toplumsal tekillik zaten yaşanıyor
  • Teknik tekillikten önce, insanların AI değişiminin hızını kaldıramadığı kolektif bir sınır noktası daha önce gelecek
  • Verideki tekillik, insan ilgisinin tekilliği ve şimdiden temas ettiği her şey üzerinde çekim etkisi yaratıyor
    • İnsanlık bu geri sayımın içine çoktan girdi

3 yorum

 
mammal 2026-02-11

İlginç olan şu ki, OpenAI, Google ve Anthropic’in yeni modelleri gibi büyük duyurular genelde salı ve perşembe günleri yapılıyor.

Kore saatiyle çarşamba ve cuma sabah 2-3 civarında (Kaliforniya saatiyle sabah 10’da) duyurdukları için, gecenin bir yarısı uykunuz kaçarsa o saatlerde haberlere göz atın.

 
GN⁺ 2026-02-11
Hacker News görüşleri
  • Bu yazı gerçekten çok ilginçti. Yazar kendi modelini ve metodolojisini uzun uzun anlattıktan sonra sonunda asıl noktaya geliyor — önemli olan tekilliğin gerçekten gelip gelmeyeceğinden çok, kaç kişinin buna inanıp buna göre hareket ettiği
    Bu yüzden ben de odağı teknik tartışmadan toplumsal tartışmaya kaydırdım. “Toplumun hayatta kalmayı ücretli emeğe bağlayan yapısını değiştirmeden insan emeğini ikame etmeye çalışmak çok kötü bir şey” görüşü çok daha fazla karşılık buluyor

    • Sevdiğim bir kavram olan ‘epistemic takeover (epistemik ele geçirme)’ aklıma geliyor.
      Basit biçimi, “herkesin zaten kazanılmış olduğuna inanmasını sağlamak”; daha sofistike biçimi ise “herkesin, başkalarının da buna inandığına inanmasını sağlamak”. Sonunda insanlar bu inanca göre davranmaya başlıyor
    • “LLM’in gerçekte nasıl çalıştığını” açıklamanın, “insan sadece moleküller ve nöronlardan oluşur, dolayısıyla anlamı yoktur” demeye benzediğini düşünüyorum.
      LLM sadece bir istatistiksel tahmin motoru, ama bu süreçte emergent behavior, yani zeki davranış ortaya çıkabilir. Bunu henüz kesin olarak bilmiyoruz
    • “Emek ikamesinin toplumsal reformdan önce gerçekleşmesi kötüdür” iddiasına karşı çıkan da çok kişi var. Sorun şu ki bedelini onlar ödemiyor; onun yerine hisse opsiyonu alıyorlar
    • “Tekilliğin gerçekten gerçekleşip gerçekleşmediği önemli değil” iddiasına katılmıyorum.
      Eğer tekillik gelmeyecekse insanların inancı çok önemli olur; ama gerçekten gelirse inanç neredeyse anlamsız hale gelir
    • Bu tartışmalar 1980’lerde de vardı. Teknoloji sektörü, gerçek yetkinlikler ve bunların nüanslarıyla ilgilenen insanları yetiştirmeli; “ürün olmadan da başarılı olunabilir” tarzı kişisel gelişimvari takipçileri ise dışarı itmeli
  • Frank Herbert’in Dune eserinden bir alıntı yaparak, insanların düşünmeyi makinelere bırakmasının sonucunda başka insanların makineler üzerinden insanlara hükmetmeye başladığını söylüyor
    Artık ne okuyacağımızı, ne yazacağımızı, ne de düşüneceğimizi; LLM her şeyi yaparsa bunun insanlığın sonu olacağını savunuyor
    Ayrıca Poison Fountain projesinden söz ederek, web crawler’lara her gün ‘zehirli veri’ enjekte eden bir anti-AI silahını tanıtıyor. Katılım çağrısı yapıyor

    • LLM’in bende böyle bir etkisi olmuyor. Hatta onu daha çok güçlendirilmiş bir arama aracı gibi faydalı buluyorum
    • Herbert’in distopyasına karşı Iain Banks tarzı bir ütopya hayal ediyorum
    • Bir bilimkurgu yazarının sözlerini kehanet gibi almamak gerekir. Herbert sadece kendi dünyasında tekilliğin neden yaşanmadığını açıklamak için bir araç kuruyordu
    • “İnsanlığın sonu” defalarca kehanet edildi ama insanlık her seferinde değişerek hayatta kaldı. Bir sorunu ortadan kaldırınca sadece yeni bir sorun ortaya çıkıyor
  • R.A. Lafferty’nin 1965 tarihli kısa öyküsü 「Slow Tuesday Night」 tanıtılıyor.
    Aşırı hızlı bir toplumu anlatan, 2600 kelimelik bir bilimkurgu metni; bir günün birkaç dakika içinde geçtiği bir dünyayı tasvir ediyor

    • Bir filozofun yalnızca 7 dakikada bir felsefe kitabını tamamladığı sahne var; bu neredeyse LLM prompt ayarı gibi görünüyor. Kelimeleri karıştırma ve ‘kişilik imzası’ ekleme süreci, bugünkü AI yazımıyla benzeşiyor
  • “Tekillik, makinelerin süperzeki hale geldiği an değil; insanların makineler hakkında kolektif kararları tutarlı biçimde veremez hale geldiği andır” cümlesi alıntılanıp hayranlıkla karşılanıyor

    • O noktayı çoktan epey geride bıraktığımız hissi var
    • Üstelik Big Tech şirketlerinin düzenlemelerden kaçıp bürokrasiden daha hızlı hareket etme tavrı durumu daha da kötüleştiriyor
  • Yazının içeriği ilginçti. 2025’te 1,1 milyon kişilik işten çıkarma duyuruldu ve bunların 55 bini gerekçe olarak AI’ı gösterdi. Ama bunlar AI’ın gerçek performansına değil, ‘olasılığına’ dayalı işten çıkarmalardı
    Sonuçta AI sadece zaten bildiğimiz bir gerçeği, yani anlamsız ofis işinin fazlalığını görünür hale getirdi

    • 1993’ten bu yana 32 yıl içinde bu ölçekte işten çıkarma 6 kez yaşandı. Yani yaklaşık her 5 yılda bir oluyor; o kadar da tarihî bir durum değil
    • Bu sadece kısa vadeli performans için yaşanan ‘next quarter problem’ çizgisinin devamı. Tekel şirketler çalışanların yarısını azaltsa da müşteri kaybetmiyor
    • Orta kademe yöneticiliğin artmasının nedeni başka işlerin ortadan kalkmış olması. İnsanlar aç kalmamak için anlamsız bürokratik işleri bile seçiyor
    • DevOps’un DBA ve SysAdmin rollerini ortadan kaldıracağı düşünülüyordu ama tersine yeni bir sektör yarattı. “Anlamsız işler” hâlâ varlığını sürdürüyor
    • 1960’lara göre idari işlerin 3 kat artmış olması, nüfusun da 3 kat artmış olmasından kaynaklanıyor olabilir. Buna doğrudan anlamsız demek doğru değil
  • “Zekâ patlamasını” basit bir modelle anlatan bir diferansiyel denklem tanıtılıyor
    `dx/dt = x²` denkleminin çözümü `x = 1/(C - t)`; bu da büyüme hızının x’e orantılı olduğu üstel büyümeden daha sert bir artış gösteriyor.
    Ancak gerçek dünyadaki kısıtlar (enerji, kaynak vb.) hesaba katıldığında sonuçta lojistik büyümeye benzer bir forma yakınsıyor

    • Işık konisi (light cone) nedeniyle büyük ölçekli büyüme x³’ten hızlı olamaz; hatta gerçekte sınırın x² civarında olduğu düşünülüyor
    • “Tekillik tartışmasına mantık ve gerçeklik mi katıyorsun!” diye yarı şaka bir tepki veriliyor
  • Tüm bunların video oyunları sayesinde mümkün olduğu hatırlatılıyor. GPU donanımındaki ilerleme olmasa LLM de olmazdı
    Aslında AI, onlarca yıllık teknolojik birikimin sonucu — çipler, internet, açık kaynak, bulut, veri merkezleri, matematik ve fizik; hepsi kaçınılmaz biçimde tekilliğe doğru ilerleyen sürecin parçalarıydı

    • Ama bazıları, “NVIDIA olmasa da başka bir sektör lineer cebir işlemleri için donanımı geliştirirdi” diyerek şüpheyle yaklaşıyor
    • Bir başkası ise bunu “tamamen saçmalık” diye kestirip atıyor
  • “2034’e kadar sorun yoksa ne güzel” diyerek yarı şaka bir rahatlama ifade ediliyor

  • Tekilliğin neden artık bilginin ikiye katlanması (knowledge doubling) kavramıyla tartışılmadığı sorgulanıyor
    Buckminster Fuller’ın ‘Knowledge Doubling Curve’ü ile Ray Kurzweil’in ‘Law of Accelerating Returns’ü anılarak,
    eskiden insan bilgisinin 100 yılda bir, sonra 25 yılda bir ikiye katlandığı; bugün ise bu hızın sonsuza yakınsadığı noktanın tekillik sayılması gerekmez mi diye soruluyor

  • “2038 Unix timestamp sorununu” yaşamayacak olmakla ilgili bir rahatlama dile getiriliyor

    • 20 Ocak 2038’de drone sürülerinin gökten düştüğü ve insanlığın hayatta kaldığı kıyametvari kısa bir hikâye hayal ediliyor
    • Aslında bu tür kıyamet arzularının, kıyamete yönelen psikolojik bir itki olabileceği söyleniyor
    • 2020’lerin vibecoded yazılım bakımını yapmak zorunda kalmayacağız diye şaka yapılıyor
    • 1998’de bir ‘Y2038’ tişörtü almış olmanın anısı paylaşılıyor. O zaman çok uzak bir gelecek gibi geliyordu ama şimdi yalnızca 12 yıl kaldı
    • “Oh, makineler halleder herhalde” denilerek bir tür ferahlama ifade ediliyor
 
pencil6962 2026-02-11

En iyimser tahminle bile daha 8 yıl var; zaman bol ama yapılacak iş de çok. Bir yenidoğanın ilkokul öğrencisi olmasına kadar geçen sürede hiçbir şey yapmadan yaşanmaz ki.