1 puan yazan GN⁺ 2026-03-09 | 1 yorum | WhatsApp'ta paylaş
  • OpenAI, 2018 tarihli Tüzük(Charter) metninde, “başka bir güvenlik odaklı proje AGI’ye yaklaşırsa rekabeti durdurup iş birliği yapacağını” belirten bir ‘özveri maddesi’ açıkça ortaya koydu
  • Sam Altman’ın açıklamalarını özetleyen tabloya göre AGI’ye ulaşma için öngörülen tarih 2033’ten 2025’e keskin biçimde kısaldı; son dönemde ise “AGI’yi zaten yaptık” şeklinde ifadeler bile ortaya çıktı
  • Arena.ai model sıralamasında Anthropic’in Claude’u ve Google’ın Gemini’si üst sıralarda yer alırken, OpenAI’nin GPT-5.4 modeli 6. sırada kaldı
  • Yazı, bu durumun tüzükte belirtilen “2 yıl içinde başarı olasılığı yüzde 50’nin üzerinde olan bir rakip ortaya çıkarsa iş birliği” koşulunu karşıladığına işaret ediyor
  • Sonuç olarak OpenAI’nin tüzüğüne göre rekabeti durdurup iş birliği yapması gerekiyor; ancak pratikte bu durum, idealist ilkeler ile ekonomik teşviklerin çatışmasına örnek olarak sunuluyor

OpenAI tüzüğündeki özveri maddesi

  • OpenAI’nin 2018 tarihli tüzüğü, AGI geliştirme yarışının güvenliğe zarar verebileceği yönündeki kaygıyı içeriyor
    • “Değer uyumu ve güvenliği önemseyen bir proje AGI’ye yaklaşırsa rekabeti durdurup destek vereceğiz” ifadesi yer alıyor
    • “2 yıl içinde başarı olasılığı yüzde 50’nin üzerinde” olması, tipik tetiklenme koşulu olarak sunuluyor
  • Bu madde bugün de resmi sitede(openai.com/charter) yayımlanıyor ve halen şirketin resmi politikası olarak korunuyor

Sam Altman’ın AGI tahminlerindeki değişim

  • Tabloya göre Altman, 2023’ten 2026’ya kadar AGI’ye ulaşma zamanını sürekli öne çekti
    • 2023 Mayıs’ında “10 yıl içinde uzman seviyesini aşacak” derken,
    • 2024~2025 döneminde “2025’te AGI’ye ulaşılacak” ve hatta “AGI’yi zaten yaptık” şeklindeki ifadelere kadar ilerledi
  • 2025 sonrası tahminlerin medyanı yaklaşık 2 yılın içinde ve bu da tüzüğün tetiklenme koşuluyla örtüşüyor
  • Bazı röportajlarda “AGI’nin ötesine geçip ASI’ye(süper zekâ) doğru gidiyoruz” ifadesi de yer alıyor

Arena.ai model sıralaması karşılaştırması

  • Arena.ai lider tablosundaki ilk 10 model arasında Anthropic’in Claude-opus-4-6 modeli 1., Google’ın Gemini 3.1 modeli ise 3. sırada
  • OpenAI’nin GPT-5.4-high modeli 6. sırada yer alıyor ve rakip modellerden daha düşük değerlendirme alıyor
  • Yazı, Anthropic ve Google modellerinin ‘güvenlik odaklı ve değer uyumlu’ olduğunu belirtiyor ve bunları GPT ile uyumlu ikameler olarak görüyor

Rekabeti durdurma koşulu karşılanıyor mu?

  • AGI geliştirme zaman çizelgesi 2 yılın içine daralırken ve rakip modeller öndeyken, tüzükteki “rekabeti durdurma ve iş birliği” koşulunun karşılandığı değerlendirmesi yapılıyor
  • Arena.ai’nin AGI’yi ölçmek için uygun olup olmadığı tartışmalı olsa da, tüzüğün ruhu ‘silahlanma yarışından kaçınmak’ üzerine kurulu
  • Bu nedenle sonuç, OpenAI’nin Anthropic ve Google ile iş birliği yapması gerektiği yönünde

İdealizm ile gerçeklik arasındaki uçurum

  • Yazı, OpenAI’nin gerçekte rekabeti bırakmasının pek olası olmadığını açıkça belirtiyor
  • Bu örnek, idealist ilkelerin ekonomik teşvikler karşısında etkisiz kalabildiği gerçeğini gösteriyor
  • Ayrıca AGI’nin tanımının ve hedef tarihinin sürekli değiştiğine, son dönemde ise odağın ASI tartışmalarına kaydığına dikkat çekiyor

1 yorum

 
GN⁺ 2026-03-09
Hacker News yorumları
  • Bu başlıkta herkes sadece tanım kavgası yapıyor.
    Asıl önemli olan ekonomik eşik — insan destekli otomasyondan tam otonom çıktıya geçişin ne zaman olacağı.
    Bugünkü AI prodüksiyon ortamına bakınca, inceleme, düzeltme ve denetim hâlâ insanlarda. AI hacmi işliyor, insanlar ise muhakemeyi üstleniyor. Sonuçta muhakeme darboğaz olmaya devam ediyor.
    Emek ortadan kalkmadı, sadece yer değiştirdi. Küresel emek karşılığı ödemeler yıllık yaklaşık 50 trilyon dolar ve sermaye piyasaları, AI'ın bunun kayda değer bir kısmını gerçekten emip ememeyeceğine oynuyor. AGI etiketi önemli değil — sermaye, tanımlarla değil emeğin çıktıdan ayrılıp ayrılmadığıyla ilgileniyor.

  • “AGI”, “ASI” gibi ifadeleri ne zaman görsem, kafamda onları “kimsenin düzgün tanımlayamadığı bir şey” diye değiştiriyorum.
    Yani tanımı eksik olduğu için hakkında sonuca varılamayan bir kavram. O yüzden zihnimde bunu “skiptibuf” gibi bir sesle değiştiriyorum.

    • Ben artık “AI” kelimesini neredeyse hiç kullanmıyorum. Bugünün LLM veya üretken teknolojilerini böyle adlandırmak bana göre fazla muğlak ve sorunu örten bir ifade.
    • OpenAI tüzüğünde AGI, “ekonomik açıdan değerli işlerin çoğunda insanları geride bırakan, yüksek derecede otonom sistemler” olarak tanımlanıyor.
    • Sorun şu ki kimse terimleri tanımlamıyor.
      AGI'yi “belirli bir göreve değil, genel kullanıma yönelik AI” diye tanımlarsan zaten var.
      “Her görevde insan düzeyinde zekâ” dersen, o zaman bazı insanlar AGI sayılmaz.
      “Her şeyi kusursuz yapan sihirli algoritma” dersen, muhtemelen öyle bir şey yok.
      AGI terimi ilk ortaya çıktığında herhalde HAL 9000 benzeri bir şeyi kastediyordu, ama artık bu hedefin sürekli kaydığı bir oyun hâline geldi.
    • Ben buna “romantik tanım” ya da “jestsel kavram” diyorum. Kişisel kullanım veya ekip içi kullanım için idare eder ama sonuçta sadece sözcük dağarcığını netleştirmek için geçici bir ifade.
    • Bunu “AI'ın enskibidification'ı” diye de özetleyebiliriz — yani kavram giderek karikatürleşiyor.
  • Ticari ürünleştirmeye tam gaz girildiği anda sonuç zaten belli olmuştu.
    Bugünün LLM'leri şimdiden tehlikeli biçimde kullanılıyor ve bu tür haberler ilgi çekmeye devam ederse OpenAI tüzüğünü sessizce sitesinden kaldırır.

  • Mevcut modeller AGI'den hâlâ çok uzak.
    Bir sonraki token tahmini inanılmaz ilerledi ama ortada hâlâ gerçek bir dünya modeli ya da gerçek öğrenme yeteneği yok.
    İnsan denetimi olmadan sınırlar çok net.

    • “12 ay içinde yazılım mühendisleri ortadan kalkacak” lafının üzerinden kaç ay geçtiğini bile hatırlamıyorum.
    • Mekanik yorumlanabilirlik (mechanistic interpretability) araştırmalarının sonuçlarına bakınca, “dünya modeli yok” iddiası artık bana pek ikna edici gelmiyor.
  • “Saf idealizmin güçsüzlüğü” denmişti ama ben bunu daha çok idealizmin dilini pazarlama aracı olarak ödünç almak şeklinde görüyorum.
    Gerçekte giderek asıl yüzünü gösteren kâr odaklı bir organizasyondu.

    • Başta samimi olduklarına inanıyordum. Ama bence Altman açgözlülüğe kapılıp o ideallere ihanet etti.
  • AGI önümüzdeki 30 yıl içinde gelmeyecek.
    Araştırmacılar da bunu söylüyor.
    Gerçek AGI için sürekli öğrenme ve derin bellek gerekir, LLM'ler ise bunu yapamıyor.
    Şu anki “bellek” sadece arama ve özetleme işlevi — sanki bir kişi fizik dersini dinleyip her şeyi post-it'lere yazıyor, sonra başka biri bunlara göz atıp cevap veriyor gibi.
    RL ve yeniden eğitim gerekiyor ama bu fazla pahalı, yavaş ve karmaşık.
    LLM'ler harika kod da yazıyor ama “X klasöründeki dosyaları silme” desen bile sonunda siliyor.
    Saldırganın belge içine eklediği komutlara da aynen uyuyor.
    Gerçek bellek ve gerçek zamanlı RL olmadan bu sorunlar çözülmez.

    • Bu post-it benzetmesi, LLM'nin doğasını en iyi anlatan şey. İkinci kişi mükemmel notlar alsa bile derin anlayış hâlâ eksik.
    • “30 yıl içinde olmaz” iddiası için hangi araştırmacıların söylendiğini merak ediyorum.
      Daniel Kokotajlo'nun tweet'i, Karpathy'nin açıklaması ve AI araştırmacıları anketi çok daha kısa tahminler de içeriyor.
    • Bir psikiyatrist olarak LLM'leri anterograd amnezi hastalarına benzetiyorum.
      Sohbet sırasında zekiler ama seans bittiğinde her şeyi unutuyorlar.
      Hatta seans sırasında bile performans düşüyor — uzun bağlam bazen faydadan çok zarar veriyor.
      Sonuçta sınır, bellek mimarisinin yokluğu. İnsanlar bunu uzun süreli bellek ve uyku sayesinde çözdü ama LLM'ler çözemedi.
      Ne kadar zeki olursa olsun, hafızasız bir dahi ancak kısa vadeli bir savant olur.
    • “Post-it benzetmesi”nin yanlış olduğunu düşünüyorum.
      LLM'ler binlerce sayfayı anında kopyalayıp yeniden düzenleyebiliyor.
      Zaten test zamanı RL ve LoRA tabanlı sürekli öğrenme üzerinde çalışılıyor; bazı tanımlara göre AGI zaten elde edilmiş sayılır.
      Sorun sadece ekonomik olmaması.
      Ayrıca programcı işleri yok olmak yerine, hesaplamalı düşünme becerisine sahip insanlara daha çok ihtiyaç duyulacak.
    • “30 yıl içinde olmaz” görüşüne katılıyorum ama gerekçesini daha ayrıntılı duymak isterim.
  • Kişisel deneyimim şu: Son dönemde GPT 5.4, Opus 4.6'dan daha iyiydi.
    Ama Chatbot Arena sıralamasında daha aşağıda görünmesi ilginç.

    • Chatbot Arena'ya güvenmek zor.
      Genel kullanıcı oylarına dayanıyor, bu yüzden uzmanlık doğrulaması zayıf ve büyük şirketler sıralamayı manipüle de ediyor.
      En yeni modelleri karşılaştırırken çok anlamlı değil.
    • Benim deneyimim tam tersi.
      Aynı prompt verildiğinde GPT 5.4 gereksiz refactor'lar ve bug'lar üretti, Opus 4.6 ise mevcutta uygulanmış işlevleri fark edip test ve dokümantasyon güncellemesi önerdi.
      Bence Opus 4.6 hâlâ en iyi kodlama ajanı.
  • “2026 Eylül'de otomatikleştirilmiş AI araştırma stajyeri, 2028 Mart'ta ise tam teşekküllü AI araştırmacısı” tahmini ilginç.
    Bu, Karpathy'nin Autoresearch projesinin HN'de üst sıralara çıktığı döneme de denk geliyor.
    Muhtemelen büyük laboratuvarlar bunun çok daha büyük ölçekli sürümlerini şimdiden deniyordur.

  • “Saf idealizmin güçsüzlüğü” ve AGI'nin sürekli değişen hedef çizgisi tespitine katılıyorum.
    Son zamanlarda AGI yerine daha çok ASI deniyor; sanki AGI'ye zaten ulaşılmış olabileceği ima ediliyor.

  • Şaka gibi geliyor ama kimse gerçek AGI'ye gerçekten yaklaşmış değil.
    Altman'ın kendisi bile AGI'ye ulaşmak için birden fazla ara aşama niteliğinde atılım gerektiğini kabul ediyor.
    2026 civarında AI'ın mevcut bilgiyi yeniden birleştirmenin ötesine geçip yeni içgörüler üreteceğini öngörmüştü; bence AGI eşiği tam da orası.

    • Ama ben zaten AGI'nin aşıldığını düşünüyorum.
      Bugünkü LLM'lerin ortalama bir insandan ortalama olarak daha yetkin olduğunu düşünüyorum.