5 puan yazan GN⁺ 2025-10-19 | 1 yorum | WhatsApp'ta paylaş
  • OpenAI, önümüzdeki 12 ay içinde 400 milyar dolardan fazla fon toplamak zorunda kalacağı durumla karşı karşıya
  • Bu rakam, büyük ölçekli veri merkezi inşaatı, yapay zeka çip anlaşmaları, işgücü ve operasyonel giderler gibi masraflar dahil olmak üzere genişleme planlarını karşılamak için öngörülüyor
  • Tek bir veri merkezi kurulumunun maliyeti yalnızca 5 milyar ila 60 milyar dolar olarak tahmin edilirken, OpenAI 2029’a kadar 33 GW, 2033’e kadar 250 GW kapasite hedefliyor
  • Bu genişleme hızı ve ölçeği, küresel finans ve altyapı sınırlarını aşarak uygulanmasının neredeyse imkânsız hale gelmesine neden oluyor
  • Planlar bu şekilde ilerlerse OpenAI, dünya çapındaki sermaye piyasalarını ciddi biçimde zorlar ve yatırımcılar ile sektör genelinde yüksek riskler yaratır

Genel Bakış

  • OpenAI, önümüzdeki dönemdeki devasa veri merkezi inşaatı ve çip anlaşmaları, bakım maliyetleri gibi iddialı planları için öncekinden farklı, çok yüksek bir hızda fon toplamalı
    • Yalnızca gelecek yıl içinde en az 400 milyar dolar gerekecek; bu durum OpenAI’ye ek olarak küresel finans sisteminin tamamına da önemli bir yük anlamına geliyor
  • Son dönemde bildirilen 10 GW seviyesinde özel çip iş birliği ve çok sayıda GW dağıtım taahhüdünün “makul ve uygulanabilir” olduğunu gösteren akışa itiraz var
    • 1 GW kurulum maliyetini 50 milyar dolar olarak güncellemek ve bina, enerji altyapısı, ağ bağlantısı dâhil olmak üzere toplam maliyeti hesaba katmak gerekiyor
    • Bu nedenle en az 2,5 yıllık bir ön hazırlık süresiyle birlikte yedek güç kapasitesi düşünülürse takvim açısından bunun uygulanması neredeyse imkânsız olur
  • Geçmişteki 325 milyar dolarlık/GW tahmini, bugün 500 milyar dolarlık/GW olarak neden artırılmış? Makale bunu çip fiyatları, ağ bağdaştırması, yardımcı altyapı ve üçüncü taraf paylarının eksik sayılmasından kaynaklanan düzeltmeye bağlıyor
    • Örnek olarak GB200/Blackwell birim fiyatları ve adet varsayımları, Lancium tedariki, 8 ünite/50.000 GPU ölçeği gibi artış kalemleri gösteriliyor

2026’nın İkinci Yarısı Zaman Çizelgesi Kontrolü

  • Broadcom: 2026’nın ikinci yarısında çıkarım odaklı çip “tape-out”, seri üretim ve 1 GW dağıtım hedefi
    • Yer seçimi belirsiz ve inşaat başlamadan, ayrıca IT başına toplam güç gereksiniminin 1.2–1.3 GW olması nedeniyle takvimde büyük çakışma riski var
  • AMD: 2026’nın ikinci yarısında MI450 1 GW ilk dağıtım planı
    • Bu noktayı yakalamak için bir önceki yılda tedarik, enerji anlaşmaları ve inşaat başlangıcının tamamlanması gerekir
  • NVIDIA: 2026’nın ikinci yarısında Vera Rubin 1 GW dağıtım planı
    • Benzer şekilde site, güç ve inşaat çalışmaları zaten devam ediyor olmalı
  • İhtiyatlı bir senaryo bile 100 milyar doların üzerinde gereksinim gösteriyor; bu da önceden nakit harcaması veya büyük konsorsiyum gereğini doğuruyor

Talep, Trafik ve Kapasite İddialarına İlişkin Şüpheler

  • Haftalık 800 milyon MAU verisinin çakışma ihtimali ve 2033 için 250 GW ile 10 trilyon dolarlık plan, gerçekçi bulunmuyor
    • 2024 için dünya genelindeki veri merkezi IT yükünün 55 GW olduğu tahminini düşünürsek, tek bir şirketin 8 yılda 5 kat artış sağlaması geçmişte görülmemiş bir durum olur
  • Ürün gücü açısından, son dönemdeki GPT-4.5, GPT-5 ve Sora 2 performans düşüklüğü ve kısıtları göz önüne alındığında, devasa AR-GE harcaması karşıtı ürün çıktı oranı soru işaretleri doğuruyor
    • 2024-2025 AR-GE harcamalarının 11–12 milyar doları içinde, aktif kullanılan model eğitim maliyetlerinin sınırlı kaldığına dair dış analizlere atıf yapılıyor

Önümüzdeki 12 Ayda Gerekli Fon Kalemleri (Yazar Tahmini)

  • Broadcom için 1 GW: yaklaşık 50 milyar dolar
  • NVIDIA için 1 GW + çip alımı: yaklaşık 50 milyar dolar
  • 2026 compute maliyeti (Oracle·CoreWeave·Azure·GCP üzerinden): yaklaşık 40 milyar dolar
  • AMD için 1 GW + çip alımı: yaklaşık 50 milyar dolar
  • Tüketici cihaz geliştirme: yaklaşık 0,5 milyar dolar
  • ARM tabanlı CPU tasarım iş birliği: yaklaşık 1 milyar dolar
  • Satış, pazarlama, maaşlar ve diğer OPEX düzeltmeleri: yaklaşık 10 milyar dolar
    • Toplam 391,5 milyar dolar ≈ 400 milyar dolar, 2026 Şubat’tan önce büyük ölçekli nakit ihtiyacı

Finansal Kısıtlar ve Yapısal Riskler

  • 2025’in ilk yarısı için 6,7 milyar dolar AR-GE ve 2 milyar dolar satış-gelişme giderleri (S&M) harcaması bağlamında nakit çıkışı sürekli artıyor
    • 2026’nın ilk yarısında 9,2 milyar dolar compute harcaması, 4,3 milyar dolarlık gelir düzeyindeki bir ters marj yapısı öngörülüyor
  • kâr amacı gütmezden kâra geçiş son tarihi ve SoftBank’ın 20 milyar dolarlık koşullu taahhütleri gibi yönetim ve sözleşmesel kilometre taşı riskleri de mevcut
    • 2024’teki 6,6 milyar dolarlık turun 2026 Ekim’inde borç dönüşümü koşulu da önemli bir yük

Oracle, CoreWeave vb. Altyapı Anlaşmalarının Gerçekçiliği

  • Oracle’ın 5 yıllık 300 milyar dolarlık anlaşmasının yerine getirilmesi için 4,5 GW IT kapasitesi gerekiyor
    • Stargate Abilene şu anda sadece 200 MW güç sağlayabiliyor; yedek güç de hesaba katılırsa IT tarafı 130 MW seviyesine düşüyor
    • Shackelford 1.4 GW bölgesi inşaat başlangıç aşamasında, ilk ünite 2026’nın ikinci yarısı hedefliyken tam kapasite çalışması 2027 sonrası için düzeltilmeli
  • CoreWeave’nin 2025 sonu için en fazla 900 MW değerinden bahsedildiği düşünülürse, “2025’te 2 GW çalıştırma” iddiasıyla ciddi bir fark ortaya çıkıyor

Sermaye Piyasası, Tedarik Zinciri ve Elektrik Şebekesi Kısıtları

  • Gerekli fon, 2024 küresel VC hacmi olan 368 milyar doları aşıyor; bu da özel sermaye işlemleri ve küresel ticaret karşılaştırmalarıyla da emilim sınırlığını netleştiriyor
  • Transformatör, elektrik çelikleri, HV altyapısı, soğutma, güç sistemleri yedek oranı ve nitelikli iş gücü gibi alanlarda eş zamanlı darboğazlar var; dolayısıyla takvimde çakışmalar kaçınılmaz
  • Bu tür ilan ve ilanlar, büyük ölçüde hisse ve işlem odaklı bir anlatı niteliğinde ve uygulanabilirliği düşük görünüyor

Sonuç

  • Zaman, finansman, kaynak, regülasyon ve güç alanlarında çok yönlü gerçekçi kısıtlar nedeniyle 2026’ya kadar yapılan kamuye açıklanan takvimin başarıyla tamamlanması son derece zor
  • Önümüzdeki 12 ayda 400 milyar dolar toplama hedefi, dünya genelindeki sermaye piyasasının emilim gücü açısından da sınırlı olup, yerine getirilmediğinde güven riski artabilir
  • Öz, abartılmış kapasite vaatleri, talep, ürün gücü ve nakit akışı arasındaki tutarsızlıktan kaynaklanıyor; bu nedenle planların gerçeğe çekilmesi, yönetişim düzeltmesi ve finansman yapısının yeniden tasarımı olmadan sürdürülebilir olmayacağı yönünde bir uyarı yapıyor

1 yorum

 
GN⁺ 2025-10-19
Hacker News görüşleri
  • OpenAI’nin büyüme oranı etkileyici görünse bile, iki ayda 100 milyon kullanıcı artmış olması dünyadaki tüm insanların bu hizmeti sürekli kullanacağı anlamına gelmiyor diyen bir bakış açısı var. Tersinden bakınca, bu kadar hızlı artış tüm insanlığın bunu sürekli kullanabilecek bir potansiyele sahip olduğunu da düşündürebilir. Yine de büyüme eğrisinin S şeklini çizebileceği, yani sonsuza kadar geometrik büyümenin sürmeyeceği unutulmamalı

    • İki ayda 100 milyon kullanıcı artmış olması, tüm insanlığın buna her zaman ihtiyaç duyacağı sonucunu doğurmaz. Popülerlik ile fayda aynı şey değildir. LLM kullanımındaki artışın üretkenlik gibi göstergeler üzerindeki etkisine dair veriler daha ikna edici olurdu. Hatta bazı çalışmalar uzman mesleklerde üretkenlik düşüşü gösterdi. İlgili araştırma

    • Ben de ancak yakın zamanda ChatGPT’yi arama alternatifi olarak ve ufak tefek işler için kullanmaya başladım. Bugünlerde geleneksel arama o kadar kötü ki, durum formu belirsiz bir boksörün 70 yaşındaki bir şampiyonla dövüşmesine benziyor. Bu bir gün dizüstü bilgisayarımda çalışırsa gerçekten kullanışlı bir araç olabilir gibi geliyor

    • OpenAI’nin darboğazı önce GPU’dan enerjiye kaydı. Bir sonraki darboğaz ise “biyolojik insan” olabilir. Hatta OpenAI’nin büyüme oranını korumak için daha fazla insan üretmenin yolunu da bulacağına dair şakalar yapılıyor

    • Uzun vadede tarayıcı, OS, akıllı telefon, kelime işlemci gibi çok geniş ürün yelpazesine yeterince iyi AI gömülürse, kitlelere yönelik bağımsız AI pazarı ciddi biçimde küçülebilir. Uzman araçlar, en yeni araştırmalar ve kodlama araçları talep görmeye devam eder ama bununla trilyon dolarlık bir şirket yaratmak zor görünüyor

    • Gerçekte ayda $20 ödeyip abone olanların oranı yaklaşık %5. VR ve AR gibi, bedavaysa ara sıra kullanılıyor ama doğrudan para ödeyecek kadar gerekli değil. Bence LLM artık metalaştı

  • Yazı ilginçti ama aslında OpenAI ya da Anthropic için en büyük tehdit açık kaynak modeller. deepseek, llama 3 gibi modeller çok hızlı yaklaşıyor; neredeyse benzer işlevleri çok daha az paraya ya da kendi GPU’mda ücretsiz kullanabiliyorsam, OpenAI’nin öne sürdüğü değer tam olarak ne diye sorguluyorum. Ben de şahsen OpenAI’ye ücretli aboneyim ama esasen rahatlık için; matematik doğrulama gibi işlerde de fena değil. Fiyat seviyesine bakınca gerçekten şirketler için vazgeçilmez bir hizmete dönüşüp dönüşmeyeceğinden emin değilim. Tabii OpenAI en iyi yetenekleri topluyor ve yatırım alıyor, dolayısıyla ben de yanılıyor olabilirim

    • deepseek ve llama 3 gibi açık kaynak seçeneklerin hızla yetiştiği söyleniyor ama büyük modelleri eğitmek inanılmaz pahalı ve bugün açık kaynak diye yayımlanan şeyler de aslında kâr amaçlı şirketlerin açık kaynak ekosistemi uğruna zararı göze alması sayesinde mümkün oluyor. Bu şirketler kâr odaklı davranıp “merdiveni çekerse” ne yapılabilir merak ediyorum

    • Yazarın vermek istediği asıl mesaj, gerçek sayılara bakıp durumu ayakları yere basan şekilde değerlendirmek gerektiği. Veri merkezi inşa edip işletecek insanları bulmak bile ciddi zaman alıyor. Yazıda öne sürülen takvimin gerçekçi olmadığı savunuluyor

    • Kısa sürede çok para harcanıyor ama gerçek talebin tam olarak nereden geleceği ve “llama’yı kendi GPU’mda çalıştırıyorum” türü self-servis modelin gelire ne kadar katkı sağladığı belirsiz. Bir şeyler tam oturmuyor

    • Kendi GPU’mda deepseek, kimi ya da glm’i hızlı çalıştırmak için sadece donanıma en az $50,000+ gerekiyor. OpenAI ya da Anthropic’e yaklaşan performans için yüzlerce GB yüksek hızlı VRAM lazım

    • İnsanların OpenAI kullanmasının temel nedeni çoğunun IT konusunda çok bilgili olmaması. Gerçek hayatta reklam engelleyici kullanan sıradan insan neredeyse yok. OpenAI, kitlesel algıda yer etmiş durumda. Google gibi reklama abanmış olsaydı daha da güçlü bir konum kurabilirdi ama balon ekonomi ve yatırım dolandırıcılığı tarafını seçmesi yanlış hesap oldu

  • Herkesin biraz sakinleşmesi lazım. Altman her şeyi halleder. 47 gün sonra ChatGPT 6 Recurd diye bir ürün çıkacak ve herkesi şaşırtacak; daha iyi bir model yapmak yerine eski modeller geri dönüştürülecek, ayrıca 10 farklı ChatGPT 6 planı otomatik satın alınacak ve böylece çok daha iyi çalışacak. Sonra daha hızlı yükseltmelerle performans her seferinde %1 artacak. Hiper-geometrik büyümeyi hafife almak kolay. 2026’nın başında insan müşteri sayısı sınırlaması olmadan trilyonlarca lisans satacaklar. Altman bunun için özel coin, otomatik kredi sistemi ve compute vadeli işlemlerini bile planladı. Tamamen yeni bir dünya bu. Adı da “Alt/World!”

  • Veri merkezlerinin neden “gigawatt” cinsinden ölçüldüğünü merak ediyorum. Neden gerçek hesaplama performansı (flops vb.) ile ölçülmüyor? Hatta teorik olarak “1 GW” bir veri merkezini tek bir 6502 CPU ve bir yığın dirençle bile kurabileceğimi düşünüyorum

    • Bunun nedeni, veri merkezi kurulumunda en büyük kısıtların elektrik kapasitesi ve soğutma olması. Compute performansı zamanla ciddi değişiyor ve pratikte en güncel çipler olan GB200 baz alındığında 1GW yaklaşık 5 exaflops hesaplama sağlayabiliyor (hassasiyete göre değişir)

    • Ben de son zamanlarda küçük ölçekte de olsa HW/veri merkezi işletme deneyimi edinirken şunu fark ettim: Güç ve soğutmayı çok tüketen şey yalnızca GPU’lar değil; switch, firewall, storage gibi bileşenler de aynı derecede önemli. Belli bir ölçeğin üstünde asıl sınır, azami compute, Hz ya da GB değil; ne kadar gücü içeri alıp ne kadar ısıyı dışarı atabildiğiniz oluyor. Örneğin limanlarda fazla güneş enerjisini büyük direnç kümelerinde harcayan projeler var. Asıl mesele, yüksek voltajlı enerji şebekesine güvenli şekilde bağlanmak ve ısıyı hızlıca tahliye etmek

    • Donanım ve workload’a göre hesaplama performansı birimleri değiştiği için evrensel bir ölçüm yapmak fiilen mümkün değil. Güç kapasitesini, o anda elde edilebilecek azami compute kapasitesine yakın bir gösterge gibi düşünebilirsiniz. Bölge, soğutma yöntemi gibi değişkenleri de kapsıyor

    • Kabaca yapılan hesapla 1GW ile yaklaşık 1,43 milyar adet 6502 çip çalıştırılabilir

    • Gerçekte temel birimin “güç” olmasının nedeni, compute verimliliği, ekipman yatırımı ve ölçeklenebilirlik dahil tüm maliyetlerin nihai biriminin bu olması

  • Veri merkezi inşasında başlangıç sermayesinden çok, elektrik tedarikçilerinin asıl sektör kısıtı olduğunu vurgulamak isterim. Şu anda Kuzey Amerika elektrik şebekesinde arz çok yetersiz. Büyük veri merkezlerinin gerçekten kullanabileceği boş güç kapasitesinin ne kadar olduğu ve bunun ne zaman artırılabileceği konusunda derinlemesine araştırma şart. Santral inşası son derece yavaş ilerleyen bir iş. Veri merkezi yatırım planlarının çoğu, güç kapasitesinin “sihirli şekilde” ortaya çıkacağı ya da rekabet olmayacağı varsayımına dayanıyor gibi görünüyor

    • Bunun neden daha çok tartışılmadığını anlamak zor
  • “OpenAI önümüzdeki 1 yılda $400 milyar harcayacak” iddiasında sorun var. Gerçekte yatırımı doğrudan OpenAI yapmıyor; Oracle gibi şirketler veri merkezi inşa ediyor ve OpenAI kira ödüyor. Yani bu bir lease anlaşması, tüm inşaat maliyetini baştan üstlenmiyorlar. Örneğin OpenAI 2027/2028’den itibaren yıllık $30 milyar seviyesinde kira ödemeye başlayacak ve bu rakam 5 yıl boyunca kademeli artacak. NVIDIA ve AMD de milestone’lara ya da çip alımlarına göre yatırımlarını geri alıyor; hatta yapı, tedarikçilerin OpenAI büyümesine “bahis oynayıp” kredi sağlaması şeklinde işliyor. Bu çok sıra dışı ve kırılgan olabilir ama “hemen şimdi $400 milyar nakde sahip olması gerekiyor” demek yanlış mantık. Asıl soru, OpenAI gelirlerinin 2028~2029’a kadar en az $60~70 milyara çıkıp çıkamayacağı. Yani iddia tam oturmuyor; gerçek risk daha çok uygulama takvimi ve gelir büyümesinin ne kadar ilerleyeceği. Referanslar: CNBC - OpenAI veri merkezi, w.media - Oracle lease anlaşması, CNBC - Nvidia ortaklığı, TechCrunch - AMD çip tedariki

    • Ed Zitron analist olarak çok sayıda yanlış iddia ve olgusal hata yapıyor. “Inference maliyeti artıyor” diye ısrar etmesini de başka bir yazıda ele alıyorlar ilgili yazı

    • OpenAI’nin WAU’su (haftalık aktif kullanıcı) yıllıklandırılmış bazda yaklaşık %122,8 büyüyor ama bu oran 10 ay önceki %461,8’den aşağı gelmiş durumda. Büyüme hızı istikrar kazanırsa 2028 sonuna kadar yıllık gelir en fazla $104 milyar ve 6,4 milyar WAU’ya ulaşabilir. Bu rakamlar kesin değil ama Oracle ile Nvidia’nın kendi hisse değerlemelerini korumak için buna güvenmek zorunda olduğu anlaşılıyor. Gerçekte büyüme yavaşlaması her 2 ayda yaklaşık %20 düzeyinde olduğundan, gelecek yıl bu zamanlarda ancak 1,2 milyar WAU, ondan sonraki yıl da 1,4 milyar WAU beklenebilir. Google ve Facebook ile kıyaslandığında hâlâ düşük seviyeler

    • OpenAI bu kiralama yapısıyla “ayakta kaldığı” için, fiili risk yükü giderek daha alt sıradaki yatırımcılara ya da halka ve emeklilik fonu katılımcılarına devrediliyor Turtles all the way down’a bakın

  • Sora 2 ve animasyon tartışmasını görünce, ortalama bir TV anime sezonunun ya da filmin $10~20 milyon bütçeyle üretilebildiğini fark ettim. Sora 2’nin gerçekten ne kadara geliştirildiğini bilmiyorum ama maliyet yüz milyarlarca ya da trilyonlar seviyesindeyse, bununla binlerce anime üretilebilirdi. LLM’lerden biraz farklı bir alan ama sonuçta AI uzman emeğinin yerini alsa bile, yatırım karşılığında elde edilen faydanın gerçekten makul olup olmadığı tartışmalı

    • Aslında Sora 2’nin geliştirme maliyeti muhtemelen onlarca milyar dolar değil, çok daha düşük

    • Sora 2 ile gerçekten bir “show” üretilebilir mi emin değilim. Sürekli kısa video örnekleri görüyoruz; tam ölçekli bir dizi yapmak için hâlâ ciddi bir teknik sıçrama gerekiyor gibi

    • Sora ve Google Flow gibi araçlarla amatörler bile yakında düşük maliyetle profesyonel kalitede içerik üretebilir. Binlerce anime üretmek artık imkânsız bir alan olmayabilir

    • Bu ölçekte devasa bir yatırımın, basit bir chatbot ROI’sinden daha fazlasıyla dengelenmesi gerektiğini düşünüyorum

  • Bu kadar büyük paranın elektrik santrallerine, veri merkezlerine, silikon tasarımı ve üretimine pratikte ne kadar hızlı aktarılabileceğini; altyapı sektörünün de keskin bir balon sonrası büyük bir düzeltme yaşayıp yaşamayacağını ya da gerçekten sanayi devrimi ölçeğinde bir dönüşüm gelip gelmeyeceğini merak ediyorum. Ayrıca yüksek güvenlikli embedded sistem altyapısı girişimi için kurucu ortak arayan da var

    • Altın geri dönüşümü dışında, teknoloji sektöründe gerçek anlamda “sürdürülebilir” bir şey olduğuna inanmıyorum
  • Anthropic’in neden benzer bir sermaye ihtiyacı olmadığı da soruluyor

    • Anthropic maliyet açıklamalarında daha temkinli. Ed Zitron şu anda özellikle GCP maliyetlerini takip ediyor

    • Konu “AGI” inşasıyla ilgili olduğu için, Anthropic’in mevcut hizmetlerinden ayrı değerlendiriliyor. Ayrıca zekânın compute arttıkça sonsuza kadar büyüyeceğinin de garantisi yok

    • Aslında Anthropic’in de benzer yatırımlara ihtiyaç duyması muhtemel. Sadece yazar odağı OpenAI’ye vermiş gibi görünüyor

    • Büyüme sürerse Anthropic’in de büyük ölçekli yatırıma ihtiyacı olacaktır

    • Anthropic overflow durumlarında TPU’yu daha agresif kullanıyor gibi. Son dönemde Claude performansındaki düşüşün TPU ve implementasyon farklarından kaynaklanan bug’larla ilgili olduğu söyleniyordu; bu sayede onların Nvidia/TPU hibrit kullanımına dair biraz çıkarım yapılabildi. OpenAI’nin ağırlıkları Google altyapısına dağıttığına dair ise henüz bir şey duyulmadı

  • Veri merkezlerinin capex modelinde hedef %100 kullanım oranıysa ve node uptime yerine capex verimliliği daha önemli hale geliyorsa bunun modeli nasıl değiştirir, merak ediyorum. NVidia gibi şirketlerin marj ayarlamalarına bağlı olarak maliyetlerde bir ya da iki basamak düşüş alanı olabilir diye düşünüyorum. OpenAI mevcut anlayıştan farklı, düşük güvenilirlikli veri merkezlerini ucuz lokasyonlarda kurarsa bu biraz daha makul olabilir. Yine de OpenAI’nin gelecek yıla kadar veri merkezlerine $40 milyardan fazla gömmesi oldukça muhtemel. Geleneksel veri merkezleri uptime’a çok duyarlıdır ama bu ölçekte OpenAI’nin rack uptime’ı ya da tesis genel uptime’ı konusunda o kadar hassas olmayacağını tahmin ediyorum

    • Sayıları gerçekten hesaplayan kişiler hâlâ Tier IV düzeyi güvenilirlik istiyor. “Tier 0” düzeyi yani en ucuz güvenilirlikteki kripto madenciliği veri merkezlerinin AI amaçlı dönüşümüne dair başarılı bir örnek henüz görmedim