Apple'ın tesadüfi hendeği: “AI kaybedeni” neden kazanan olabilir
(adlrocha.substack.com)- AI zekânın metalaşması hızlanırken, tüm şirketler en iyi model yarışına girerken devasa nakit rezervlerine sahip Apple tersine avantajlı bir konum kazanıyor
- OpenAI, $300B değerlemeye rağmen Sora hizmetini durdurması ve Stargate Texas'ı iptal etmesiyle, gelir modeli olmadan yapılan altyapı yatırımlarının risklerinin gerçeğe dönüştüğünü gösteriyor
- 2,5 milyar aktif cihaz ve cihaz üstü işleme mimarisi sayesinde Apple, kişisel bağlam verisi ve gizlilik odaklı tasarımı bir hendek olarak elinde tutuyor
- Açık ağırlıklı model Gemma 4, Claude Sonnet 4.5 Thinking ile aynı seviyede performans gösterirken dizüstü bilgisayarda da çalışabilecek düzeye gelerek model farkının hızla kapandığını ortaya koyuyor
- Apple Silicon'ın birleşik bellek mimarisi, büyük modellerin yerelde çalışmasını mümkün kılıyor ve MLX framework'ü üzerinden ekosistem genişlemesi için temel oluşturuyor
- İster strateji ister tesadüf olsun, Apple AI çağrısına optimize edilmiş donanım ve yazılım temeli üzerinde yeni bir rekabet avantajı elde etmiş durumda
AI rekabetinde “kaybeden” Apple'ın tesadüfi hendeği
- Zekânın metalaşması eğilimi içinde, şirketler daha iyi modeller yaptıkça rakip modellerin de hızla yetiştiği bir yapı oluşuyor
- Büyük ölçekli eğitim yatırımları önceki nesil modellerin maliyetini düşürüyor ve frontier modeller ile açık kaynak modeller arasındaki fark hızla daralıyor
- Gemma4, Kimi K2.5, GLM 5.1 gibi yeni açık modeller, kişisel donanımda yeterince iyi çalışabilecek seviyeye ulaştı
- Buna karşılık OpenAI ve benzerleri, devasa maliyet yapıları ve istikrarsız gelir modelleri nedeniyle sürdürülebilirlik konusunda soru işaretleri yaratıyor
- Bu değişim “AI kaybedeni” diye anılan Apple'ın lehine işliyor
- Apple, Siri'ye herkesten önce sahipti; ancak ChatGPT'nin çıkışından sonra amiral gemisi bir frontier modelinin olmaması ve $500B ölçeğinde compute yatırımı sözü vermemesi nedeniyle “AI kaybedeni” olarak sınıflandırıldı
- Diğer AI laboratuvarları ve büyük teknoloji şirketleri en güncel benchmark'ta 1 numara olmak için devasa kaynaklar harcarken, Apple kullanılmayan nakdini biriktirip hisse geri alımlarını da artırarak seçeneklerini genişletti
OpenAI'ın aşırı harcaması ve riskleri
- OpenAI, $300B değerlemeyle fon topladıktan sonra Sora video hizmetini günlük yaklaşık $15M maliyete karşılık $2.1M gelirle işletmiş, sonunda da hizmeti durdurmuş durumda
- Disney, Marvel, Pixar ve Star Wars karakter içerikleri üretmek için Sora ile 3 yıllık lisans anlaşması yapmış ve OpenAI'a $1B özsermaye yatırımı planlıyordu; ancak Sora'nın durmasıyla bu $1B'lik yatırım da gerçekleşmedi
- Altyapı tarafında OpenAI, Samsung ve SK Hynix ile aylık en fazla 900 bin DRAM wafer (küresel üretimin yaklaşık %40'ı) için bağlayıcı olmayan niyet mektupları imzaladı
- Micron bu talep sinyalini görüp 29 yıllık Crucial tüketici bellek markasını kapatarak AI müşterilerine yöneldi; ancak Stargate Texas iptal edilince talep ortadan kalktı ve Micron hisseleri sert düştü
- Benchmark sonuçlarından ya da altyapı ölçeğinden bağımsız olarak, beklenen gelirdeki küçük bir sapma bile oyundan düşmeye yol açabilecek bir yapı yaratıyor
Zekâdan yetkinliğe geçiş
- AI laboratuvarlarının temel varsayımı, ham model yeteneğinin (zekâ) ve bunu çalıştıracak altyapının kıt kaynak olarak kalacağıydı; ancak daha az güçlü modeller, önceki frontier modellerin seviyesine hızla yaklaşıyor
- Google'ın açık ağırlıklı modeli Gemma 4, telefonda çalışabiliyor; MMLU Pro'da %85,2 alıyor ve Arena liderlik tablosunda Claude Sonnet 4.5 Thinking ile aynı seviyede yer alıyor
- İlk haftasında 2 milyon indirmeye ulaştı
- 18 ay önce SOTA olan bir model artık dizüstü bilgisayarda çalışabiliyor ve her çeyrekte daha da gelişiyor
- Gemma 4'ü AMD Ryzen AI Max+ üzerinde doğrudan çalıştırma sonucunda, token/saniye performansı ve zekâ seviyesi o kadar iyi bulundu ki kişisel araçların backend'i bu modele çıktı kalitesini düşürmeden taşındı
- Anthropic bu eğilimi fark ederek Claude Code, Claude Cowork, Claude Managed Sessions gibi pratik araçları hızla çıkarıp kullanıcıları kendi ekosistemine kilitleme stratejisi izliyor
- Temel mantık şu: modelin kendisi hendek olamıyorsa, kullanım katmanını ele geçirmek ve geçiş maliyetini yükseltmek gerekir
- Bir analize göre Max planı ($200) aboneleri, $27.000 değerinde compute tüketiyor; yani laboratuvarlar talebi sübvansiyonla ayakta tutuyor
- Apple, AI altyapısına ve kullanıcı token tüketimini sübvanse etmeye neredeyse hiç para harcamadığı için diğer şirketlere kıyasla daha büyük seçenekler ve kaldıraç elde etmiş durumda
Bağlam temel kaynak haline geliyor
- Zekâ bollaştıkça bağlam kıt kaynak haline geliyor
- Her şeyi akıl yürütebilen ama kullanıcı hakkında hiçbir şey bilmeyen bir model, yalnızca genel amaçlı bir araçtır
- AI'ın günlük hayatta gerçekten faydalı olması için akıl yürütme yeteneği + kişisel bağlam (mesajlar, takvim, kod, sağlık verileri, fotoğraflar, alışkanlıklar vb.) gerekir
- Apple, 2,5 milyar aktif cihaz üzerinden bu bağlama zaten sahip
- Apple Watch sağlık verileri, iPhone fotoğrafları, notlar, mesajlar, konum geçmişi, uygulama davranışları, e-postalar ve cihaz sensörleriyle çevresel farkındalık
- Cihaz üstü işleme sayesinde verileri cihaz dışına çıkarmadan modele tüm bağlamı sunan bir yapı mümkün hale geliyor
- “Privacy. That's iPhone” konumlandırması, basit bir PR söyleminden çıkıp temel değer önerisine dönüşebilir
- Tıbbi kayıtlarınızı ve 15 yıllık fotoğraflarınızı OpenAI'a vermek ile yalnızca cihaz içinde çalışan bir modele erişim izni vermek temelde farklı şeyler
- Apple'ın Google ile yaptığı Gemini anlaşması ($1B), bulut ölçekli akıl yürütme gerektiren sorgular için ve maliyeti, OpenAI'ın haftalık compute gideri yanında yuvarlamaya gidecek kadar küçük
- Apple'ın içeride tuttuğu şeyler: bağlam katmanı, cihaz üstü yığın ve her şeyi aracılık eden işletim sistemi
Apple Silicon neden AI için uygun
- OpenClaw çıkışından sonra Mac Mini çılgınlığının da gösterdiği gibi, Apple Silicon AI için değil; verimlilik, pil ömrü, ısı performansı ve donanım/yazılım entegre tasarımı için geliştirildi. Ancak yerel model çalıştırmada en uygun mimarilerden biri olduğu ortaya çıktı
- Temel tasarım: birleşik bellek (Unified Memory)
- Geleneksel mimarilerde CPU ve GPU ayrı çipler ile ayrı bellek havuzlarından oluşur; veri taşımak yavaştır ve çok enerji harcar
- Nvidia GPU'lar matris işlemlerinde hızlıdır, ancak PCIe veri yolu üzerinden CPU-GPU veri aktarımı darboğaz yaratır
- Apple M serisi/A serisi ise CPU, GPU ve Neural Engine'i aynı kalıba yerleştirip tek bir yüksek bant genişlikli bellek havuzunu paylaştırır; veri yolu geçişi, aktarım ek yükü ve gecikme ortadan kalkar
- LLM inference bugün compute değil, bellek bant genişliği tarafından sınırlanıyor
- Kritik nokta, model ağırlıklarının bellekten işlem birimlerine ne kadar hızlı aktarılabildiği ve KV cache için ne kadar bellek bulunduğu
- Apple'ın birleşik bellek havuzu, tüm işlem birimlerine aynı anda yüksek bant genişlikli doğrudan erişim sunuyor
- LLM in a Flash tekniği Apple donanımında özellikle etkili
- M3 Max Mac üzerinde Qwen 397B (209GB model), yalnızca 5.5GB aktif RAM kullanarak ~5.7 token/saniye hızında çalıştırıldı
- Ağırlıklar SSD'de tutulup yaklaşık ~17.5 GB/s hızla stream ediliyor; MoE (Mixture-of-Experts) mimarisi sayesinde her token yalnızca uzman katmanlarının bir kısmını etkinleştiriyor
- Bu çalıştırma için gereken ~5.000 satır Objective-C ve Metal shader kodunu Claude yazdı
Platform dinamikleri ve App Store benzetmesi
- App Store'da olduğu gibi, Apple uygulamaları kendisi yapmadı; bunun yerine uygulamaların en iyi çalıştığı platformu kurdu ve ekosistem peşinden geldi
- Geliştiriciler Apple istediği için değil, kullanıcı tabanı, araçlar ve tutarlı donanım nedeniyle iOS'u hedefledi
- Aynı durum yerel inference için de ortaya çıkabilir
- MLX şimdiden cihaz üstü AI'ın fiili standart framework'ü olarak öne çıkıyor
- Gemma, Qwen, Mistral gibi büyük model mimarileri MLX'i destekliyor
- Apple, model yarışını kazanmasa bile modellerin (veya agent'ların) çalıştığı fiili platform haline gelebilir
- OpenClaw'ın viral olmasının ardından Mac Mini çılgınlığı, bu ihtimalin bir göstergesi
Strateji mi, şans mı
- Apple'ın donanım/yazılım entegre tasarım stratejisi yıllardır temel odak noktasıydı; gizlilik konumlandırması, cihaz üstü işlemeye odaklanması ve sektör Nvidia ile Intel'e bağımlıyken kendi silikonunu geliştirme kararı ticari açıdan riskli tercihlerdi
- Bu kararlar AI için değil, maliyet ve yönetişim gerekçeleriyle alındı; ama sonuçta AI çağında Apple'ın lehine çalıştı
- Apple'ın öngörmemiş olabileceği noktalar:
- Birleşik bellek mimarisinin LLM'ler için kusursuz derecede uygun olması
- Açık ağırlıklı modellerin bu kadar hızlı gelişmesi
- 400B parametreli bir modeli SSD'den stream etmenin gerçekten işe yaraması
- Bunun bir kısmı şans; ama doğru temeli kuran şirketlerin yakaladığı türden bir şans
- Sektörün geri kalanı üç yıl boyunca en iyi model yarışına odaklanırken, Apple kenardan izleyip cihazlarının ve ekosisteminin bu geleceğe nasıl uyacağını gözlemledi
- Siri'nin sınırlamaları gibi eksikler sürüyor olsa da
- 2,5 milyar cihaz, tüm kişisel bağlam, özel silikon üzerinde yerel model çalıştırma ve zor sorgular için gerektiğinde Gemini desteği
- Sabit CAPEX yerine değişken maliyet temelli inference yapısı, AI'ın yaygınlaştığı bir çağda dezavantajlı bir pozisyon gibi görünmüyor
- Sonuç olarak Apple'ın AI merkezli gelecekte de önemli bir konumda kalma ihtimali yüksek
- Strateji ya da tesadüf fark etmeksizin, asıl nokta doğru temel üzerinde duruyor olması
5 yorum
Biraz saçma bir argüman bu
Şu anda yapay zeka model şirketleri zararına rekabet ettiği için
hiçbir şey yapmayan Apple’ın aşırı kârlı çıktığını söylüyorlar
Ama bu, şu anki LLM model aşırı rekabet akışından kaynaklanıyor
Yapay zeka modelleri istikrar/k büyüme aşamasında olsaydı Meta kafayı mı yemişti da Gemma’yı açıklar mıydı
Bu süre boyunca model geliştirip işletirken biriken know-how altına, hatta elmasa dönüşür
Meta -> Google
Apple’ın harcamalarına bakınca öyle boş durmadıkları görülüyor. Fiziksel AI’a ulaşmak için uygun bir şirket zaten.. Nvidia da sonuçta fiziksele gidiyor.. Her şeye sahip olan Google’ın asıl etkileyici olan tarafı bu
Sanırım kastedilen, kişiselleştirilmiş verinin nihayetinde bir sonraki yapay zeka çağında önemli bir hendek olacağı ve Apple bunun zaten elinde bulunduğu için avantajlı bir konumda olacağı.
Hadi Apple, MLX!
Hacker News yorumları
Bence Gemma4, kodla ilgili yardım ya da hata önerileri gibi konularda iyi ama karmaşık araç kullanımı veya uzman düzeyinde bağlam kavrayışında yetersiz kalıyor
Birkaç tur daha geliştirilip Gemma6 civarına geldiğinde bugünkü Opus seviyesinde Mac'te tamamen yerel çalışırsa, bulut modellerini kullanmak için pek bir neden kalmaz gibi geliyor
Az önce Ollama 0.20.6 içinde Gemma4'ün araç çağırma özelliğinin iyileştirildiği haberini gördüm. Kahvaltıdan sonra tekrar test edeceğim
Birden fazla sağlayıcı aynı modeli servis edip fiyat-performans rekabeti yaptığı için tekel riski de azalıyor
Cihazımda Gemma var; bu sayede kişisel sohbetleri ya da programlama dışı işleri tamamen çevrimdışı yapabiliyorum
Böyle bir durumda OpenAI ya da Anthropic olsam müşteriyi kilitlemek için türlü türlü etik dışı numaralar denemek isteyebilirdim ama sonunda işe yaramazdı
OpenAI'ın şirket değerlemesinin, yapay zekanın arama gibi çalışacağı varsayımından yola çıktığını düşünüyorum
Ancak arama, kullanıcı sorgu girdikçe ürünün geliştiği bir yapıydı ve Google uzun süre gerçekten en iyi üründü
Buna karşılık yapay zekada eğitim ve çıkarım ayrışmış durumda ve OpenAI iç bölünmeden sonra rakipler çok hızlı şekilde yetişti
Artık rekabet edebilmek için milyarlarca doların yakılması gereken bir yıpratma savaşı haline geldi ve modeller arasındaki fark kapandıkça sonucu dağıtım gücü belirliyor
Google, Meta, MSFT, Amazon bunu yapabilir ama OpenAI'ın finansal gücü yetmiyor
Kurumsal otomasyondan sosyal medyanın yerine geçmeye kadar uzanabileceği beklentisi vardı; buna bir de AGI olasılığı denen belirsiz gelecek değeri eklenmişti
Sam Altman'ın rolü de bu beklentileri büyütüp yatırım değerini maksimize etmek
Apple'ın Google ile ortaklık yapması da aynı eğilimin bir parçası gibi görünüyor
Apple her zaman 'bekleyip sonra sıçrama yapma stratejisi' izledi
Diğer şirketler deneme-yanılma yaşarken teknolojinin sınırlarını anlayıp daha olgun bir ürünle pazarı öne taşıyor
Birkaç yıl sonra gerçekten olgun bir ürün çıkarma ihtimali yüksek
Yine de Google'a kişisel verilerimi emanet etmek istemediğim için iPhone kullanıyorum
Apple, yatırımcılara dönük bir chatbot gösterisi değil, tüketici donanımı merkezli bir şirket
iPhone ve gelecekteki AR gözlükleri asıl odak; bunun için gereken cihaz üstü makine öğrenimi de çip tasarımının temel nedeni
OpenAI benzeri bir rakip ürün yapmaları için bir sebep yok
Diğer şirketler VR'dan vazgeçip yapay zekaya dönerken Apple'ın tersine gidip VR headset çıkarmasını anlamakta zorlandım
Yüksek fiyat, geliştirici eksikliği ve yapay zekaya girişte gecikme üst üste geldi
AR gözlükleri düzgün şekilde hayata geçerse devasa bir platforma dönüşür ve Apple sanki Meta başarısız olduktan sonra sahneye çıkacağı zamanı kolluyor
En sevdiğim tarafı, her şeyin yerelde çalışması. Veriler dışarı sızmıyor
İçerik üreticileri de Apple AI'a daha sıcak bakabilir. Çünkü etik eğitim verisi kullanıyor gibi duruyor ve abonelik ücreti olmadan kişisel mülkiyet hissi veriyor
Sequoia'dan beri Siri'yi kapattım; Apple'ın tekrar açmam için zorlamıyor olması hoşuma gidiyor
Buna karşılık JIRA ya da Slack her seferinde yeni AI özelliklerini gösterip duruyor, bu da can sıkıcı
Apple'ın bile App Store'da sponsorlu reklamları en üstte göstermesi çizgiyi aşmış gibi hissettiriyor
Android'de F-Droid gibi alternatifler var ama iOS'ta bundan kaçınmak zor
Amazon, Uber, Google Workspace gibi ürünler de benzer şekilde AI'ı dayatıyor
Ben sadece basit bir Sequoia yaması istiyorum ama varsayılan seçenek hep Tahoe oluyor
Hatta Xcode içindeki Claude Code entegrasyonu bile sadece Tahoe'ya özel; bu da saçma
MacBook Neo'yu şu anda çıkarmak mükemmel bir strateji
Apple, yapay zeka rekabetini izlerken bir yandan da yeni nesil kullanıcıları kendi ekosistemine bağlamış oluyor
Neo bana bu neslin iPod'u gibi hissettiriyor
Nvidia oyuncu GPU'larının veri merkezlerinde kullanılmasını kısıtlıyor,
Apple yerel AI pazarını tehdit ederse belki tüketiciye özel AI kartları bile çıkarabilir
Aynı çipin kullanım amacına göre farklı fiyatlandırıldığı bir gelecek görebiliriz
NPU performansı Intel ve AMD'yi aşar, RTX 5070 seviyesinde bir GPU da ince bir form faktöre entegre edilebilirse oyun dizüstülerinin yapısı tamamen değişebilir
Tüketici modelleri ucuz ama belleği daha az ve daha yavaş
Apple LLM yarışına atlamadı. Onların gücü insan merkezli tasarım
iPod ilk MP3 çalar değildi, iPhone da 3G'sizdi ama yine de başarılı oldu
Apple uzun süredir enerji verimliliği ve birleşik bellek mimarisi üzerine yoğunlaşıyor; bu da AR gözlüğü gibi gelecekteki ürünler düşünülerek yapılmış bir tasarım
NVidia ya da Intel'in tek başına yapamadığını Apple çip, bellek ve SSD'yi birlikte entegre tasarlayarak hazırladı
Geçmişte 64 bit ARM'ı benimserken olduğu gibi, bugün de birçok kişi bunun anlamını küçümsüyor
NVidia GPU'ları performans olarak 2-3 kat daha güçlü olabilir ama güç tüketimi 10 kat
Apple ise fiyat/performans verimliliğiyle yarışıyor ve yerel LLM'lerin gerektiği anlık, kişisel ve gizlilik odaklı kullanım için en uygun konumda