Tam olarak Amodei'nin OpenAI'da olduğu dönemde GPT-2'yi kamuya açmama gerekçesiyle, şimdi Misos modelini kamuya açmama gerekçesi benzer olduğu için paylaşılmış gibi görünüyor. O zamanki Amodei ile şimdiki Amodei arasında değişen bir şey yok..
Sorun AX’ı ilerleten ekibin kötü olması değil sanırım..
AX ekibi kurup sonra da "siz AX ekibisiniz, hadi bunu yapay zeka ile hızlıca otomatikleştirin" demek asıl sorun gibi görünüyor..
En iyisi, alanın iş uzmanlarının süreci yönlendirmesi ve AX uzmanlarının destek vererek yapay zekayı devreye alması gibi duruyor..
Bilgi olarak, GPT-2'den bahseden yazının içeriğine ya da asıl yazının 2019 tarihli olduğuna bakarsanız, son dönemde Anthropic'in Mithos modelini fazla tehlikeli olduğu için yayımlamayacağını söylemesi konusunda, geçmişte OpenAI'nin de GPT-2 hakkında benzer şekilde aşırı hassas davrandığı yönünde bir bağlam olduğunu görebilirsiniz.
HN tarafında eski gönderilere yıl ekleme gibi bir gelenek var gibi görünüyor (otomatik mi ekleniyor emin değilim); GeekNews'te de bunun görünmesi güzel olur diye düşünüyorum.
Sam Altman Oppenheimer ile empati mi kuruyor? Eğer tehlikeliyse, güvenli şekilde iyileştirdikten sonra yayımlasalar yine olurdu; ama kullanmayı teşvik etmeleri bana pek tutarlı gelmiyor. Anthropic Mythos vakasının da aynı şekilde olduğunu düşünüyorum.
Anthropic'in söyledikleri güven vericiydi ama OpenAI'ın söyledikleri neden bu kadar güven vermiyor acaba?
Anthropic'in zero day yaması geliştirme konusunda show-and-proof yapmış olması yüzünden mi?
Yoksa OpenAI'ın bu repertuvarı zaten defalarca kullanmış olmasından mı?
Böyle şeyleri her gördüğümde düşündüğüm şey şu: imza doğrulama işini platform değil, kullanıcı yapmalıdır. Geliştirici kendi anahtarıyla imzalar; kullanıcı da güvendiği geliştiricinin anahtarına kendi cihazında izin vererek kullanmalıdır.
Bunu bilmiyorum, benim yerime halledin demek mantıklı değil. İster bilgisayara ilgili olsun ister olmasın, kişi onu kullanacaksa mutlaka edinmesi gereken bir alışkanlıktır.
Cep telefonu kullanıyor ve internete giriyorsanız, web sayfasında, mesajlarda ya da telefonda söylenenlere koşulsuz inanmamanız ve seçip değerlendirebilme becerisine sahip olmanız gerekir; bu da o düzeyde temel bir kuraldır.
Windows UAC gibi, belirli bir geliştiriciye güvenip güvenmeyeceğinizi tek bir düğmeyle onaylayabildiğiniz bir arayüz düzeyi olursa, kod imzası ve anahtar kavramını bilmeyen kişiler bile kullanabilir.
Şirket içinde sadece vibe coding ile geliştirme yapmamız yönünde talimat gelince ben de çeşitli şeyler denedim; ama işin içine girince, üstün geliştirme becerilerinin tek başına yüksek kaliteyi garanti etmediğini gördüm..
Aksine, asıl önemli olanın yapay zekanın ürettiği kodu inceleyip anlama becerisi olduğunu düşünüyorum. Araçlar ne kadar iyi hale gelirse, “okuyup değerlendirme gücü”nün o kadar daha önemli olması biraz ironik.
Yapay zeka çağında ARR artık güvenilir bir ortak metrik olmayabilir iddiası
Teknoloji sektörünün temel metrikleri her dönemde değişti
Sosyal çağ: DAU/MAU
SaaS çağı: ARR/MRR
Yapay zeka çağı: mevcut ARR’nin de gerçeği çarpıtma ihtimalinin büyüdüğü eleştirisi
Yazının çıkış noktası Anthropic’teki sayı uyumsuzluğu
2026 Şubat’ta 14 milyar dolarlık ARR vurgulandı
Bir ay sonra mahkemeye sunulan belgede “kuruluştan bu yana 5 milyar doları aşan kümülatif gelir” ifadesi yer aldı
Aynı şirket, benzer zaman dilimi ama sayıların anlamı büyük ölçüde farklı
Yazar bunu, “yapay zeka çağında ARR’nin işin gerçek durumunu artık doğru düzgün açıklayamadığının bir işareti” olarak yorumluyor
ARR’nin yapay zekada sarsılmasının 3 nedeni var
Marjinal maliyetin neredeyse 0 olduğu SaaS varsayımı bozuluyor
Yapay zekada her çıkarım çağrısında fiilen GPU/bulut maliyeti oluşuyor
Kullanım arttıkça maliyet de büyüyor
Müşteri bazında maliyet farkı çok büyük
Aynı ücreti ödeseler de bazı müşteriler düşük maliyetli, bazıları yüksek maliyetli
Yalnızca ARR’ye bakınca ikisi de aynı derecede “iyi gelir” gibi görünse de gerçek kârlılık çok farklı
Tekrarlayan gelirin istikrarı zayıf
SaaS’a kıyasla geçiş maliyeti daha düşük olduğu için başka model/hizmetlere geçmek daha kolay
“Recurring” kavramının kendisi geçmişe göre daha az sağlam
Bu yüzden yapay zeka şirketlerinin ARR’si “büyümeyi” gösterebilir ama kârlılığı, sürdürülebilirliği ve iş kalitesini iyi yansıtmayabilir
Geçmişte DAU/MAU’nun kullanıcı ilgisini gösterip işin sağlığını gösterememesiyle benzer bir yapı olduğu savunuluyor
Anthropic ve OpenAI örneklerinin de bu sorunu gösterdiği düşünülüyor
Açıklanan ARR ile gerçek kümülatif gelir, yarıyıl sonuçları ve nakit yakma hızı arasında fark var
Yani “yıllıklandırılmış” sayıların gerçek yıllık performansla aynı anlamda okunması yanlış anlamalara yol açabilir
Yazarın yapay zeka çağı için önerdiği yeni nesil aday metrikler
Harcanan dolar başına üretkenlik (Productivity per Dollar Spent)
Sadece ARR/çalışan sayısı değil
ARR / (personel maliyeti + yapay zeka maliyeti) gibi bakmak gerçek verimliliği ortaya koyar
İlk yıl değeri (First Year Value)
LTV gibi uzak geleceği varsaymak yerine
Müşterinin ilk 12 ay içinde yenileme yapacak kadar yeterli değer elde edip etmediğine bakma yaklaşımı
Token başına brüt kâr gibi birim ekonomi odaklı metrikler
Ne kadar çok işlendiğinden ziyade
Ne kadar kâr bırakarak işlendiğinin daha önemli olması
Temel mesaj
Yapay zeka çağında gelir ölçeğinden çok brüt kâr yapısına, müşteri bazlı kârlılığa ve ilk yılda bırakılan değere bakmak gerekiyor
Sayının büyüklüğünden çok sayının yapısını okumak gerektiği söyleniyor
Pratik bir sorun da var
Bu tür üçüncü nesil metrikleri düzgün görmek için
Faturalama, altyapı maliyetleri ve finans sistemlerinin birbirine bağlı olması gerekiyor
Ancak yapay zeka şirketlerinin çoğunda henüz bu düzeyde bir ölçüm altyapısı yok
Tek cümlelik özet
Yapay zeka işlerini SaaS’taki gibi tek başına ARR ile açıklamak giderek zorlaşıyor; bundan sonra “ne kadar satıldı”dan çok “ne kadar kâr bırakıyor ve ne kadar sürdürülebiliyor”u gösteren metrikler daha önemli hale gelecek.
Demek ki gerçekten 49 günden önce yeniden başlatmak gerekiyormuş.
Aslında burada zamanı asla mutlak olarak < ile karşılaştırmamak gerekiyor..
if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
Böyle yapıp iki değerin farkına bakmak gerekiyordu... İnsan aynı hatayı hep yapıyor.
Yukarıda bahsedilen vakfın bir üyesi olarak bu süreci izlerken derin bir hayal kırıklığı hissettim. Dışarıda 'etik yapay zeka' söylemi öne sürülürken, içeride bu karar toplulukta herhangi bir uzlaşı olmadan tepeden inme biçimde alındı.
Jeopolitik gerilimlerin tırmanmasıyla, uzun zamandır aktif olmasam da bir şey söylemem gerektiğini düşündüm ve etik üzerine bir tartışma başlığı açtım, ancak karşılaştığım şey yalnızca bürokratik kaçınmaydı. Bu girişim açık kaynağın değerlerini korumak değil; büyük sermayenin kapalı bir ittifakının, Responsible AI ticari markasını bir açık kaynak vakfından satın alması olayıdır.
Şimdi dönüp bakınca komik geliyor hahaha, 10 yıl bile geçmeden neredeyse gülünç hale gelmiş olması bir yandan da korkutucu.
Şu an için özellikle yeni bir fikir değil, ancak arayüz imzasını ya da iş akışını bozmadan uygulanabilmesi açısından iyi bir yöntem gibi görünüyor.
Tam olarak Amodei'nin OpenAI'da olduğu dönemde GPT-2'yi kamuya açmama gerekçesiyle, şimdi Misos modelini kamuya açmama gerekçesi benzer olduğu için paylaşılmış gibi görünüyor. O zamanki Amodei ile şimdiki Amodei arasında değişen bir şey yok..
Çoğu normalde içe alınıyor ama bu sefer nedense atlanıp işlenmiş. Buna dokunulmayacak şekilde düzelteceğim.
Sorun AX’ı ilerleten ekibin kötü olması değil sanırım..
AX ekibi kurup sonra da "siz AX ekibisiniz, hadi bunu yapay zeka ile hızlıca otomatikleştirin" demek asıl sorun gibi görünüyor..
En iyisi, alanın iş uzmanlarının süreci yönlendirmesi ve AX uzmanlarının destek vererek yapay zekayı devreye alması gibi duruyor..
Bilgi olarak, GPT-2'den bahseden yazının içeriğine ya da asıl yazının 2019 tarihli olduğuna bakarsanız, son dönemde Anthropic'in Mithos modelini fazla tehlikeli olduğu için yayımlamayacağını söylemesi konusunda, geçmişte OpenAI'nin de GPT-2 hakkında benzer şekilde aşırı hassas davrandığı yönünde bir bağlam olduğunu görebilirsiniz.
HN tarafında eski gönderilere yıl ekleme gibi bir gelenek var gibi görünüyor (otomatik mi ekleniyor emin değilim); GeekNews'te de bunun görünmesi güzel olur diye düşünüyorum.
Sam Altman Oppenheimer ile empati mi kuruyor? Eğer tehlikeliyse, güvenli şekilde iyileştirdikten sonra yayımlasalar yine olurdu; ama kullanmayı teşvik etmeleri bana pek tutarlı gelmiyor. Anthropic Mythos vakasının da aynı şekilde olduğunu düşünüyorum.
Anthropic'in söyledikleri güven vericiydi ama OpenAI'ın söyledikleri neden bu kadar güven vermiyor acaba?
Anthropic'in zero day yaması geliştirme konusunda show-and-proof yapmış olması yüzünden mi?
Yoksa OpenAI'ın bu repertuvarı zaten defalarca kullanmış olmasından mı?
Windows sürücüsü farklıdır sanırım.
Böyle şeyleri her gördüğümde düşündüğüm şey şu: imza doğrulama işini platform değil, kullanıcı yapmalıdır. Geliştirici kendi anahtarıyla imzalar; kullanıcı da güvendiği geliştiricinin anahtarına kendi cihazında izin vererek kullanmalıdır.
Bunu bilmiyorum, benim yerime halledin demek mantıklı değil. İster bilgisayara ilgili olsun ister olmasın, kişi onu kullanacaksa mutlaka edinmesi gereken bir alışkanlıktır.
Cep telefonu kullanıyor ve internete giriyorsanız, web sayfasında, mesajlarda ya da telefonda söylenenlere koşulsuz inanmamanız ve seçip değerlendirebilme becerisine sahip olmanız gerekir; bu da o düzeyde temel bir kuraldır.
Windows UAC gibi, belirli bir geliştiriciye güvenip güvenmeyeceğinizi tek bir düğmeyle onaylayabildiğiniz bir arayüz düzeyi olursa, kod imzası ve anahtar kavramını bilmeyen kişiler bile kullanabilir.
Gerçekten çok iyi derlemişsiniz. Teşekkürler.
Yarım yamalak projeler ortalığı kaplıyor…
Programlamayı yarım bilen insanlar ise coşuyor…
Şirket içinde sadece vibe coding ile geliştirme yapmamız yönünde talimat gelince ben de çeşitli şeyler denedim; ama işin içine girince, üstün geliştirme becerilerinin tek başına yüksek kaliteyi garanti etmediğini gördüm..
Aksine, asıl önemli olanın yapay zekanın ürettiği kodu inceleyip anlama becerisi olduğunu düşünüyorum. Araçlar ne kadar iyi hale gelirse, “okuyup değerlendirme gücü”nün o kadar daha önemli olması biraz ironik.
Tek cümlelik özet
Yapay zeka işlerini SaaS’taki gibi tek başına ARR ile açıklamak giderek zorlaşıyor; bundan sonra “ne kadar satıldı”dan çok “ne kadar kâr bırakıyor ve ne kadar sürdürülebiliyor”u gösteren metrikler daha önemli hale gelecek.
Demek ki gerçekten 49 günden önce yeniden başlatmak gerekiyormuş.
Aslında burada zamanı asla mutlak olarak
<ile karşılaştırmamak gerekiyor..if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
Böyle yapıp iki değerin farkına bakmak gerekiyordu... İnsan aynı hatayı hep yapıyor.
Perplexity
Birçok SaaS batacak gibi görünüyor.
Gerçekten o seviyedeyse, tersine mühendislikten çıkan şeylerde güvenlik açıklarını bulması da çok uzun sürmez herhalde.
Yukarıda bahsedilen vakfın bir üyesi olarak bu süreci izlerken derin bir hayal kırıklığı hissettim. Dışarıda 'etik yapay zeka' söylemi öne sürülürken, içeride bu karar toplulukta herhangi bir uzlaşı olmadan tepeden inme biçimde alındı.
Jeopolitik gerilimlerin tırmanmasıyla, uzun zamandır aktif olmasam da bir şey söylemem gerektiğini düşündüm ve etik üzerine bir tartışma başlığı açtım, ancak karşılaştığım şey yalnızca bürokratik kaçınmaydı. Bu girişim açık kaynağın değerlerini korumak değil; büyük sermayenin kapalı bir ittifakının, Responsible AI ticari markasını bir açık kaynak vakfından satın alması olayıdır.
İğrenç.