Şimdi dönüp bakınca komik geliyor hahaha, 10 yıl bile geçmeden neredeyse gülünç hale gelmiş olması bir yandan da korkutucu.

 

Şu an için özellikle yeni bir fikir değil, ancak arayüz imzasını ya da iş akışını bozmadan uygulanabilmesi açısından iyi bir yöntem gibi görünüyor.

 

Tam olarak Amodei'nin OpenAI'da olduğu dönemde GPT-2'yi kamuya açmama gerekçesiyle, şimdi Misos modelini kamuya açmama gerekçesi benzer olduğu için paylaşılmış gibi görünüyor. O zamanki Amodei ile şimdiki Amodei arasında değişen bir şey yok..

 

Çoğu normalde içe alınıyor ama bu sefer nedense atlanıp işlenmiş. Buna dokunulmayacak şekilde düzelteceğim.

 

Sorun AX’ı ilerleten ekibin kötü olması değil sanırım..
AX ekibi kurup sonra da "siz AX ekibisiniz, hadi bunu yapay zeka ile hızlıca otomatikleştirin" demek asıl sorun gibi görünüyor..
En iyisi, alanın iş uzmanlarının süreci yönlendirmesi ve AX uzmanlarının destek vererek yapay zekayı devreye alması gibi duruyor..

 

Bilgi olarak, GPT-2'den bahseden yazının içeriğine ya da asıl yazının 2019 tarihli olduğuna bakarsanız, son dönemde Anthropic'in Mithos modelini fazla tehlikeli olduğu için yayımlamayacağını söylemesi konusunda, geçmişte OpenAI'nin de GPT-2 hakkında benzer şekilde aşırı hassas davrandığı yönünde bir bağlam olduğunu görebilirsiniz.

HN tarafında eski gönderilere yıl ekleme gibi bir gelenek var gibi görünüyor (otomatik mi ekleniyor emin değilim); GeekNews'te de bunun görünmesi güzel olur diye düşünüyorum.

 

Sam Altman Oppenheimer ile empati mi kuruyor? Eğer tehlikeliyse, güvenli şekilde iyileştirdikten sonra yayımlasalar yine olurdu; ama kullanmayı teşvik etmeleri bana pek tutarlı gelmiyor. Anthropic Mythos vakasının da aynı şekilde olduğunu düşünüyorum.

 

Anthropic'in söyledikleri güven vericiydi ama OpenAI'ın söyledikleri neden bu kadar güven vermiyor acaba?
Anthropic'in zero day yaması geliştirme konusunda show-and-proof yapmış olması yüzünden mi?
Yoksa OpenAI'ın bu repertuvarı zaten defalarca kullanmış olmasından mı?

 

Windows sürücüsü farklıdır sanırım.

 

Böyle şeyleri her gördüğümde düşündüğüm şey şu: imza doğrulama işini platform değil, kullanıcı yapmalıdır. Geliştirici kendi anahtarıyla imzalar; kullanıcı da güvendiği geliştiricinin anahtarına kendi cihazında izin vererek kullanmalıdır.

Bunu bilmiyorum, benim yerime halledin demek mantıklı değil. İster bilgisayara ilgili olsun ister olmasın, kişi onu kullanacaksa mutlaka edinmesi gereken bir alışkanlıktır.
Cep telefonu kullanıyor ve internete giriyorsanız, web sayfasında, mesajlarda ya da telefonda söylenenlere koşulsuz inanmamanız ve seçip değerlendirebilme becerisine sahip olmanız gerekir; bu da o düzeyde temel bir kuraldır.

Windows UAC gibi, belirli bir geliştiriciye güvenip güvenmeyeceğinizi tek bir düğmeyle onaylayabildiğiniz bir arayüz düzeyi olursa, kod imzası ve anahtar kavramını bilmeyen kişiler bile kullanabilir.

 

Gerçekten çok iyi derlemişsiniz. Teşekkürler.

 
blacksocks 22 일 전 | üst yorum | konuda: Vibe coding kültü çılgınlık (bramcohen.com)

Yarım yamalak projeler ortalığı kaplıyor…
Programlamayı yarım bilen insanlar ise coşuyor…

 

Şirket içinde sadece vibe coding ile geliştirme yapmamız yönünde talimat gelince ben de çeşitli şeyler denedim; ama işin içine girince, üstün geliştirme becerilerinin tek başına yüksek kaliteyi garanti etmediğini gördüm..
Aksine, asıl önemli olanın yapay zekanın ürettiği kodu inceleyip anlama becerisi olduğunu düşünüyorum. Araçlar ne kadar iyi hale gelirse, “okuyup değerlendirme gücü”nün o kadar daha önemli olması biraz ironik.

 
  • Yapay zeka çağında ARR artık güvenilir bir ortak metrik olmayabilir iddiası
  • Teknoloji sektörünün temel metrikleri her dönemde değişti
    • Sosyal çağ: DAU/MAU
    • SaaS çağı: ARR/MRR
    • Yapay zeka çağı: mevcut ARR’nin de gerçeği çarpıtma ihtimalinin büyüdüğü eleştirisi
  • Yazının çıkış noktası Anthropic’teki sayı uyumsuzluğu
    • 2026 Şubat’ta 14 milyar dolarlık ARR vurgulandı
    • Bir ay sonra mahkemeye sunulan belgede “kuruluştan bu yana 5 milyar doları aşan kümülatif gelir” ifadesi yer aldı
    • Aynı şirket, benzer zaman dilimi ama sayıların anlamı büyük ölçüde farklı
    • Yazar bunu, “yapay zeka çağında ARR’nin işin gerçek durumunu artık doğru düzgün açıklayamadığının bir işareti” olarak yorumluyor
  • ARR’nin yapay zekada sarsılmasının 3 nedeni var
    1. Marjinal maliyetin neredeyse 0 olduğu SaaS varsayımı bozuluyor
      • Yapay zekada her çıkarım çağrısında fiilen GPU/bulut maliyeti oluşuyor
      • Kullanım arttıkça maliyet de büyüyor
    2. Müşteri bazında maliyet farkı çok büyük
      • Aynı ücreti ödeseler de bazı müşteriler düşük maliyetli, bazıları yüksek maliyetli
      • Yalnızca ARR’ye bakınca ikisi de aynı derecede “iyi gelir” gibi görünse de gerçek kârlılık çok farklı
    3. Tekrarlayan gelirin istikrarı zayıf
      • SaaS’a kıyasla geçiş maliyeti daha düşük olduğu için başka model/hizmetlere geçmek daha kolay
      • “Recurring” kavramının kendisi geçmişe göre daha az sağlam
  • Bu yüzden yapay zeka şirketlerinin ARR’si “büyümeyi” gösterebilir ama kârlılığı, sürdürülebilirliği ve iş kalitesini iyi yansıtmayabilir
    • Geçmişte DAU/MAU’nun kullanıcı ilgisini gösterip işin sağlığını gösterememesiyle benzer bir yapı olduğu savunuluyor
  • Anthropic ve OpenAI örneklerinin de bu sorunu gösterdiği düşünülüyor
    • Açıklanan ARR ile gerçek kümülatif gelir, yarıyıl sonuçları ve nakit yakma hızı arasında fark var
    • Yani “yıllıklandırılmış” sayıların gerçek yıllık performansla aynı anlamda okunması yanlış anlamalara yol açabilir
  • Yazarın yapay zeka çağı için önerdiği yeni nesil aday metrikler
    1. Harcanan dolar başına üretkenlik (Productivity per Dollar Spent)
      • Sadece ARR/çalışan sayısı değil
      • ARR / (personel maliyeti + yapay zeka maliyeti) gibi bakmak gerçek verimliliği ortaya koyar
    2. İlk yıl değeri (First Year Value)
      • LTV gibi uzak geleceği varsaymak yerine
      • Müşterinin ilk 12 ay içinde yenileme yapacak kadar yeterli değer elde edip etmediğine bakma yaklaşımı
    3. Token başına brüt kâr gibi birim ekonomi odaklı metrikler
      • Ne kadar çok işlendiğinden ziyade
      • Ne kadar kâr bırakarak işlendiğinin daha önemli olması
  • Temel mesaj
    • Yapay zeka çağında gelir ölçeğinden çok brüt kâr yapısına, müşteri bazlı kârlılığa ve ilk yılda bırakılan değere bakmak gerekiyor
    • Sayının büyüklüğünden çok sayının yapısını okumak gerektiği söyleniyor
  • Pratik bir sorun da var
    • Bu tür üçüncü nesil metrikleri düzgün görmek için
    • Faturalama, altyapı maliyetleri ve finans sistemlerinin birbirine bağlı olması gerekiyor
    • Ancak yapay zeka şirketlerinin çoğunda henüz bu düzeyde bir ölçüm altyapısı yok

Tek cümlelik özet
Yapay zeka işlerini SaaS’taki gibi tek başına ARR ile açıklamak giderek zorlaşıyor; bundan sonra “ne kadar satıldı”dan çok “ne kadar kâr bırakıyor ve ne kadar sürdürülebiliyor”u gösteren metrikler daha önemli hale gelecek.

 

Demek ki gerçekten 49 günden önce yeniden başlatmak gerekiyormuş.

Aslında burada zamanı asla mutlak olarak < ile karşılaştırmamak gerekiyor..

if ((int32_t)(tmp - current_tcp_now) < 0) {
os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}
Böyle yapıp iki değerin farkına bakmak gerekiyordu... İnsan aynı hatayı hep yapıyor.

 

Birçok SaaS batacak gibi görünüyor.

 

Gerçekten o seviyedeyse, tersine mühendislikten çıkan şeylerde güvenlik açıklarını bulması da çok uzun sürmez herhalde.

 

Yukarıda bahsedilen vakfın bir üyesi olarak bu süreci izlerken derin bir hayal kırıklığı hissettim. Dışarıda 'etik yapay zeka' söylemi öne sürülürken, içeride bu karar toplulukta herhangi bir uzlaşı olmadan tepeden inme biçimde alındı.

Jeopolitik gerilimlerin tırmanmasıyla, uzun zamandır aktif olmasam da bir şey söylemem gerektiğini düşündüm ve etik üzerine bir tartışma başlığı açtım, ancak karşılaştığım şey yalnızca bürokratik kaçınmaydı. Bu girişim açık kaynağın değerlerini korumak değil; büyük sermayenin kapalı bir ittifakının, Responsible AI ticari markasını bir açık kaynak vakfından satın alması olayıdır.