2 puan yazan GN⁺ 2 시간 전 | Henüz yorum yok. | WhatsApp'ta paylaş
  • 2013’te yayımlanan Lean Analytics’in temel çerçevesi (aşamayı belirleme, iş modelini anlama, OMTM, kıyas noktaları) hâlâ geçerli, ancak yapay zeka çağına uyacak şekilde somut metriklerin çoğunun yeniden tanımlanması gerekiyor
  • Yapay zeka ürünlerinde değere ulaşma süresi (Time to Value) aşırı derecede kısaldı; kullanıcılar ilk denemede yüksek kaliteli sonuç bekliyor ve başarısızlıkta hızla ayrılıyor
  • Etkileşim artık yalnızca yüksek ya da düşük diye değil, zamanın neye harcandığını (debelenme vs yapay zekanın yaptığı iş vs keşif) ayırmak gereken yön gösterici bir metrik hâline geliyor
  • Yapay zekanın olasılıksal çıktı özelliği nedeniyle kalite birinci sınıf bir metrik hâline geldi; değerlendirme düzeneği (eval harness) olmadan ürün değil, sadece "hisler (vibes)" vardır
  • Token tabanlı değişken maliyet yapısı nedeniyle güçlü kullanıcılar aslında zarara yol açabilir; bu yüzden aktif kullanıcı başına brüt kârın izlenmesi ve performans bazlı fiyatlandırma modelleri temel meselelerdir

Lean Analytics temel ilkelerinin özeti

  • Lean Analytics, 4 temel fikir üzerine kurulu: aşamayı belirleme, iş modelini anlama, OMTM (One Metric That Matters), kıyas noktaları (lines in the sand)
  • 5 aşamalı model: Empathy → Stickiness → Virality → Revenue → Scale sırasıyla tüm işletmelerin geçtiği süreç
    • Birçok kurucu kendi aşaması konusunda kendini kandırıyor ve sağlam bir temel olmadan hockey-stick büyüme peşine düşme eğilimi yapay zeka çağında da aynı
  • 6 iş modeli arketipi: SaaS, e-ticaret, iki taraflı pazar yeri, kullanıcı üretimli içerik/topluluk, mobil uygulama, medya
    • Bu sınıflandırma eskimiş olsa da, kendi işinizin nasıl çalıştığını kavrama ilkesi hâlâ önemli
  • OMTM: Hangi aşamada, hangi iş modelinde olursanız olun odaklanmanız gereken tek bir metrik vardır
    • Her şeyi aynı anda düzeltemeyeceğiniz için, ne üzerinde çalışılacağını ve bunun nasıl ölçüleceğini belirlemekte kullanılır
  • Kıyas noktaları (lines in the sand): Bir sonraki aşamaya geçmeye hak kazanıp kazanmadığınızı gösteren ölçütler
    • Yapay zeka ve ajan ürünlerinde metrikler ile hedef değerler hızla değişiyor

Yapay zeka çağında da değişmeyenler

  • Temel ilkeler değişmiyor, ancak bugün kurulan işletmeler kökten farklı
  • Yapay zeka kullanıcı arayüzünü, fiyatlandırma modellerini, kâr marjlarını değiştiriyor; yapay zeka öncelikli ve ajan ürünlerinde kullanım biçiminin kendisi de farklı
  • 5 aşamalı model ortadan kalkmıyor, ancak her aşamanın yanına bir soru işareti ekleniyor — mevcut metriklerle yeni metrikleri birleştirerek her aşamayı yeniden tanımlamak gerekiyor

Ürün metrikleri: 6 temel değişim

  • Değişim 1: Değere ulaşma süresinin (Time to Value) çöküşü

    • Geleneksel SaaS, kademeli onboarding sürecinden geçerek değer deneyimi sunuyordu; ancak yapay zeka ürünlerinde kullanıcı anında yüksek kaliteli sonuçlar bekliyor
      • Dağınık bir belge verdiğinde temiz bir teklif dosyası, bir spreadsheet yüklediğinde analiz sonucu, bir wireframe eskizi verdiğinde çalışan bir UI bekliyor
      • Girdi biçimi çeşitleniyor ama beklenti aynı: hızlı ve yüksek kaliteli çıktı, ilk denemede
    • Yetkinliğe ulaşma süresi (Time to Competency) de birlikte çöküyor — teknik olmayan kullanıcılar bile öğrenme eğrisi olmadan uzman seviyesinde çıktılar üretebiliyor
      • Eskiden aktivasyon eğrisi bir öğrenme eğrisiyse, artık bir iki etkileşimle kısalıyor
    • Bu olumlu görünse de iş modeline olumsuz etki edebilir: bir kişi yapay zekayla üç kişinin işini yaparsa seat sayısı, genişleme geliri ve ACV eğrisi darbe alabilir
      • Mutlu kullanıcılar, daha az seat — bu gerilim Değişim 1'de başlıyor ve tüm aşağı akış metriklerine yayılıyor
    • Ölçülecekler: ilk faydalı sonuca kadar geçen süre, kullanıcıların tek denemede faydalı sonuç elde etme oranı (prompt, yükleme ya da eskiz fark etmeksizin)
  • Değişim 2: Aktivasyon artık belirleyici değil

    • Geleneksel SaaS'ta aktivasyon deterministik bir olaydır — kullanıcı tanımlı adımları tamamlarsa öngörülebilir sonuç ortaya çıkar
    • Yapay zeka ürünlerinde ise aktivasyon funnel'ındaki tüm adımlar tamamlanmış olsa bile yetersiz sonuç alınabilir
      • Dashboard'da aktive olmuş görünür, ama gerçekte öyle değildir
    • Aktivasyon ikili bir kapı değil, kalite ağırlıklı bir olaydır
    • Nir Eyal'ın Hooked modeli (trigger → action → variable reward → investment) hâlâ geçerlidir; ancak yapay zeka döngüsünde davranışın iki tarafında da değişkenlik vardır
      • Kullanıcılar ürünü tasarlanmadığı biçimlerde test eder ve sonuç kalitesi de değişkendir — tek döngüde iki değişkenlik kaynağı vardır
    • Bileşik çok adımlı aktivasyon, yapay zeka ürünlerinde de geçerlidir — bağlam bağlantısı kurma, referans materyal yükleme, şablon yapılandırma gibi ilk çalıştırma kalitesini yükselten ayarlar varsa daha da etkili olabilir
      • Temel değişim, "aktivasyon kısaldı" değil; adımları tamamlamak değer sunumunu garanti etmiyor olmasıdır
    • Ölçülecekler: mevcut funnel tamamlama metrikleriyle birlikte Değişim 1'deki ilk deneme kalite sinyalini paralel izlemek — funnel adımların tamamlandığını, kalite sinyali ise gerçekten değer sunulup sunulmadığını gösterir ve dashboard'da yan yana görünmelidir
  • Değişim 3: Etkileşim yön gösteren bir metriktir

    • Geleneksel kanı: ürün içinde daha uzun zaman geçirmek daha iyidir — uzun oturumlar, yüksek DAU, derin özellik kullanımı yatırım sunumlarına girer
    • Yapay zekada etkileşimin artıp azalması değil, kullanıcının zamanını neye harcadığı temel sorudur
      • Debelenme süresi (yeniden üretme, yeniden prompt yazma, faydalı sonuç için girdiyi ayarlama) = kötü etkileşim, etkileşim gibi paketlenmiş başarısızlık
      • Yapay zekanın kullanıcı adına çalıştığı süre (spreadsheet düzenleme, teklif oluşturma, belge inceleme) = iyi etkileşim, yapay zeka emeğini gösterir
      • Keşif ve üretim süresi (brainstorming, fikir üretimi, tasarım iterasyonu) = iyi etkileşim, geleneksel sezgi burada geçerliliğini korur
      • Kullanıcı zamanı sıfır, iş tamam = ajan ve otomasyon ürünleri için ideal sonuç
    • GitHub Copilot, öneri kabul oranını temel metrik olarak raporluyor; sektör genelinde bu oran yaklaşık %27–30 seviyesinde
      • Bu, geleneksel SaaS'ta olmayan bir KPI; "kullanıcı kaldı mı" yerine doğrudan "yapay zekanın yaptığı iş faydalı mıydı" sorusunu ölçüyor
  • Değişim 4: Yapışkanlık (Stickiness) engel değil, akış (Flow) demek

    • Geleneksel yapışkanlık bir frekans oyunuydu (DAU/MAU, geri dönüş, alışkanlık döngüleri); Andrew Chen de DAU/MAU'nun sınırlarına dikkat çekmişti — epizodik ama yüksek değerli ürünler ya da haftalık ritim araçları için uygun değil
    • Yapay zeka DAU/MAU'yu ortadan kaldırmıyor, ama mevcut sınırlamaları büyütüyor
    • Aynı anda iki şey oluyor:
      • Kullanıcılar, mevcut tek işlevli SaaS araçlarına kıyasla yapay zeka ürünlerinden daha çeşitli görevler bekliyor — kullanıcı başına görev çeşitliliği (task diversity per user) daha önce olmayan bir büyüme vektörü
      • Yapışkan yapay zeka ürünleri, kullanıcıyı içeride tutan engeller değil; iş akışının içinde var olan ürünlerdir — bu, Trace Cohen'in "Moats are dead. Long live canals" yaklaşımıyla örtüşür
        • "Kaleler dışlamayla ölçeklenir, kanallar ise throughput ile ölçeklenir"
    • Ölçülecekler:
      • Görev çeşitliliği — kullanıcının ürünü başlangıç kapsamının dışındaki use case'lere genişletip genişletmediği
      • Entegrasyon derinliği — kullanıcının kaç aracını ve veri kaynağını ürüne bağladığı
      • Tetikleyici çeşitliliği — kullanıcıyı geri getiren etkenin tek mi çoklu mu olduğu
      • Workflow chaining — ürünün başka araçlara handoff yapıp yapmadığı ya da onlardan handoff alıp almadığı
    • İnsan artık ana kullanıcı olmadığında, mevcut DAU/MAU sorunlu bir metrik hâline gelir
    • Ek bir metrik olarak replacement breadth: müşteri ürünü benimsediğinde kaç bitişik aracı, aboneliği ya da manuel süreci ikame etti
      • Cevap 0 ise kolayca by-pass edilebilen küçük bir kanal; anlamlı bir sayıysa her şeyin içinden geçtiği bir yol
  • Değişim 5: Kalite birinci sınıf (First-Class) bir metrik

    • Kök neden, Değişim 2 ile aynı: yapay zeka çıktıları deterministik değil, olasılıksaldır — bu değişim SaaS playbook'undan miras kalan tüm metriklere yayılır
    • Geleneksel yaklaşım: bir özellik ya çalışır ya çalışmaz — deploy edilir, ölçümlenir ve sıradaki adıma geçilir
    • Yapay zeka gerçeği: çıktı bir özellik değil, bir dağılımdır — %80 iyi bir ürün ile %95 iyi bir ürün kullanıcıya tamamen farklı ürünler gibi gelir
    • Klarna örneği: 2024'te yalnızca yapay zekaya dayalı müşteri desteğini devreye aldıktan sonra yapay zekanın 700 danışmanın işini yaptığını iddia etti; ancak 2025 ortasında CEO bunu kamuoyu önünde geri çekti ve yeniden insan istihdam etmeye başladı
    • Kırılganlık (brittleness) — kalite, sahip olunmayan modeller, neredeyse hiç kontrol edilemeyen entegrasyonlar ve upstream sağlayıcı güncellemeleri nedeniyle sessiz gerilemeye uğrayabilir
      • Ekip koda dokunmasa bile kalite düşebilir — bu yeni bir risk kategorisi
    • Savunma yöntemi: gerçek prompt'lar üzerinde modeller arası karşılaştırmalı değerlendirme yapmak, gerileme ve iyileşmeleri saptamak için tüm modellere aynı eval'i çalıştırmak
    • Ölçülecekler:
      • Beğeni oranı (thumbs-up rate) ve yeniden üretim oranı (regenerate rate) temel sinyallerdir
      • Eval harness skorlarını retention gibi zaman serisi olarak takip etmek ve kullanılan tüm modellere uygulamak
      • Kohort bazlı kalite dağılımı — yeni kullanıcılar ile power user'ların ürün deneyimi farklıdır, ancak çoğu ekip bu farkı ölçmez
    • Alistair Croll'un bakışı: Lean Startup döneminde MVP, en riskli varsayımı test eden en küçük deneyse, yapay zeka çağında eval suite MVP'nin kendisidir — "iyileştirmeyi otomatikleştirip ölçebilen en küçük davranış seti"
  • Değişim 6: Yapay zekaya güven ve rahatlık öncü göstergedir

    • Teknik yatkınlık her zaman önemliydi; ancak yapay zekada, teknolojinin kendisine yönelik rahatlık düzeyi bir değişkendir ve tüm aşağı akış metriklerini etkiler
    • Gallup'un Şubat 2026 araştırması (ABD'de 23.717 çalışan): yapay zekayı benimseyenlerle benimsemeyenleri ayıran şey araç erişimi değil, yapay zekayı faydalı, etik ve kendi workflow'larına uygun görüp görmedikleridir
    • Stanford 2026 AI Index Report: küresel çalışan benimseme oranı %58, ABD ise %28,3 ile Singapore'un %61 ve BAE'nin %54 seviyesinin belirgin biçimde gerisinde
      • Aynı ürün, dramatik biçimde farklı kullanıcı kitleleri üzerinde var olabilir ve çoğu ekip bunu ölçmez
    • B2B tarafında, yapay zekaya doğal yatkın kullanıcılarla yapay zeka konusunda çekingen kullanıcılar arasında aktivasyon, yapışkanlık ve görev çeşitliliği eğrileri anlamlı biçimde farklı olabilir
      • Yapay zekaya doğal yatkın kullanıcılar aracı genişletir, tasarlanmadığı şekillerde prompt yazar ve oturum başına daha fazla değer elde eder
      • Yapay zeka konusunda çekingen kullanıcılar aracı temkinli biçimde eksik kullanır ve sessizce "bu bana göre değil" sonucuna varır
      • Tek kohort olarak ölçüldüğünde ortalama, gerçekte olanı gizler
    • B2C tarafında companionship, ruh sağlığı desteği, arkadaşlık ve duygusal iyi oluş ürünleri gerçek bir kategori olarak yükseliyor
  • Stanford verileri: Küresel katılımcıların %52’si AI companion’lardan heyecan duyuyor; Singapore ve Indonesia’da bu oran %80’i aşıyor

    • Bu bağlamda değer yaratımı, kullanıcının sürekli katılım, konuşma ve duygusal etkileşim niyeti ile ölçülür
    • Güven, tek bir kavram değil; en az 4 bağımsız boyuttan oluşur:
      • çıktı güveni (doğruluk ve faydalılık), veri işleme güveni (prompt’un nereye gittiği), güvenlik güveni (kötüye kullanım ve sızıntı olasılığı), güvenilirlik güveni (bağımlı olunduğunda kullanıcıyı zor durumda bırakıp bırakmayacağı)
    • Ölçülmesi gerekenler:
      • AI rahatlığı kohortlarına göre benimseme ve aktivasyon eğrileri
      • kabul oranı (accept rate) — AI rahatlığı kohortlarına göre analiz edildiğinde güven inşasının hızını görmeyi sağlar; mutlak değerden çok eğrinin eğimi önemlidir
      • override oranı (override rate) — kullanıcının AI sonucunu yeniden yazma veya düzenleme sıklığı; bunun azalması, güvenin arttığının işaretidir
      • duygusal olarak yakın B2C ürünlerde: oturum derinliği, hassas özelliklere geri dönüş oranı, etkileşimin niteliksel tonu
      • veri ve güvenlik endişesi sinyalleri: özellikten çıkış, "Bu nereye gidiyor?" destek talepleri, hassas girişlerden kaçınma kullanımı

İş modeli metrikleri: 3 temel değişim

  • Değişim 1: Başarılı görev başına maliyet, yeni CAC hesabı

    • Geleneksel SaaS: CAC, LTV ve brüt kâr müşteri başına görece istikrarlıdır; ölçek büyüdükçe maliyetler düşer, kullanıcı eklemenin marjinal maliyeti neredeyse sıfırdır
    • Yapay zeka gerçeği: maliyeti gerçekten güç kullanıcılar yaratır — token’lar değişken maliyettir; sabit ücretli abonelik + yoğun kullanıcılar = hesap başına negatif marj
      • SaaS LTV eğrisi artık geçerli değildir; kullanım arttıkça birim ekonomisinin bozulduğu ters yönlü bir yapı ortaya çıkar
    • Ölçülmesi gerekenler: aktif kullanıcı başına brüt kâr (ödeme yapan kullanıcı değil aktif kullanıcı bazında), başarılı görev başına maliyet, gelire karşı model maliyeti oranı, güç kullanıcıların marjinal maliyeti ile marjinal geliri
    • Intercom’un Fin’i: koltuk başına ücretlendirme yerine başarılı çözüm başına $0.99 — sonuç odaklı fiyatlandırma sayesinde yapay zeka ürünlerinin gerçek işletme maliyetine matematiksel olarak dürüst bir model
    • ElevenLabs ilk günden beri kullanım bazlı ücretlendiriyor; Anthropic ve OpenAI ise tüketici abonelik ekonomisiyle açıkça boğuşuyor
    • Fiyatlandırma ve metrikler değişken hesaplama maliyetini yansıtmıyorsa, kör uçuş yapıyorsunuz
  • Değişim 2: Fiyatlandırma ürünü belirler

    • Kullanım bazlı ve sonuç bazlı fiyatlandırma hâlâ erken aşamada; hibrit modellerin (düşük aylık sabit ücret + kullanım + aşım) çoğu yapay zeka ürününün nihai biçimi olma ihtimali yüksek
    • Fiyat modeli, kullanıcıya başarının tanımını iletir — alttaki birim ekonomisiyle uyumlu olmalı; uyumsuzsa marj erimesi ya da büyüme kısıtı (veya ikisi birden) ortaya çıkar
    • "Aylık $20 sınırsız AI sorgusu" ile "başarılı sonuç başına $0.99" arasındaki fark sadece fiyat modeli değildir; kullanıcı açısından tamamen farklı iki üründür
      • İlki, "özgürce deney yapın, öğrenme maliyetini biz karşılarız" der
      • İkincisi, "biz yalnızca siz kazandığınızda kazanırız" der
    • Çoğu PM’in fiyatlandırma üzerine derinlemesine düşünmesi gerekmiyordu; ancak yapay zeka yerel PM’leri fiyatlandırmayı ürün tasarımının çekirdeği olarak ele almak zorunda
    • Yapay zeka özellikleri, geleneksel SaaS özelliklerinden farklı olarak çalıştırması ucuz değildir — pahalı ama kullanıcıya büyük değer sunmayan bir yapay zeka özelliği her şeyi bozabilir
  • Değişim 3: Deney artık boş bir gösteriş metriği değil

    • Yapay zeka tabanlı ürün geliştirme ile dağıtım hızı patlayıcı biçimde arttı — özellik yayınlamanın maliyeti çöktü
    • Daha hızlı yayın yapıp gerçek deney yürütmüyorsanız, bu **"vibe-stuffing"**dir — sırf mümkün olduğu için, kanıt olmadan özellik eklemek
      • Özelliklerin çoğu değer üretmez; ürünü ve kod tabanını şişirir, kullanıcının algısal yükünü artırır
    • Her yapay zeka özelliği, her kullanımda sürekli çağrı maliyeti yaratır — inference ücretsiz değildir
      • Vibe-stuffing’in şişkinliği sadece karmaşıklık değil, kullanıma göre bileşik şekilde artan bir vergidir
      • Yapay zeka çağında ürün şişkinliği marj katilidir
    • Sağlam deneyler tek savunma hattıdır ve Lean Analytics’in değeri aslında daha da artar
      • Metrik seçme, hipotez yazma, baskı testi yapma ve sonraki eyleme karar verme disiplini; öğrenen ekiplerle sadece yayın yapan ekipleri ayırır
    • Yararlı bir filtre: her deney için yayın öncesi hipotezi ve karar kriterini kaydedin — aksi halde bu bir deney değil, sadece bir sürümdür
    • Ölçülmesi gerekenler: çeyrek başına deney sayısı, yayın öncesinde kaydedilmiş hipotezler, veriye dayalı özellik sonlandırmaları, operasyondaki özellik başına maliyet (yalnızca kullanılıp kullanılmadığı değil, işletme maliyetini haklı çıkarıp çıkarmadığı da)
  • Değer yoğunluğu (Value Density)

    • Bu üç iş modeli değişimini birleştiren ilke: Ben Murray’in (The SaaS CFO) ifadesiyle, "SaaS marj verimliliğiyle ilgiliyse, yapay zeka değer yoğunluğuyla ilgilidir; 1 dolarlık compute başına ne kadar çıktı, üretkenlik ve emek ikamesi optimize edilebiliyor"
    • ICONIQ Ocak 2026 raporu: ölçeklenme aşamasındaki yapay zeka B2B şirketlerinde inference, gelirin %23’ünü oluşturuyor; yapay zeka brüt kâr marjı 2026’da ortalama %52 (2024’teki %41’e göre yükseliş, ancak olgun SaaS’ın %70-90 seviyesinin altında)
    • Bessemer: AI-first şirketlerde brüt kâr marjı %50-60
    • Jason Lemkin: "Büyüdükçe daha fazla inference gerekir ve ürün kalitesini düşürmeden bunu azaltamazsınız"
    • Değer yoğunluğunu ölçmek için üç oran (birbirinden bağımsız hareket eder):
      • Görev başına sunum maliyeti — başarılı bir çıktı üretmek için token ve compute maliyetinin ne kadar olduğu
      • 1 dolar compute başına elde edilen gelir — değişken maliyetleri ve marjı karşılayacak kadar ücret alınıp alınmadığı
      • 1 dolar compute başına kullanıcıya aktarılan değer — çoğu ekibin atladığı metrik budur; sağlıklı teşhis için üçünün de ölçülmesi gerekir

Gelecek: döngüden çekilen insanlar

  • "Aşırı inşa etmek (Build-too-much)" yeni overfitting

    • Bir şeyler inşa etmek o kadar kolaylaştı ki, kullanıcıların özümseyebileceğinden ya da verinin desteklediğinden fazlasını yayınlama riski doğdu
    • Alistair Croll: yapay zeka, silmeyi zorunlu kılan sürtünmeyi ortadan kaldırıyor — eski kodlar yeniden yazma maliyeti yüzünden, eski özellikler ise inşa maliyeti yüzünden kalıyordu; şimdi ise hiçbir şey temizlenmiyor
      • Fallback’ler "görünmez taşıyıcı duvarlar" gibi birikiyor; yapay zeka tarafından üretilen testler, istenen davranışı doğrulamaya değil kendi kendine geçmeye optimize oluyor
      • "Silmek, korumaktan daha riskli hissettiriyor ve sürtünme olmayınca her şey kalıyor"
    • Silmeyi, ekleme kadar dikkatle ölçen PM’ler kazanacak
  • Kullanıcı ajan olduğunda

    • Bir Claude ajanı, insan yerine ürünü UI olmadan kullandığında — kullanıcının kim olduğu, aktivasyonun, oturum süresinin ve etkileşimin ne anlama geldiği belirsizleşir
    • Pratik adım: ajan trafiğini ayrı bir kohort olarak ölçün — user-agent dizgileri, API kalıpları vb. ile "UI’yi bir insan kullanıyor" ile "ajan API’yi çağırıyor" durumlarını ayırın
      • Davranışlar farklıdır, başarı kriterleri farklıdır; ikisini tek metrike karıştırırsanız her ikisi için de yanlış sonuç elde edersiniz
    • Rob May’in HX (Harness Experience) kavramı: UX 30 yıl boyunca insanlara doğru düğmeye tıklatmaya çalıştıysa, otonom ajanlar bütün bunları atlar
      • "Funnel bozulmadı, anlamsızlaştı"
      • HX, bir ajan filosunu yöneten, ona güvenen ve onu denetleyen insanlar için tasarım katmanıdır — kullanıcı artık sürücü değil, direktördür
      • Tıklama ve dönüşüm yerine sonuç, gözetim ve müdahale ölçülür
  • Keşfedilebilirlik (Discoverability) ve yeniden kullanım (Reuse)

    • İki sorun, tek bir kök neden: size ait olmayan yapay zeka, ürünün kullanılıp kullanılmayacağına karar veriyor
    • Keşfedilebilirlik: kullanıcı ChatGPT’ye "Meksika seyahati planlamama yardım et" dediğinde, Expedia, Booking ve Kayak arasında seçimi ChatGPT yapar — aracı seçen kullanıcı değil yapay zekadır
      • 30 yıl boyunca dağıtım, insanların bulup seçmesini sağlamakla ilgiliydi; ajan dünyasında ise yapay zekanın seçim mantığında öne çıkmak için rekabet ediyorsunuz
    • Yeniden kullanım: kullanıcı Canva’ya ücretli abone olsa ve ChatGPT uygulamasını yüklemiş olsa bile, ChatGPT üzerinden tasarım istediğinde Canva’yı çağırıp çağırmamaya her seferinde yapay zeka karar verir
      • Müşteriyi "sahiplenmek", değerin gerçekten oluştuğu anı sahiplenmek anlamına gelmez — bu yeni bir platform riskidir
    • İzlenmesi gereken şey: "ürüne sahip olan veya ödeme yapan kullanıcı" ile "yapay zekanın gerçekten çağırdığı kullanıcı" arasındaki fark
      • Yapay zekanın 30 gün boyunca hiç çağırmadığı ücretli abone, doğrudan giriş yapmayan aboneden daha büyük risk taşır
  • Ajanlara karşı ajan ürünleri

    • Ürün, başka insanların ajanlarıyla işbirliği yapan bir ajan ağı olduğunda — OMTM, yapışkanlık ve churn’ün anlamı hâlâ net değil
    • Hooked modelinin dört aşamasının her birine, beş yıl önce var olmayan sorular ekleniyor:
      • Tetiklemeyi yapay zeka başlattığında tetiklemenin anlamı nedir, eylemi yapay zeka gerçekleştirdiğinde eylemin anlamı nedir, ödülü deneyimlemeyen bir varlık nasıl ödüllendirilir, önceki döngüyü hatırlamayan ya da kusursuz hafızaya sahip sistemlerde yatırım kavramı nasıl uygulanır

Bugün hemen başlanması gerekenler

  • Etkileşim metriklerini denetleyin: “Etkileşim artıyor mu azalıyor mu?” diye değil, “Kullanıcı zamanı neye harcanıyor?” diye sorun — boşa çabalama süresi, etkileşim diye paketlenmiş başarısızlıktır
  • Kohort bazlı kalite görünümü ekleyin: Yeni kullanıcılarla ileri düzey kullanıcıların çıktı kalitesini ayrı ölçün — fark beklenenden büyük olabilir ve onboarding iyileştirme noktalarını tam olarak işaret eder
  • Aktif kullanıcı başına brüt kârı kontrol edin: Ölçütü ödeme yapan kullanıcılar değil aktif kullanıcılar üzerinden kurun — mevcut dashboard, en iyi kullanıcılarınızın en değerli varlığınız mı yoksa en büyük yükümlülüğünüz mü olduğunu göstermiyor olabilir
  • Ajan trafiğini ayrı ölçmeye başlayın: Bugün %2 olsa bile, trafik yapısı değişmeden önce baz çizgisini oluşturmak gerekir
  • Bir eval harness oluşturun: Yapay zekanın istenen işi yapıp yapmadığını sistematik olarak değerlendiremiyorsanız, ortada ürün değil sadece “vibes” vardır
  • Özellik geliştirme yaklaşımını değerlendirin: Sıkı deneyler yürütüp yürütmediğinizi ya da ürünü vibe stuffing ile öldürüp öldürmediğinizi kontrol edin

Henüz yorum yok.

Henüz yorum yok.