41 puan yazan GN⁺ 2026-03-24 | 2 yorum | WhatsApp'ta paylaş
  • Yapay zeka araçlarıyla yazılım geliştirme maliyeti ve gereken insan gücü hızla azalırken, yazılım işinin giriş bariyerinin gerçekte ne olduğu sorusu temel mesele haline geliyor
  • Yapay zekanın artık çoğu dönüştürme işini ikame edebildiği bir dönemde, ajan yapay zekanın kopyalayamayacağı tek moat olarak yalnızca insan tarafından üretilmiş gerçek dünya verisi kalıyor
  • Veri pazarı, insan üretimi veri ve yapay zeka üretimi veri olarak bir ikili ayrışma (bifurcation) yaşıyor; ilki değer kazanırken ikincisi metalaşıyor
  • Basit dönüştürme yazılımları (Excel → PDF → e-posta gibi iş akışları) ajan yapay zeka ile ikame edilebilirken, büyük ölçekli sürekli veri toplama ve system of record yapıları ikame edilemez
  • Gelecekte yazılım işinin temel rekabet gücü, API parity'nin (UI·REST·MCP genelinde işlev eşdeğerliği) sağlanması ve metadata birikimi olacak

Yapay zeka çağında yazılım moat'ının değişimi

  • LLM tabanlı araçlarla karmaşık yazılım geliştirme çarpıcı biçimde kolaylaştı, ancak tamamen çözülmüş değil
    • Hâlâ bir orkestratöre (ne yapılacağını bilen kişi) ihtiyaç var; bu rol yalnızca teknik yetkinlikle değil, ürün yönetimi, müşteri geliştirme ve mühendisliğin kesişiminde yer alıyor
    • Anlamlı bir şey üretmek için gereken ekip büyüklüğü 10 kişiden 3, 2 hatta 1 kişiye doğru düşüyor
  • Yazılım ürünlerini dağıtmak ve bakımını yapmak kolaylaştıkça, mevcut moat'ların çoğu (geliştirme zorluğu, alan bilgisinin ürüne dönüştürülmesi vb.) yapay zeka tarafından büyük ölçüde ikame ediliyor

Verinin Büyük Ayrışması (The Great Data Bifurcation)

  • Veri dünyası iki kola ayrılıyor
    • İnsan üretimi veri: podcast bölümleri, videolar, sosyal medya gönderileri, blog yazıları gibi insanların doğrudan ürettiği içerikler
    • Yapay zeka üretimi veri: AI görselleri, TTS ile sentezlenmiş sesler, tamamen AI tarafından üretilmiş videolar, ajanların yazdığı spam e-postalar vb.
  • İnsan verisi, kıtlığı ve özgünlüğü nedeniyle değer kazanırken, yapay zeka üretimi veri modeller hızlandıkça ve ucuzladıkça emtialaşıyor (commodity)
  • İnsan verisi, onu üreten kişinin sahip olduğu bütün bilginin izlerini taşıdığı için, o veriyi üretebilecek tek özne yine o kişidir
  • Tanım gereği yapay zeka insan üretimi veri oluşturamaz; bu yüzden gerçek dünyada insanlar tarafından üretilmiş, doğrulanmış ve rafine edilmiş veri, önümüzdeki 10 yılda yazılım girişimcileri için tek güvenilir moat olacak

Podscan örneği: veri moat'ının pratiği

  • Podcast izleme hizmeti Podscan'in temel değeri RSS akışlarını toplama hızı ya da API yanıt süresi değil
    • Asıl değer, 50 milyon podcast bölümünün transcription ve yapay zeka analizi (anahtar kelime, tema, duygu analizi) verisinde yatıyor
  • Herkese açık veriyi (podcast bölümleri) toplayıp bunu transcription, dönüştürme ve erişilebilir bir biçime getirme süreci temel katma değeri oluşturuyor
    • Marka anmalarını izleme, gerçek zamanlı trendleri anlama, podcast sponsorluklarını değerlendirme gibi farklı amaçlarla kullanılabiliyor
  • Veri doğruluğu (fidelity) ve güncelliği (freshness) arttıkça müşterinin algıladığı değer de yükseliyor
    • UI kullanışsız ya da API kısıtlı olsa bile müşteriler veriye erişmenin bir yolunu buluyor — asıl mesele verinin kendisi
  • Yalnızca bir URL verildiğinde transcription ve analiz yapan bir özellik sunsaydı, bu Claude Code içinde bir skill olarak 2 saat içinde ikame edilebilirdi
  • Günde 50 bin bölümü toplayıp transcription ve analizini ajanlarla yapmak, API maliyetini günlük on binlerce dolar seviyesine çıkararak pratikte imkânsız hale getiriyor

Dönüştürme odaklı yazılımların kırılganlığı

  • Girdi verisini alıp işleyerek çıktı üreten salt dönüştürücü (transformative) yazılım, ajan yapay zekaya karşı kırılgan
    • Örnek: "ChatGPT, bu Excel dosyasından bir rapor oluştur, bunu PDF olarak dışa aktar ve e-postayla gönder" — dış servis olmadan otonom biçimde yapılabilir
    • Excel parsing, analiz sorguları, PDF render etme ve e-posta gönderimi yapay zeka tarafından doğrudan uygulanabilir ya da mevcut uygulamalar kullanılabilir
  • Excel→rapor→e-posta gibi iş akışlarına yönelik SaaS işi artık gerekli değil
  • Buna karşılık büyük ölçekli sürekli veri toplama, ajanların ikame etmekte zorlandığı bir alan
    • Bunun nedeni ajanların yalnızca oturum bazlı var olmasıdır (Cursor, Claude Code, ChatGPT konuşmaları vb.); yani geçici bir karaktere sahip olmaları
    • Sürekli çalışan tarama ve görev ajanları, token tüketimi çok yüksek olduğu için ekonomik olarak gerçekçi değil

API-first iş stratejisi

  • Günümüz yazılım işlerinde API-first stratejisi, en akıllıca tercihlerden biri
    • MCP, mevcut REST API'lerin üzerine oturan bir katmandan ibaret; programatik erişim, MCP, API ve webhook'ların hepsi özünde bilgisayarlar arasında güvenilir bağlantı anlamına geliyor
  • Kurucular arasında UI ve API işlev eşdeğerliği (parity) talebi artıyor
    • UI'da yapılabilen her şey API üzerinden de aynı şekilde yapılabildikçe, müşterinin ürünü benimseme ihtimali artıyor
    • Ajan çağında otomasyon kapasitesi, satın alma kararının temel unsurlarından biri haline geliyor
  • Podscan, bir platform parity tracking file işletiyor
    • Her özellik için UI, REST API ve MCP desteğinin olup olmadığı tablo halinde yönetiliyor
    • Claude Code alt ajanı, codebase'i analiz ederek bu dosyayı düzenli olarak güncelliyor
    • "Podcast arama" gibi basit özelliklerden "marka anma anahtar kelime uyarısı → listeye ekleme → webhook tetikleme" gibi karmaşık işlevlere kadar kapsıyor
  • İnsan kullanıcılar, bilgisayar kullanıcıları ve ajan kullanıcılar olmak üzere üç tür kullanıcıya da eşit hizmet verilmeli

Metadata moat'tır

  • Veri moat'ı yalnızca podcast verisiyle sınırlı değil
  • Platform kullanımı sırasında toplanan metadata (gönderi saatleri, etkileşimin yüksek olduğu zamanlar, etkileşim yaratan içerik türleri vb.) benzersiz bir veri moat'ı oluşturuyor
    • Örnek: Twitter ya da Facebook gönderi araçlarında kullanıcı davranış kalıpları verisi moat işlevi görür
  • Veriye sahip olmak moat'ın yarısıysa, veriyi erişilebilir kılmak diğer yarısıdır
  • Asıl görev, ürününüzün içinde hangi dahili katma değerli veri kaynaklarının bulunduğunu anlamak ve bunları bağlanabilir, erişilebilir hale getirmektir

2 yorum

 
minelee 2026-03-24

AlphaGo eğitimi, AlphaGo vs AlphaGo öz maç verileriyle yapıldığı gibi, LLM eğitimi de LLM ile veri üretilip bununla eğitiliyor. Elinizde birkaç veri örneği varsa verileri üretmek de kolay olduğundan, bunun da güvenli bir hendek olduğunu söylemek zor.

 
rlaaudgjs5638 2026-03-25

Pekiştirmeli öğrenme ile derin öğrenme arasındaki fark gibi de geliyor. Belirleyici bir geri bildirim döngüsünün sağlanamadığı yerlerde, insan verisi hâlâ bir hendek gibi görünüyor.