18 puan yazan GN⁺ 2025-11-25 | 4 yorum | WhatsApp'ta paylaş
  • 200 yapay zeka girişiminin tersine mühendislikle incelenmesi sonucunda, çok sayıda şirketin kendi teknolojisine sahip olduğunu iddia etmesine rağmen gerçekte harici API çağrıları ile çalıştığı görüldü
  • İncelenen şirketlerin %73’ünün OpenAI veya Claude API’sini doğrudan kullandığı, bunun üzerine yalnızca basit bir arayüz ya da birkaç özellik eklediği tespit edildi
  • Kendi “özgün LLM”’ini öne çıkaran girişimlerin önemli bir kısmı gerçekte api.openai.coma istek gönderen birer GPT-4 wrapper’ından ibaretti; yalnızca basit sistem prompt’ları eklenmiş bu yapıları onlarca ila yüzlerce kat marjla sattıkları görüldü
  • RAG mimarisini öne çıkaran hizmetlerin büyük bölümü de OpenAI text-embedding-ada-002 · Pinecone/Weaviate · GPT-4 birleşiminden oluşan standart 40 satırlık stack’i “özgün altyapı” gibi sunuyordu; 1 milyon sorgu bazında aylık yaklaşık 30 bin dolar maliyete karşılık 150 bin ila 500 bin dolar gelirle %80–94 marj yapısı sergiledikleri görüldü
  • Buna karşılık toplamın %27’si, “Built on GPT-4” gibi kullandığı stack’i şeffaf biçimde açıklayan wrapper şirketlerden, gerçekten kendi modelini eğiten geliştiricilerden ve çoklu model oylaması ya da agent framework’leri gibi gerçek teknik farklılaşma sunan ekiplerden oluşuyordu
  • Araştırma, birçok yapay zeka girişiminin gerçekte API tabanlı bir hizmet işi olmasına rağmen bunu “özgün yapay zeka altyapısı” olarak pazarladığını ortaya koydu; ayrıca yatırımcıların, müşterilerin ve geliştiricilerin yalnızca DevTools’ta ağ sekmesini açarak bile bunu doğrulayabileceği vurgulanarak yapay zeka ekosisteminde dürüst teknik açıklama ihtiyacı öne çıkarıldı

Genel Bakış

  • Dış yatırım almış 200 yapay zeka girişiminin web uygulamaları üzerinde, ağ trafiği, kod ve API çağrıları izlenerek pazarlama söylemleri ile gerçek teknoloji stack’i arasındaki fark analiz edildi
    • Çıkış noktası, “özgün derin öğrenme altyapısı” iddiasındaki bir şirketin gerçekte yalnızca OpenAI API çağırdığı şüphesi oldu
    • Bu şirket 4,3 milyon dolar yatırım almıştı ve “temelden farklı bir altyapı kurdukları” anlatısıyla fon toplamıştı
  • Araştırma sonucunda şirketlerin %73’ünde, iddia edilen teknoloji ile gerçek uygulama arasında anlamlı bir uçurum bulundu; bunların önemli kısmının üçüncü taraf model API’lerini basitçe saran yapılardan oluştuğu görüldü
    • İncelenen örneklem; YC, Product Hunt ve LinkedIn’deki “We’re hiring” gönderileri gibi kaynaklardan toplanan 200 yapay zeka girişiminden oluştu; kuruluşunun üzerinden 6 aydan az geçmiş şirketler hariç tutuldu ve dış yatırım almış, somut teknik iddialarda bulunan şirketlere odaklanıldı
    • İnceleme yöntemi, tarayıcı geliştirici araçları seviyesinde pasif gözlemle yürütüldü; özel sistemlere erişim, kimlik doğrulama atlatma veya hizmet şartlarını ihlal etme olmadan gerçekleştirildi

Araştırma Yöntemi (Methodology)

  • Playwright ve aiohttp kullanılarak otomatik bir analiz pipeline’ı kuruldu ve her girişim sitesinde ortak olarak üç şey toplandı
    • capture_network_traffic(url) ile ağ başlıkları ve istek kalıpları yakalandı
    • extract_javascript(url) ile JS bundle’ları decompile edilip analiz edildi
    • monitor_requests(url, duration=60) ile 60 saniye boyunca API çağrı kalıpları izlendi
  • Her site için şu bilgiler yapılandırılmış biçimde kaydedildi
    • claimed_tech: pazarlama metinleri ve web kopyalarında yer alan teknoloji iddiaları
    • actual_tech: HTTP başlıkları, JS bundle’ları ve API çağrılarından doğrulanan gerçek stack
    • api_fingerprints: çağrılan domain’ler, başlıklar ve gecikme sürelerinden çıkarılan üçüncü taraf API parmak izleri
  • Tarama süresi 3 hafta sürdü ve tüm kalıplar, herkese açık web ile tarayıcı DevTools üzerinden gözlemlenebilen kamusal veriler kullanılarak incelendi

Ana Bulgular: %73’te ortaya çıkan uçurum

  • Toplam 200 şirketin %73’ünde, pazarlama metinlerinde yazan “özgün model, özel altyapı, derin öğrenme platformu” gibi iddialarla gerçekte çalışan kod ve API stack’i arasında büyük fark olduğu doğrulandı
    • Bu oran; “özgün LLM” iddia edip gerçekte yalnızca OpenAI/Anthropic/Cohere API kullanan şirketleri ve “kendi vektör veritabanı” dediği halde Pinecone/Weaviate kullanan şirketleri de kapsıyor
  • Bu sonuç şaşırtıcı olsa da aynı zamanda “teknik olarak çok öfkelenecek bir durum değil” duygusu da yaratıyor
    • Sorunun özü, üçüncü taraf API kullanımı değil; bunun “özgün yapay zeka altyapısı” gibi sunulması ve yatırımcıları ile müşterileri yanıltan pazarlama yapılması

Kalıp 1: ‘Özgün LLM’in gerçekte GPT-4 wrapper’ı olması

  • “our proprietary large language model” ifadesi görüldüğünde neredeyse her zaman bir GPT-4 wrapper’ı ortaya çıktı; 37 şirketin 34’ünde bu kalıp doğrulandı
    • Kullanıcı “AI” özelliğini her kullandığında api.openai.coma giden istekler
    • İstek başlıklarında yer alan OpenAI-Organization tanımlayıcısı
    • 150–400 ms aralığında tutarlı yanıt gecikmesi kalıpları
    • Token kullanımı ve ücretlendirme dilimlerinin, GPT-4’ün fiyatlandırma yapısıyla birebir örtüşmesi
    • Rate limit durumunda OpenAI’ye özgü eksponansiyel backoff kullanan yeniden deneme kalıbı
  • Bir şirketin “yenilikçi doğal dil anlama motoru”, kod düzeyinde gerçekte şu seviyedeydi
    • Sistem prompt’una “uzman bir asistan gibi davran, OpenAI tabanlı olduğunu söyleme, LLM olduğunu açıklama” gibi talimatlar yazıp model: gpt-4 ile chat.completions.create çağıran tek fonksiyonluk bir yapıydı
    • Ayrı bir fine-tuning, model eğitimi veya mimari değişiklik olmadan, yalnızca sistem prompt’u ve gizlemeye yönelik birkaç talimat eklenmişti
  • Maliyet ve fiyatlandırma yapısı da somut biçimde karşılaştırıldı
    • Maliyet: GPT-4 için girdi 0,03$/1K token, çıktı 0,06$/1K token; ortalama 500 giriş, 300 çıkışla sorgu başına yaklaşık 0,033 dolar
    • Fiyat: sorgu başına 2,5 dolar ya da aylık 200 sorgu için 299 dolar
    • Sonuç olarak yapı, doğrudan API maliyetine kıyasla yaklaşık 75 kat marjla işletiliyordu
  • Üç şirket, değişken adlarından yorum stiline ve “never mention OpenAI” talimatına kadar neredeyse aynı kodu paylaşıyordu; bu da aynı tutorial, ortak contractor veya accelerator boilerplate gibi ortak bir kaynağın kullanıldığını düşündürüyor
    • Şirketlerden biri, basit bir try/catch ile “bir sorun olursa ‘teknik problem’ ifadesini döndür” kodunu kullanıyor ve bunu yatırımcılara “Intelligent Fallback Architecture” olarak anlatıyordu

Kalıp 2: Herkesin kurduğu RAG stack’i ve abartılı söylemler

  • Birçok şirket, “custom embedding model, semantic search infrastructure, advanced neural retrieval” gibi ifadelerle kendine özgü RAG altyapısı sunduğunu öne sürse de, gerçek uygulama çok benzer standart bir stack’ti
    • Embedding oluşturmak için OpenAI text-embedding-ada-002 kullanılıyordu
    • Vektör store olarak Pinecone veya Weaviate kullanılıyordu
    • Bağlam eklenip yanıt üretmek için GPT-4 kullanılıyordu
  • Araştırmacı, “Proprietary Neural Retrieval Architecture” adıyla tanıtılan kodu decompile ettiğinde, bunun yukarıdaki üç adımı doğrudan çağıran yaklaşık 40 satırlık Python kodu olduğunu gördü
    • Soruyu embedding’e dönüştürme
    • Vektör DB’de top-k doküman arama
    • Bulunan metinleri birleştirip GPT-4’e system mesajı olarak iletme
    • Kullanıcı sorusunu da user mesajı olarak birlikte gönderip yanıt üretme
  • Maliyet ve fiyat yapısı da çok büyük fark gösteriyordu
    • OpenAI embedding: 1K token başına 0,0001 dolar
    • Pinecone sorgusu: çağrı başına 0,00004 dolar
    • GPT-4 completion: 1K token başına 0,03 dolar
    • Toplamda sorgu başına maliyet yaklaşık 0,002 dolar düzeyindeydi
    • Gerçek müşteri ücretlendirmesi ise sorgu başına 0,5~2 dolar seviyesindeydi; yani API maliyetine kıyasla 250~1000 kat marj oluşuyordu
  • 42 şirketin neredeyse aynı stack ve kod yapısını kullandığı, buna ek 23 şirketin de %90’dan fazla benzer örüntü paylaştığı görüldü
    • Farklar çoğunlukla Pinecone vs Weaviate tercihi, değişken adları ve Redis cache eklenip eklenmediği düzeyindeydi
    • Redis cache ekleyip bunu “optimization engine”, retry mantığı ekleyip bunu “Intelligent Failure Recovery System” gibi adlarla pazarlayan örnekler de vardı
  • Aylık 1 milyon sorgu seviyesindeki bir startup’ın ekonomisi de hesaplandı
    • Maliyet: embedding için yaklaşık 100 dolar, Pinecone hosting için yaklaşık 40 dolar, GPT-4 completion için yaklaşık 30 bin dolar, toplamda aylık yaklaşık 30.140 dolar
    • Gelir: aylık 150 bin~500 bin dolar
    • %80~94 seviyesinde yüksek brüt kâr marjına sahip bir iş yapısı

Örüntü 3: ‘Biz kendimiz fine-tune ettik’in gerçekte anlamı

  • “Biz kendimiz modeli fine-tune ettik” ifadesini kullanan şirketlerin altyapısı izlendiğinde, bunların büyük ölçüde iki gruba ayrıldığı görüldü
    • Küçük bir kısmı (yaklaşık %7) gerçekten AWS SageMaker, Google Vertex AI gibi servisler üzerinden kendi eğitim job’larını çalıştırıyor, model artifact’lerini S3 bucket’larda saklıyor ve ayrı inference endpoint’leri ile GPU instance monitoring işletiyordu
    • Çoğunluk ise OpenAI’nin fine-tuning API’sini kullanıyordu; yapı fiilen “OpenAI’ye örnek veri ve prompt gönderip saklatma” seviyesine daha yakındı
  • İlk grupta (gerçekten kendi eğitimini yapanlar) eğitim altyapısı ve deployment pipeline’ı tarayıcıdan gözlemlenebilecek ölçüde bir miktar görünürken, ikinci grupta fark çoğunlukla tek bir OpenAI endpoint çağrısı olarak ortaya çıkıyordu

Wrapper şirketleri hızlı ayırt etme yöntemleri

  • Ağ trafiği örüntüleri

    • Tarayıcıda DevTools(F12) → Network sekmesini açıp, servisin yapay zeka özelliğini kullanırken çıkan istekleri izlemek basit bir ayrım yapmayı mümkün kılıyor
      • api.openai.com
      • api.anthropic.com
      • api.cohere.ai
      • gibi domain’ler doğrudan görünüyorsa, bu temelde bir üçüncü taraf model API wrapper’ı olarak değerlendirilebilir
    • Yanıt gecikme süresi de bir parmak izi işlevi görüyor
      • Özellikle OpenAI API’de, yanıtların 200~350ms aralığında kümelendiği kendine özgü bir latency örüntüsü bulunduğundan, buna bakarak arka uçtaki modeli tahmin etmek mümkün olabiliyor
  • JavaScript bundle’ları ve anahtar sızıntıları

    • Sayfa kaynağında ve JS bundle’larında şu anahtar kelimeleri aramak da basit bir yöntem
      • openai, anthropic, claude, cohere, sk-proj-(OpenAI proje anahtarı öneki) vb.
    • İnceleme sırasında 12 şirket, API anahtarlarını frontend koduna olduğu gibi gömülü halde dağıtıyordu; bununla ilgili ihbar e-postası gönderilmiş olsa da hiçbir şirket yanıt vermedi
  • Pazarlama dili matrisi

    • Pazarlama metinlerinde görülen dil ile gerçek teknik uygulama arasındaki örüntüler tablo halinde düzenlenerek “Marketing Language Matrix” olarak adlandırıldı
      • “GPU instance türü, serving architecture, model boyutu” gibi somut teknik terimler geçiyorsa, şirketin gerçekten belli ölçüde bağımsız bir altyapıya sahip olma olasılığı daha yüksekti
      • Buna karşılık “advanced AI”, “next-gen intelligence”, “proprietary neural engine” gibi yalnızca soyut buzzword’ler tekrarlandıkça, içeride üçüncü taraf API wrapper’ı olma ihtimali yükseliyordu

Altyapı gerçekliği haritası ve yapay zeka startup manzarası

  • Yazı, çeşitli diyagramlarla mevcut yapay zeka startup’larının altyapı gerçekliği haritasını özetliyor
    • Birçok startup’ın, OpenAI·Anthropic·Cohere gibi model sağlayıcılarının üstüne ince bir uygulama katmanı koyan bir yapıda var olduğu görülüyor
    • Her katmanın üzerinde “workflow·UX·alan verisi·pipeline” gibi noktalarda farklılaşmaya çalışan servisler birikiyor
  • Bu yapı temelinde, yapay zeka startup’larının önemli bir bölümünün gerçekte servis/platform işi olduğu ve “kendine özgü yapay zeka altyapı şirketi” şeklindeki öz algıyla arasında bir kopukluk bulunduğu belirtiliyor

Bu mesele neden önemsenmeli?

  • “İyi çalışıyorsa ne fark eder?” sorusuna karşılık araştırmacı, dört paydaş açısından gerekçelerini sıralıyor
    • Yatırımcılar: Hâlihazırda birçok şirkete yönelen sermaye, yapay zeka araştırması veya model geliştirmeye değil, fiilen prompt engineering ve workflow katmanına gidiyor
    • Müşteriler: Gerçek API maliyetinin üzerine 10 kattan fazla premium ödüyorlar ve benzer işlevleri çoğu zaman bir hafta sonu projesi düzeyinde kendileri de geliştirebilirler
    • Geliştiriciler: Dışarıdan görünen “yapay zeka startup’ı” parıltısına kıyasla, gerçekte bunların çoğu düşük giriş bariyerli wrapper servisleri; dolayısıyla kendilerinin de benzerini kısa sürede yapabileceğini fark etmeleri gerekiyor
    • Ekosistem: “Yapay zeka şirketlerinin” %73’ünün teknolojiyi abartması veya yanlış yansıtması, genel olarak balona yakın bir duruma işaret ediyor ve sağlıksız teşvikler yaratıyor

Wrapper spektrumu: Her wrapper kötü değildir

  • “Wrapper Spectrum” adlı bir diyagram üzerinden, wrapper şirketler arasında da nitelik bakımından farklı katmanlar bulunduğu anlatılıyor
    • Bir uçta, yalnızca üçüncü taraf API’nin üzerine ince bir UI giydiren wrapper’lar var
    • Diğer uçta ise alana özgü workflow’lar, güçlü UX, model orkestrasyonu ve değerli veri pipeline’ları sunan gelişmiş wrapper’lar yer alıyor
  • Ana mesaj, meselenin “wrapper olup olmamak” değil, dürüstlük ve değerin nasıl sunulduğu olduğu
    • Üçüncü taraf API kullansa da bunu şeffaf biçimde açıklayan ve problemi çözme, deneyim ya da veri tarafında farklılaşan şirketler olumlu değerlendiriliyor

İşi düzgün yapan %27

  • Kategori 1: Şeffaf wrapper’lar (Transparent Wrappers)

    • Bu gruptaki şirketler ana sayfalarında "Built on GPT-4" gibi ifadeleri açıkça yazıyor ve sattıkları şeyin iş akışı, UX ve alan bilgisi olduğunu net biçimde ortaya koyuyor
      • Örnek: GPT-4 + hukuki şablon kombinasyonuyla hukuki belge otomasyonu sunan bir hizmet
      • Örnek: Claude tabanlı, müşteri destek bilet yönlendirmesi konusunda uzmanlaşmış bir hizmet
      • Örnek: Birden fazla modeli ve insan inceleme sürecini birleştiren içerik iş akışı hizmeti
  • Kategori 2: Gerçek inşa ediciler (Real Builders)

    • Bu grup, gerçekten kendi modellerini eğiten şirketlerden oluşuyor
      • Sağlık alanında HIPAA uyumluluğu için self-hosted modeller işleten bir sağlık yapay zeka şirketi
      • Finansal analiz için özel risk modellerini eğiten ve işleten bir hizmet
      • Endüstriyel otomasyonda özel bilgisayarlı görü modelleri geliştiren ve dağıtan bir hizmet
  • Kategori 3: Yenilikçi kombinasyonlar (Innovators)

    • Burada, üçüncü taraf modeller kullansa da bunların üzerine gerçek anlamda yeni bir yapı kurmuş şirketler yer alıyor
      • Birden fazla modelin çıktısını birleştirerek oylama tabanlı doğruluk artışı sağlayan bir sistem
      • Bellek ve ajan framework’leri oluşturarak karmaşık görevleri yerine getiren bir sistem
      • Yeni tür bir retrieval mimarisi benimseyen örnekler vb.
    • Bu şirketlerin ortak noktası, mimarilerini ayrıntılı biçimde açıklayabilmeleri ve gerçekten kendilerinin inşa ettiği bir yapıya sahip olmaları

Çıkarılan ders: stack’ten çok problem, bir de dürüstlük

  • 3 haftalık araştırmanın sonucu şöyle özetlenebilir
    • Teknoloji stack’inin kendisinden çok çözülmek istenen problem daha önemli ve gerçekten en iyi ürünlerin önemli bir kısmı, “sadece wrapper” denebilecek bir yapıya sahipti
    • Ancak dürüstlük ayrı bir boyutta önemli; akıllı wrapper ile aldatıcı wrapper arasındaki fark şeffaflıkta yatıyor
    • Yapay zeka altına hücumu, “özgün AI” bekleyen yatırımcı ve müşterilerin beklentileri nedeniyle yanıltıcı iddialara iten teşvikler yaratıyor
    • Ve API üzerinde inşa etmek başlı başına utanılacak bir şey değil; sorun, bunu gizleyip “özgün sinir ağı mimarisi” gibi sunmakta

Değerlendirme çerçevesi ve pratik tavsiyeler

  • 48 saatlik kopyalanabilirlik testi

    • Tüm “AI startup”larını değerlendirmek için basit bir ölçüt öneriliyor
      • "Onların çekirdek teknolojisi 48 saat içinde kopyalanabilir mi?"
      • Eğer evetse, teknik olarak bu bir wrapper’dır ve
        • stack’ini dürüstçe açıklıyorsa iyi bir şirket,
        • bunu gizleyip “özgün AI altyapısı” iddia ediyorsa uzak durulması gereken bir şirket olarak görülmelidir
  • Kurucular için tavsiye

    • Kuruculara şu ilkeler öneriliyor
      • stack hakkında dürüstçe açıklama yapmak
      • UX, veri ve alan uzmanlığıyla rekabet etmek
      • Yapmadıkları bir şeyi yapmış gibi göstermemek
      • “Built with GPT-4” ifadesini zayıflık değil, dürüst bir açıklama olarak kabul etmek
  • Yatırımcılar için tavsiye

    • Yatırımcılar için şu doğrulama noktaları sunuluyor
      • Mimari diyagramı istemek
      • Gerçek bağımlılığı görmek için OpenAI, Anthropic vb. API faturalarını talep etmek
      • Wrapper şirketleri, wrapper şirketi olarak uygun şekilde değerlemek
      • stack’ini dürüstçe açıklayan ekipleri teşviklerle ödüllendirmek
  • Müşteriler için tavsiye

    • Müşterilere şu pratik adımlar öneriliyor
      • Tarayıcıda network sekmesini açıp giden istekleri kontrol etmek
      • Altyapı ve model kullanım biçimi hakkında doğrudan soru sormak
      • API çağrıları için gereksiz 10 katı aşan bir markup ödeyip ödemediklerini incelemek
      • Teknik iddialardan çok gerçek sonuçlar ve problem çözme yeteneği temelinde değerlendirmek

“AI startup”larının gerçek yüzü: tek cümlelik özet

  • “Çoğu ‘AI startup’, çalışan maliyeti yerine API maliyeti kullanan hizmet işletmelerine daha yakındır”
    • Bu, yanlış bir iş modeli değil; aksine olduğu gibi kabul edilip dürüstçe anlatılması gereken bir gerçek

Araştırma sonrası gelişmeler ve tepkiler

  • 1. hafta: Başta yalnızca %20-30 kadarının üçüncü taraf API kullandığını tahmin ettiğini, ancak sonucun çok daha büyük çıktığını belirtiyor
  • 2. hafta: Bir kurucu araştırmacıya “Üretim ortamımıza nasıl girdin?” diye sormuş; araştırmacı ise sadece tarayıcının network sekmesine baktığını söylemiş
  • 3. hafta: İki şirket araştırma sonucunun kaldırılmasını talep etmiş, ancak yazıda belirli şirket adlarının açıklanmadığı ve bunun hâlâ böyle sürdüğü belirtiliyor
  • Dün: Bir VC, bir sonraki yönetim kurulu toplantısından önce portföy şirketlerinin denetlenmesini (audit) istemiş; araştırmacı da bunu kabul ettiğini söylüyor

Veri ve araçları paylaşma planı

  • Bu araştırmaya dayanarak metodolojiyi ve araçları paylaşmayı planlıyor
  • GitHub’da yayımlanacak içerikler (ücretsiz)

    • Tam scraping altyapısı kodu
    • API fingerprint’lerini çıkarma teknikleri
    • Herkesin çalıştırabileceği tespit script’leri
    • Başlıca yapay zeka API’lerine göre yanıt süresi örüntüleri derlemesi
  • Derinlemesine analiz (yalnızca üyeler için)

    • Aylık 33 milyon dolar değerleme almış bir “AI unicorn”un, gerçekte ayda yalnızca 1.200 dolarlık OpenAI maliyeti kullandığı vaka
    • “100 milyon parametreli model” diye tanıtılan ama gerçekte 3 system prompt’tan oluşan bir yapı
    • Herkese açık servis edilen production code’dan (istemci tarafı, anonimleştirilmiş snippet’ler) örnekler
    • Wrapper’ı anında ortaya çıkaran 5 soruluk çerçeve
    • Yatırımcı sunumları ile gerçek altyapıyı karşılaştıran vaka çalışmaları

Son mesaj ve ‘dürüst yapay zeka çağı’ ihtiyacı

  • Araştırma, şirket isimlerini açıklamadan yalnızca kalıpları paylaşma yöntemiyle yürütüldü ve piyasanın eninde sonunda şeffaflığı ödüllendireceğine olan inancı vurgulanıyor
  • Gerçekten de 18 şirketin hakiki anlamda yeni teknoloji geliştirdiği doğrulandı ve
    • onlara “Kim olduğunuzu siz biliyorsunuz, üretmeye devam edin” şeklinde bir destek mesajı gönderiliyor
  • Araştırmanın ardından 7 kurucu özel olarak iletişime geçti
    • Bazıları savunmacıydı, bazıları teşekkür etti; üçü ise “proprietary AI” ifadesinden “best-in-class API’ler üzerinde inşa edildi” söylemine pazarlama geçişine nasıl yardımcı olunacağını sordu
    • Bir kurucunun, “Yalan söylediğimizi biliyorduk, yatırımcılar bunu bekliyordu, herkes böyle yapıyor, şimdi buna nasıl son vereceğiz?” dediği aktarılıyor
  • Yazının sonunda, yapay zeka altına hücumunun bitmeyeceği ama dürüstlük çağının başlaması gerektiği bir kez daha vurgulanıyor; herkesin yalnızca DevTools’taki Network sekmesini (F12) açarak gerçeği kendi gözleriyle görebileceği söyleniyor

4 yorum

 
geekygeek 2025-11-25

Yorumlarda şu ifade var: "Yazarın gerçekten var olup olmadığı bile şüpheli. Veri kaynağı da belirsiz ve ağ trafiği de kafasına göre yakalanamaz. Temel düzeyde doğrulama gerekiyor"; ben de buna katılıyorum.
Medium profilinde yazan LinkedIn bağlantısı da var olmayan bir sayfaya gidiyor; sanki en baştan beri var olmayan bir kişi gibi. 25 Kasım'da GPT-4o değil de sürekli GPT-4'ten bahsetmesi de tuhaf.

Abonelikli ödeme sistemi bile ekleyip gelir elde edecek düzeyde bir geliştiricinin, AI API ile iletişimi sunucu yerine istemci tarafında kurup bunun bu kadar kolay tespit edilmesine yol açması da... inanması zor.

 
mhj5730 2025-11-25

Ajan yapmayı denediğinizde, prompt engineering'i yapay zekayı kullanan ve son derece yüksek üretkenliğe sahip bir uygulama olarak görmeye başlarsınız.

 
GN⁺ 2025-11-25
Hacker News görüşleri
  • 2023, her hafta bir prompt demosu gösterilen yıl gibiydi
    AWS etkinliklerinde bile sunum yapan kişi Claude’u açıp rastgele prompt’lar yazarak bir saati dolduruyordu
    Bizim ekip de 6 aydır “agent” yaptığını söyleyerek araçlar, connector’lar ve değerlendirme sistemleri ekledi, ama sonunda yine prompt engineeringe geri döndü

    • “Bir sonraki aşama offshore etmek değil mi?” diye şaka duydum
    • Prompt engineering’i ciddi ciddi kullanan insanlara inanmak zor. Şirket e-postasında bu terimi görürsem doğrudan geçiyorum
    • Ama o projenin gerçekten çalışıp çalışmadığını merak ediyorum. Birçok şirket AI Agent yaptığını söylüyor ama düzgün çalışanını hiç görmedim. Döngüyü kapatınca LLM sadece bocalıyordu
    • Sonuçta mevcut çözümü yeniden saran yeni bir çözüm yapmış oluyorsun; bu yüzden yazılım geliştirme sonsuza kadar sürecek gibi görünüyor
  • Eskiden bir mentorum, “teknolojide uzman dediğin, başkalarından bir iki şey daha fazla bilen kişidir” derdi
    Bu yüzden bugünkü prompt engineering furyasını doğal bir akış olarak görüyorum. Teknoloji ne kadar yeniyse, genelde mevcut stack’in üstüne bir iki şey daha eklenerek gelişiyor

    • İyi bir danışmanın sırrının, toplantıya giderken yolda ne okuyacağını bilmek olduğunu duymuştum
    • Basit prompt ayarlamaları bile test ve tuning için çok zaman istiyor. Her model için en iyi varyasyonu bulmak işin özü
    • Ben ise karmaşık stack’leri azaltıp aynı etkiyi basitleştirme stratejisi ile elde eden yaklaşımı daha ilginç buluyorum
  • “Bu sadece prompt engineering” demek, gerçekte yüksek performanslı sistem kurmanın zorluğunu hafife alıyor
    Değerlendirme metriği tasarımı, tool çağrıları, caching gibi şeyler basit prompt seviyesinde değil. Sonucu gösterebiliyorsan, yatırım bulmak kolay olur

    • Gerçekte çoğu şey prompt + CRUD seviyesinde ve şirketlerin çoğu aslında birer CRUD şirketi
    • Yatırımın akmasının nedeni sonuçlar değil, AI balonu ve yatırımcıların getiri hırsı. Aslında altın madeni yerine kürek satılıyor
    • Düzgün bir değerlendirme süreci kurmuş olanlar bunun ne kadar zor olduğunu anlar
    • Ama çoğu şirket içi AI projesi değerlendirme bile yapmıyor. FAANG’de bile oran %5’in altında
  • 2025 Kasım’ında GPT-4’ten söz eden bir yazı görmek şüpheli
    Ağ trafiği üzerinden AI sağlayıcısını ayırt ettiklerini söyleyen metodoloji de tuhaf. Çünkü frontend’den doğrudan API çağrısı yapmak, güvenlik anahtarını ifşa etme riski taşır
    Araştırma yönteminde bir tuhaflık kokusu var

    • OpenAI, doğrudan çağrı yapılabilmesi için istemci anahtarı sağlıyor. Resmi dokümantasyona bakın
    • Eski model adlarından söz edilmesi de LLM üretimi izleri gibi duruyor
  • “O zaman tam olarak ne yapılmalı?” sorusu geliyor
    90’larda konsol sistemlerinin üstüne UI koymak bile harika bir startup fikriydi

    • Sorun, kendine AI şirketi deyip gerçekte CRUD uygulaması yapmak. Teknik olmayanlar bu farkı ayırt etmekte zorlanıyor
    • Bir gün OpenAI ucuza satmayı bırakırsa, küçük ve alan odaklı modeller yapmak gerekecek
    • Bunu piyasa mantığına bırakmak lazım. Ama AI çılgınlığı yüzünden tüm yazılım sektörü yorulmuş durumda
    • Basit wrapper platformlarını “AI” diye paketlemek tehlikeli. Dot-com balonundakine benzer savunmasız bir yapı var
    • Yapılan şey gerçek AI üretmek değil, sadece LLM kullanmak
  • Aslında bu tür bir durum AI öncesi startup dünyasında da yaygındı
    Mevcut teknolojiyi sarıp sadece UX’i iyileştirerek bile büyük para kazanılıyordu. İçeride açık kaynak araçların birleşimi vardı ama kârlılık o kadar yüksekti ki kendi çözümünü geliştirmenin anlamı yoktu

  • Bunu ChatGPT çıktıktan hemen sonra düşünmüştüm
    Eğer bir şirket gerçekten AGI sahibi olsaydı, onu satmak için bir nedeni olmazdı. Kendi hizmetlerini doğrudan yapar, rakiplerini ezer geçerdi

    • Aslında AGI olmasa da aynı döngü yaşanıyor
      1. Startup’lar GPT/Claude’u sarıp yeni kullanım senaryoları yaratıyor
      2. OpenAI ya da Anthropic bu özelliği doğrudan kendisi geliştirip yayımlıyor
      3. Wrapper’ların moat’u (giriş engeli) yok ve temel model şirketleri için de rekabet etmek kolay
  • LLM yapan şirket sayısı az ve sundukları yetenekler de birbirine benziyor
    Sonuçta otomasyonun özü prompt engineering
    Mobil uygulamalarda olduğu gibi, Big Tech isterse bunu kolayca kopyalayabilir. Perplexity ve Cursor da risk altında

    • Ama ROI’si düşük fikirlerle Big Tech uğraşmaz. Milyonlarca gelir getirmeyen niş pazarlarda hâlâ fırsat var
  • Sorunlu olan, ilgili makalenin kendisinin de AI üretimi içerik gibi görünmesi
    Yazarın veriyi gerçekten analiz edip etmediğine güvenmek zor

    • Yazarın varlığı bile şüpheli. Veri kaynağı belirsiz ve ağ trafiğini öyle kafana göre yakalamak da mümkün değil. Temel doğrulama gerekiyor
  • “Bu kişi bu verileri nasıl topladı?” sorusu ciddi bir soru işareti
    Benim şirketim olsa müşteri verisini böyle yayımlayamazdı

    • Makalenin altındaki LinkedIn bağlantısı da yok. Teja Kusireddy’nin gerçek bir kişi olup olmadığı bile belirsiz
    • Bazı şirketler OpenAI API’sini frontend’den doğrudan çağırıyor gibi görünüyor ama bilgi backend’den sızmış da olabilir
    • Tarayıcıdan doğrudan çağrı görmek garip. OAuth ya da kimlik doğrulama olmadan istek yapılabiliyor mu, o da şüpheli
    • API anahtarını frontend’e koymak güvenlik açığıdır, bu yüzden çoğu kişi çağrıyı backend’den yapar. Detaylı açıklama yoksa güvenmek zor
    • Makalenin tamamı Medium bağlantısında görülebilir. Muhtemelen NDA nedeniyle somut şirket adları verilmemiştir
 
cgl00 2025-11-25

Nesi dürüstsüzlük ki bunun haha