14 puan yazan GN⁺ 2026-03-25 | 4 yorum | WhatsApp'ta paylaş
  • AI kodlama araçlarının üretkenliği büyük ölçüde artırdığı iddialarına rağmen, yeni yazılımlarda patlayıcı bir artış gözlemlenmiyor
  • PyPI verilerinin analizi, ChatGPT sonrasında toplam paket oluşturma hızında bir değişim olmadığını gösteriyor
  • Yalnızca AI ile ilgili popüler paketlerde güncelleme sıklığı 2 katın üzerinde artarken, AI dışı paketler önceki eğilimi sürdürüyor
  • Bu yoğunlaşma, AI teknolojisinin genel üretkenlik artışından çok fon ve ilginin yoğunlaşma etkisi olarak yorumlanıyor
  • Sonuç olarak, üretken yapay zekanın etkisi genel geliştirme ekosisteminin genişlemesi değil, AI alanı içindeki faaliyetlerin yoğunlaşması olarak ortaya çıkıyor

AI çağında yazılım üretkenliği analizi

  • AI kodlama araçlarının üretkenliği onlarca kat artırdığı iddialarına rağmen, pratikte yeni yazılımlarda patlayıcı bir artış gözlemlenmiyor
  • Python paket deposu PyPI verileri üzerinden, AI benimsenmesinden sonraki paket oluşturma ve güncelleme eğilimleri analiz ediliyor
  • Sonuç olarak, yalnızca AI ile ilgili popüler paketlerde güncelleme sıklığı keskin biçimde arttı; genel ekosistemde ise belirgin bir değişim yok
  • Bu durum, AI teknolojisinin kendi üretkenlik artışından çok fon ve ilginin yoğunlaşmasının bir sonucu olarak görünüyor

Paket sayısı analizi

  • PyPI’daki toplam paket sayısı sürekli üstel büyüme gösterdi, ancak ChatGPT’nin çıkış noktası civarında belirgin bir değişim yok
    • Aylık yeni paket sayısı 5 bin ile 15 bin arasında dalgalanıyor
    • 2020 sonrasındaki bazı sıçramalar, spam ve kötü amaçlı yazılım akışı nedeniyle oluştu
  • AI geliştirici üretkenliğini artırmış olsaydı, paket sayısında keskin bir artış görülmesi gerekirdi; verilerde böyle bir durum yok

Paket güncelleme sıklığı analizi

  • Basit paket oluşturmadan ziyade, bakımı yapılan paketlerin güncelleme sıklığı daha anlamlı bir gösterge kabul ediliyor
    • Aralık 2025 itibarıyla en çok indirilen 15.000 paket analiz edildi
    • Her paket oluşturulduğu yıla göre gruplandı ve yıllık kohortların medyan güncelleme sıklığı izlendi
  • ChatGPT sonrasında oluşturulan paketler ilk yılda ortalama 13 kez güncellenirken, 2014’te oluşturulan paketlerde bu sayı 6
    • Ancak bu eğilim zaten 2019’dan beri yükseliyordu; bunun nedeni GitHub Actions gibi CI araçlarının yaygınlaşması olabilir
  • Tüm kohortlarda paket ömrü uzadıkça güncelleme sıklığı düşüyor
    • AI araçlarının kullanımı, eski paketlerin bakım sıklığını artırmıyor

AI ile ilgili paketlerdeki aykırı durum

  • Paket açıklamalarına dayanarak AI ile ilgili olup olmadıkları sınıflandırıldığında, yalnızca AI ile ilgili paketlerde belirgin bir değişim görülüyor
    • 2023’te oluşturulan AI ile ilgili paketlerde ilk yıl medyan 20 güncelleme var; bu, AI dışı paketlerin yaklaşık 2 katı
  • AI ile ilgisi olmayan paketler öncekiye benzer ılımlı artış eğilimini koruyor
    • Dolayısıyla yoğun faaliyet artışı yalnızca AI ile ilgili projelerde doğrulanıyor

Popülerlik etkeniyle ilişki

  • AI ile ilgili paketlerdeki yüksek güncelleme sıklığının yalnızca popülerliğin etkisi olup olmadığını sınamak için,
    en üst 15.000 paket indirme sayısına göre ilk 7.500 ve alt 7.500 olarak ayrıldı
  • Sonuçta, güncelleme sıklığındaki sıçrama yalnızca popüler AI paketlerinde görüldü
    • ChatGPT sonrasında popüler AI paketleri yılda 21~26 kez güncellenirken, popüler AI dışı paketler yaklaşık 10 seviyesinde kaldı
    • Bu oran, daha az popüler AI paketlerinden de çok daha yüksek

Toplu gözlemler

  1. Paket oluşturma hızı, ChatGPT sonrasında da belirgin biçimde artmadı
  2. Toplam güncelleme sıklığı ılımlı biçimde arttı, ancak bu eğilim AI’dan önce de vardı
  3. Popüler AI ile ilgili paketlerde güncelleme sıklığının 2 katın üzerinde arttığı gözlendi

Yorum ve hipotezler

  • AI’nin genel geliştirici üretkenliğini patlayıcı biçimde artırdığına dair kanıt yok

    • Genel tabloda yeni paketlerde ya da güncellemelerde ani bir patlama yok
    • Bazı geliştiricilerin AI’dan yararlanarak daha hızlı geliştirme yapıyor olması mümkün, ancak sayıları ya da etkileri sınırlı
    • AI kullanan yazılımların geliştirilmesi ise gerçekten canlı biçimde sürüyor
    • Özellikle AI ile ilgili popüler paketlerde yoğun faaliyet görülüyor

İki hipotez

  • AI beceri meselesi: AI araçlarını yapan kişiler, aynı zamanda AI’yi en etkili kullanan kişiler olabilir; bu yüzden üretkenlik artışı AI paketlerinde daha büyük görünüyor. Ancak yalnızca beceri, bu durumun neden sadece popüler AI paketlerinde yoğunlaştığını açıklamakta yetersiz kalıyor
  • Fon ve hype: AI alanına devasa yatırım ve ilgi akışı oldu; bunun sonucu olarak daha fazla insan daha fazla iş yaptı ve paket oluşturma/güncelleme sayıları arttı
    • Kohort büyüklüklerindeki değişim bunu destekliyor: 2021 kohortunda AI dışı/AI oranı 6:1 iken (1,211 vs 185), 2024’te bu oran 2:1’in altına indi (727 vs 423)
    • Geliştiriciler insanüstü hale gelmedi; bunun yerine AI’ye yönelik aşırı ilgi fonlara dönüştü ve AI paketlerinin oluşturulma ve yinelenme hızını artırdı
  • Veriler tek başına bu iki etkinin hangisinin daha büyük olduğunu ayırt etmeye yetmiyor

Sonuç

  • Üretken yapay zeka devriminin gözle görülür etkisi, genel yazılım üretkenliğinde bir patlama değil,
    AI ekosistemi içindeki faaliyetlerin yoğun biçimde artması olarak ortaya çıkıyor
  • PyPI verilerine bakıldığında AI, tüm geliştiricileri insanüstü hale getirmiş değil;
    görülen şey daha çok AI ile ilgili projelere fon ve emeğin yoğunlaşmasının sonucu

4 yorum

 
eoeoe 2026-03-31

Şimdilik en büyük yenilik, geliştirmeye giriş engelinin düşmüş olması gibi görünüyor.

 
wahihi 2026-03-26

Tuhaf bir mantık.. :) Ben chatGPT sonrasında başka domain geliştirmelerinde yapay zekayı inanılmaz fazla kullandım ama... Geçmişte ya imkansız olan ya da yaklaşık 10 deneyimli kişinin bir araya gelmesiyle yapılabilecek işleri artık tek başıma yapıyorum... Bu devrim değil de nedir?

 
summerpicnic 29 일 전

Bu tür yeniliklerden hoşlanmıyor olmanız gerekmiyor mu? Neredeyse basın bülteni düzeyinde yaygara koparıyorlar; sanki işin içinde çıkar ilişkileri var gibi görünüyor.

 
GN⁺ 2026-03-25
Hacker News görüşleri
  • Bu günlerde bir fikri prototip aşamasına taşımak gerçekten çok kolaylaştı
    Ama bunu gerçek bir hizmet olarak sunmak için hâlâ sıkıcı yazılım mühendisliği gerekiyor
    “Ben bizzat kod yazarak bir iş kuracağım” trendini takip eden çok kişi gördüm ama gerçekten lansmana çıkan olmadı
    Sonuçta son adım, zamanın ve emeğin çoğunu yiyip bitiren kısım oluyor

    • Doğru. Ama çoğu durumda o kadarı yeterli
      Bir uygulamanın faydalı olması için illa kamuya açık olması gerekmiyor
      Amaç benim, çevremin ya da ekibimin sorununu çözmekse o “son adım” gereksiz bir israf
      Piyasadaki ürünler sorun çözümünden çok para kazanma araçlarıdır
      Yapay zeka, “sorun çözme” maliyetini ciddi biçimde düşürdü ama “ürünleştirme” maliyetini o kadar düşürmedi
      Bu yüzden ürün az diye sorun çözümünün de az olduğunu söyleyemeyiz
    • Yapay zeka koduyla yapılmış çok yazılımla uğraştım ve giderek debug etme hissimin zayıfladığını fark ediyorum
      Bu tehlikeli. Çünkü sorunun kök nedenini bulma yeteneği köreliyor
      Yapay zeka ilk %80’i hızlıca çıkarıyor ama kalite şüpheli
      Sonuçta deneme-yanılma tarzı geliştirmeyi teşvik ediyor ve tecrübeli geliştiriciler bu yaklaşımı daha çok sevmiyor
    • Ben de kişisel projelerde aynısını hissettim
      Claude’a özellik tasarımı yaptırınca harika bir spec çıkıyor, coding agent da %80’e kadar iyi iş çıkarıyor
      Ama son %20 çok daha uzun sürüyor
      O arada yeni özellik fikirleri birikiyor ve sonsuz bir backlog ile kaygı oluşuyor
      Aslında benden bunu isteyen kimse yoktu; baskıyı kendim yaratmış oldum
    • Yazılım mühendisliği sadece kod yazmaktan ibaret değil
      Gereksinim toplama, tasarım, onay, altyapı kurma, kod yazma, test, dağıtım ve izlemeye uzanan uzun bir süreç
      Yapay zeka bunların 4-5 adımını, yani özellikle altyapı ve kod yazımı kısmını hızlandırabiliyor
      Ama geri kalanı hâlâ insan işi
    • Artık “ilk %90 zamanın %90’ını, son %10 ise kalan %90.000.000’unu alır” diye espri yapılacak noktaya gelindi
  • AI etkisini PyPI’deki ilk 15.000 paket üzerinden ölçmek uygun değil
    Aslında iOS uygulama yeni kayıtlarının %24 artmış olması daha anlamlı bir istatistik
    Appfigures Explorer verisine göre 2025’te 557 bin yeni uygulama çıktı ve bu, 2016’dan beri ilk büyük sıçrama oldu
    Yapay zekanın yeterince pratik hâle geldiği dönemden sonra (Aralık 2025, Opus 4.5 ve Codex’in çıkışı) geliştirme verimliliği keskin biçimde arttı

    • Olgun Python paketlerinden ziyade kısa ömürlü mobil uygulamaların yapay zekadan daha çok fayda görmesi doğal
      Artık Stack Overflow’ya sormak yerine LLM’e sorduğumuz bir dönemdeyiz
      Dokümana erişebilen bir LLM soruların %95’ini cevaplayabiliyor
      Stack Overflow’nun bu değişime dayanması zor görünüyor
    • PyPI paketleri, yapay zekanın etkisini ölçmek için uygun değil
      Yapay zeka ile kodlama çoğu zaman utility’leri azaltmak ya da paket olarak dağıtılmayan iç araçlar üretmek için kullanılıyor
    • Uygulama mağazasında işe yaramaz uygulamaların artması pek bir şey ifade etmiyor
      Ekonomik verimliliğe katkı yapan yararlı uygulamalar neredeyse yok
      Yapay zeka enerji ve sermaye tüketiyor ama somut getirisi çok sınırlı
      Ekonomik açıdan bakınca AI patlaması aşırı ısınmış bir balona daha çok benziyor
  • Bu aralar “YoloSwag” tarzı projeler ortalığı kaplamış durumda
    Rust ile yazılmış birebir PyTorch implementasyonu olduğunu söyleyip CPU kullanımında %80 düşüş, %300 hız artışı gibi iddialar öne sürüyorlar ama gerçekte anında crash ediyor
    Testlerin hepsi sahte mock’larla geçiriliyor ve kodun yarısı PyTorch binding’leri, yarısı da alakasız API’lerle dolu bir ucube
    Geliştirici de “6 haftada kuantum bilişim uzmanı oldum” diyen eski bir kripto tipiydi

    • “Anında crash ediyorsa o zaman gerçekten Memory Safe demektir” diye espri yapanlar bile var
    • Bu insanları açıkça ayıklamak sağlıklı bir geliştirme kültürü için gerekli
      Yapay zekayı gerçekten öğrenmek için değil, sadece kendini göstermek için kullanıyorlar
      Bu kültür değişmezse bu tür ‘YoloSwag’ projelerini görmeye devam ederiz
  • VSCode’u silip kendime ait aşırı kişisel bir dashboard yaptım
    Haber akışı, issue yönetimi, Markdown editörü, takvim, AI butonları; her şeyi tek ekranda hallediyorum
    Ama o kadar kişiselleştirilmiş ki paylaşmak için bir neden yok

    • Teknik insanlar böyle kişisel uygulamalar yapıyor ama genel kitleye hitap eden yüksek kaliteli uygulamalar hâlâ az
      Yeni servislerin çoğu LLM wrapper’ı ya da AI aracı seviyesinde kalıyor
    • Ben de yapay zeka sayesinde “sadece benim kullandığım uygulamaları” kolayca yapabilir oldum
      Mesela kendi alışveriş alışkanlıklarıma göre bir market alışverişi uygulamasını 20 dakikada bitirdim
      Bu tür aşırı kişiselleştirilmiş yazılım bir sonraki aşama gibi görünüyor
    • Ben de VSCode + Claude Code etrafında birden fazla projeyi yönetiyorum ama arayüz giderek daha karmaşık hâle geliyor
      Kurulumunu paylaşırsan birçok builder için ilham olabilir
    • İş akışları farklı olsa da bu tür kişiselleştirilmiş kurulumlar ilham veren örnekler
  • Yapay zekayla yapılan şeylerin kamuya açılmamasının nedeni basit
    Çoğu kişiye özel olduğu için yayınlamaya gerek yok
    Üstelik artık uygulama becerisinden çok fikrin kendisi rekabet avantajı hâline geldiği için insanlar özellikle paylaşmıyor
    Herkesin benzer yeteneklere sahip olduğu bir dönemde, herkes ihtiyacı olan şeyi hızlı ve ucuza yapabiliyor
    Bu yüzden yapay zekayla üretilen şey çok olsa da dünyaya açık olanların sayısı giderek azalıyor

    • Ama yapay zekanın yazılım mühendisliğinin özünü değiştirdiği iddiası hâlâ geçerli
      Kişisel projeler değil, sektör genelindeki değişimi gösteren kanıtlar lazım
    • Açık kaynak dünyasında “AI ile yapılan her şey çöp” gibi garip bir ideolojik hava oluştu
      Bu yüzden gerçek katkılar bile caydırılıyor
      Elbette düşük kaliteli AI kodu sorun ama bunu bahane edip her şeyi dışlamak çözüm değil
      Asıl büyük sorun, review ve testin düzgün yapılmadığı kültür
  • Yapay zeka uygulamanın ilk %90’ını kolaylaştırıyor ama son %10’u çok daha zor hâle getiriyor
    Kod tabanı büyümüş oluyor ama ona aşinalık kaybolmuş durumda, çoğu kişi de burada bırakıyor

    • Ben de yapay zekayla bir greenfield app denedim ve dört sorun yaşadım
      1. Her şey fazla hızlı ilerlediği için plan dağıldı
      2. Çok sayıda küçük hata vardı
      3. Çalışma zamanı güvenlik sorunları ve yanlış varsayımlar fazlaydı
      4. Yapısal hatalar yüzünden refactor etmek zordu
        Sonuçta yapay zeka hız kazandırsa da kalite ve güvenlik tuzakları çok fazla
    • “İlk %90 zamanın %90’ını, son %10 ise kalan %90’ını alır” esprisi hâlâ geçerli
    • Comprehension Debt kavramındaki gibi, anlamadan biriken kod borcu büyüyor
    • Son %10 zaten hep zordu ama yapay zeka sayesinde daha da zihinsel olarak yıpratıcı hâle geliyor
    • Yapay zeka kod yazdıkça özellik kapsamının durmadan genişlemesi gibi bir eğilim de oluşuyor
  • Bugünkü AI patlaması dot-com balonunu hatırlatıyor
    2000’lerin başındaki gibi “AI kullanırsak tamamdır” sanısıyla para yakan çok şirket var
    Buna karşılık sessizce AI benimseyip iş verimliliğini artıran şirketler de bulunuyor

    • Eski FrontPage ya da DreamWeaver ile web sitesi yapılan döneme benziyor
      Sonuçta bunların çoğu yardımcı araç olarak kalacak, tamamen otomatik uygulamalar ise azınlıkta olacak
  • PyPI paket sayısıyla yapay zekanın etkisini ölçmek yanlış bir yaklaşım
    Gerçek verimlilik artışı özel depolarda, iç araçlarda ve tek amaçlı uygulamalarda yaşanıyor
    Ben de yapay zeka ile 6 haftada offline desteği, Stripe ödemesi ve SEO sayfaları olan bir web uygulaması yaptım
    Eskiden olsa bu iş en az 6 ay sürerdi
    Bu tür sonuçlar veri setlerine yansımıyor ama verimlilik artışı kesin

    • “Bu yorumu da AI mı yazdı, yoksa çok kullandığın için üslubun ona mı benzemeye başladı?” diye şaka yapacak noktaya gelindi
  • Ben de son zamanlarda daha az kütüphane kullanıyorum
    Çünkü yapay zeka sayesinde API çağrılarını doğrudan ele almak daha kolaylaştı
    Paket yayımlamak aslında neredeyse bir açık kaynak projesi işletmekle aynı şey ve bu çok yorucu
    Bakım yükü ile karşılığının dengesizliği yüzünden insanlar bundan kaçınıyor
    Dünyada zaten yeterince çok kütüphane var ve gerçekten iyi olanlarda konsolidasyon yaşanması kötü bir şey değil
    Birçok geliştirici artık AI’ı “proje bazında” değil commit bazında kullanıyor

  • PyPI ile yapay zekanın etkisini ölçmek dar görüşlü bir yaklaşım
    Bunun yerine GitHub Octoverse 2025 raporuna bakınca
    kullanıcı sayısı ile açık kaynak katkılarının net biçimde yükseliş eğrisinde olduğu görülüyor
    2025 itibarıyla tüm katkıların %81,5’i özel depolarda gerçekleşti, herkese açık depolar ise sadece %63’te kaldı

    • Ama “Claude Code Mayıs 2025’te çıktı, daha Mart’tayız” itirazı kale direklerini oynatmak gibi bir şey
      Cursor, Copilot gibi araçlar zaten vardı ve hepsi devrim diye sunuluyordu
      Eğer AI gerçekten kodu 10 kat hızlı dağıtmayı sağlıyorsa, bunun patlayıcı sonuçlarını şimdiye kadar çoktan görmüş olmamız gerekirdi