- AI kodlama araçlarının üretkenliği büyük ölçüde artırdığı iddialarına rağmen, yeni yazılımlarda patlayıcı bir artış gözlemlenmiyor
- PyPI verilerinin analizi, ChatGPT sonrasında toplam paket oluşturma hızında bir değişim olmadığını gösteriyor
- Yalnızca AI ile ilgili popüler paketlerde güncelleme sıklığı 2 katın üzerinde artarken, AI dışı paketler önceki eğilimi sürdürüyor
- Bu yoğunlaşma, AI teknolojisinin genel üretkenlik artışından çok fon ve ilginin yoğunlaşma etkisi olarak yorumlanıyor
- Sonuç olarak, üretken yapay zekanın etkisi genel geliştirme ekosisteminin genişlemesi değil, AI alanı içindeki faaliyetlerin yoğunlaşması olarak ortaya çıkıyor
AI çağında yazılım üretkenliği analizi
- AI kodlama araçlarının üretkenliği onlarca kat artırdığı iddialarına rağmen, pratikte yeni yazılımlarda patlayıcı bir artış gözlemlenmiyor
- Python paket deposu PyPI verileri üzerinden, AI benimsenmesinden sonraki paket oluşturma ve güncelleme eğilimleri analiz ediliyor
- Sonuç olarak, yalnızca AI ile ilgili popüler paketlerde güncelleme sıklığı keskin biçimde arttı; genel ekosistemde ise belirgin bir değişim yok
- Bu durum, AI teknolojisinin kendi üretkenlik artışından çok fon ve ilginin yoğunlaşmasının bir sonucu olarak görünüyor
Paket sayısı analizi
- PyPI’daki toplam paket sayısı sürekli üstel büyüme gösterdi, ancak ChatGPT’nin çıkış noktası civarında belirgin bir değişim yok
- Aylık yeni paket sayısı 5 bin ile 15 bin arasında dalgalanıyor
- 2020 sonrasındaki bazı sıçramalar, spam ve kötü amaçlı yazılım akışı nedeniyle oluştu
- AI geliştirici üretkenliğini artırmış olsaydı, paket sayısında keskin bir artış görülmesi gerekirdi; verilerde böyle bir durum yok
Paket güncelleme sıklığı analizi
- Basit paket oluşturmadan ziyade, bakımı yapılan paketlerin güncelleme sıklığı daha anlamlı bir gösterge kabul ediliyor
- Aralık 2025 itibarıyla en çok indirilen 15.000 paket analiz edildi
- Her paket oluşturulduğu yıla göre gruplandı ve yıllık kohortların medyan güncelleme sıklığı izlendi
- ChatGPT sonrasında oluşturulan paketler ilk yılda ortalama 13 kez güncellenirken, 2014’te oluşturulan paketlerde bu sayı 6
- Ancak bu eğilim zaten 2019’dan beri yükseliyordu; bunun nedeni GitHub Actions gibi CI araçlarının yaygınlaşması olabilir
- Tüm kohortlarda paket ömrü uzadıkça güncelleme sıklığı düşüyor
- AI araçlarının kullanımı, eski paketlerin bakım sıklığını artırmıyor
AI ile ilgili paketlerdeki aykırı durum
- Paket açıklamalarına dayanarak AI ile ilgili olup olmadıkları sınıflandırıldığında, yalnızca AI ile ilgili paketlerde belirgin bir değişim görülüyor
- 2023’te oluşturulan AI ile ilgili paketlerde ilk yıl medyan 20 güncelleme var; bu, AI dışı paketlerin yaklaşık 2 katı
- AI ile ilgisi olmayan paketler öncekiye benzer ılımlı artış eğilimini koruyor
- Dolayısıyla yoğun faaliyet artışı yalnızca AI ile ilgili projelerde doğrulanıyor
Popülerlik etkeniyle ilişki
- AI ile ilgili paketlerdeki yüksek güncelleme sıklığının yalnızca popülerliğin etkisi olup olmadığını sınamak için,
en üst 15.000 paket indirme sayısına göre ilk 7.500 ve alt 7.500 olarak ayrıldı
- Sonuçta, güncelleme sıklığındaki sıçrama yalnızca popüler AI paketlerinde görüldü
- ChatGPT sonrasında popüler AI paketleri yılda 21~26 kez güncellenirken, popüler AI dışı paketler yaklaşık 10 seviyesinde kaldı
- Bu oran, daha az popüler AI paketlerinden de çok daha yüksek
Toplu gözlemler
- Paket oluşturma hızı, ChatGPT sonrasında da belirgin biçimde artmadı
- Toplam güncelleme sıklığı ılımlı biçimde arttı, ancak bu eğilim AI’dan önce de vardı
- Popüler AI ile ilgili paketlerde güncelleme sıklığının 2 katın üzerinde arttığı gözlendi
Yorum ve hipotezler
-
AI’nin genel geliştirici üretkenliğini patlayıcı biçimde artırdığına dair kanıt yok
- Genel tabloda yeni paketlerde ya da güncellemelerde ani bir patlama yok
- Bazı geliştiricilerin AI’dan yararlanarak daha hızlı geliştirme yapıyor olması mümkün, ancak sayıları ya da etkileri sınırlı
- AI kullanan yazılımların geliştirilmesi ise gerçekten canlı biçimde sürüyor
- Özellikle AI ile ilgili popüler paketlerde yoğun faaliyet görülüyor
İki hipotez
- AI beceri meselesi: AI araçlarını yapan kişiler, aynı zamanda AI’yi en etkili kullanan kişiler olabilir; bu yüzden üretkenlik artışı AI paketlerinde daha büyük görünüyor. Ancak yalnızca beceri, bu durumun neden sadece popüler AI paketlerinde yoğunlaştığını açıklamakta yetersiz kalıyor
- Fon ve hype: AI alanına devasa yatırım ve ilgi akışı oldu; bunun sonucu olarak daha fazla insan daha fazla iş yaptı ve paket oluşturma/güncelleme sayıları arttı
- Kohort büyüklüklerindeki değişim bunu destekliyor: 2021 kohortunda AI dışı/AI oranı 6:1 iken (1,211 vs 185), 2024’te bu oran 2:1’in altına indi (727 vs 423)
- Geliştiriciler insanüstü hale gelmedi; bunun yerine AI’ye yönelik aşırı ilgi fonlara dönüştü ve AI paketlerinin oluşturulma ve yinelenme hızını artırdı
- Veriler tek başına bu iki etkinin hangisinin daha büyük olduğunu ayırt etmeye yetmiyor
Sonuç
- Üretken yapay zeka devriminin gözle görülür etkisi, genel yazılım üretkenliğinde bir patlama değil,
AI ekosistemi içindeki faaliyetlerin yoğun biçimde artması olarak ortaya çıkıyor
- PyPI verilerine bakıldığında AI, tüm geliştiricileri insanüstü hale getirmiş değil;
görülen şey daha çok AI ile ilgili projelere fon ve emeğin yoğunlaşmasının sonucu
4 yorum
Şimdilik en büyük yenilik, geliştirmeye giriş engelinin düşmüş olması gibi görünüyor.
Tuhaf bir mantık.. :) Ben
chatGPTsonrasında başka domain geliştirmelerinde yapay zekayı inanılmaz fazla kullandım ama... Geçmişte ya imkansız olan ya da yaklaşık 10 deneyimli kişinin bir araya gelmesiyle yapılabilecek işleri artık tek başıma yapıyorum... Bu devrim değil de nedir?Bu tür yeniliklerden hoşlanmıyor olmanız gerekmiyor mu? Neredeyse basın bülteni düzeyinde yaygara koparıyorlar; sanki işin içinde çıkar ilişkileri var gibi görünüyor.
Hacker News görüşleri
Bu günlerde bir fikri prototip aşamasına taşımak gerçekten çok kolaylaştı
Ama bunu gerçek bir hizmet olarak sunmak için hâlâ sıkıcı yazılım mühendisliği gerekiyor
“Ben bizzat kod yazarak bir iş kuracağım” trendini takip eden çok kişi gördüm ama gerçekten lansmana çıkan olmadı
Sonuçta son adım, zamanın ve emeğin çoğunu yiyip bitiren kısım oluyor
Bir uygulamanın faydalı olması için illa kamuya açık olması gerekmiyor
Amaç benim, çevremin ya da ekibimin sorununu çözmekse o “son adım” gereksiz bir israf
Piyasadaki ürünler sorun çözümünden çok para kazanma araçlarıdır
Yapay zeka, “sorun çözme” maliyetini ciddi biçimde düşürdü ama “ürünleştirme” maliyetini o kadar düşürmedi
Bu yüzden ürün az diye sorun çözümünün de az olduğunu söyleyemeyiz
Bu tehlikeli. Çünkü sorunun kök nedenini bulma yeteneği köreliyor
Yapay zeka ilk %80’i hızlıca çıkarıyor ama kalite şüpheli
Sonuçta deneme-yanılma tarzı geliştirmeyi teşvik ediyor ve tecrübeli geliştiriciler bu yaklaşımı daha çok sevmiyor
Claude’a özellik tasarımı yaptırınca harika bir spec çıkıyor, coding agent da %80’e kadar iyi iş çıkarıyor
Ama son %20 çok daha uzun sürüyor
O arada yeni özellik fikirleri birikiyor ve sonsuz bir backlog ile kaygı oluşuyor
Aslında benden bunu isteyen kimse yoktu; baskıyı kendim yaratmış oldum
Gereksinim toplama, tasarım, onay, altyapı kurma, kod yazma, test, dağıtım ve izlemeye uzanan uzun bir süreç
Yapay zeka bunların 4-5 adımını, yani özellikle altyapı ve kod yazımı kısmını hızlandırabiliyor
Ama geri kalanı hâlâ insan işi
AI etkisini PyPI’deki ilk 15.000 paket üzerinden ölçmek uygun değil
Aslında iOS uygulama yeni kayıtlarının %24 artmış olması daha anlamlı bir istatistik
Appfigures Explorer verisine göre 2025’te 557 bin yeni uygulama çıktı ve bu, 2016’dan beri ilk büyük sıçrama oldu
Yapay zekanın yeterince pratik hâle geldiği dönemden sonra (Aralık 2025, Opus 4.5 ve Codex’in çıkışı) geliştirme verimliliği keskin biçimde arttı
Artık Stack Overflow’ya sormak yerine LLM’e sorduğumuz bir dönemdeyiz
Dokümana erişebilen bir LLM soruların %95’ini cevaplayabiliyor
Stack Overflow’nun bu değişime dayanması zor görünüyor
Yapay zeka ile kodlama çoğu zaman utility’leri azaltmak ya da paket olarak dağıtılmayan iç araçlar üretmek için kullanılıyor
Ekonomik verimliliğe katkı yapan yararlı uygulamalar neredeyse yok
Yapay zeka enerji ve sermaye tüketiyor ama somut getirisi çok sınırlı
Ekonomik açıdan bakınca AI patlaması aşırı ısınmış bir balona daha çok benziyor
Bu aralar “YoloSwag” tarzı projeler ortalığı kaplamış durumda
Rust ile yazılmış birebir PyTorch implementasyonu olduğunu söyleyip CPU kullanımında %80 düşüş, %300 hız artışı gibi iddialar öne sürüyorlar ama gerçekte anında crash ediyor
Testlerin hepsi sahte mock’larla geçiriliyor ve kodun yarısı PyTorch binding’leri, yarısı da alakasız API’lerle dolu bir ucube
Geliştirici de “6 haftada kuantum bilişim uzmanı oldum” diyen eski bir kripto tipiydi
Yapay zekayı gerçekten öğrenmek için değil, sadece kendini göstermek için kullanıyorlar
Bu kültür değişmezse bu tür ‘YoloSwag’ projelerini görmeye devam ederiz
VSCode’u silip kendime ait aşırı kişisel bir dashboard yaptım
Haber akışı, issue yönetimi, Markdown editörü, takvim, AI butonları; her şeyi tek ekranda hallediyorum
Ama o kadar kişiselleştirilmiş ki paylaşmak için bir neden yok
Yeni servislerin çoğu LLM wrapper’ı ya da AI aracı seviyesinde kalıyor
Mesela kendi alışveriş alışkanlıklarıma göre bir market alışverişi uygulamasını 20 dakikada bitirdim
Bu tür aşırı kişiselleştirilmiş yazılım bir sonraki aşama gibi görünüyor
Kurulumunu paylaşırsan birçok builder için ilham olabilir
Yapay zekayla yapılan şeylerin kamuya açılmamasının nedeni basit
Çoğu kişiye özel olduğu için yayınlamaya gerek yok
Üstelik artık uygulama becerisinden çok fikrin kendisi rekabet avantajı hâline geldiği için insanlar özellikle paylaşmıyor
Herkesin benzer yeteneklere sahip olduğu bir dönemde, herkes ihtiyacı olan şeyi hızlı ve ucuza yapabiliyor
Bu yüzden yapay zekayla üretilen şey çok olsa da dünyaya açık olanların sayısı giderek azalıyor
Kişisel projeler değil, sektör genelindeki değişimi gösteren kanıtlar lazım
Bu yüzden gerçek katkılar bile caydırılıyor
Elbette düşük kaliteli AI kodu sorun ama bunu bahane edip her şeyi dışlamak çözüm değil
Asıl büyük sorun, review ve testin düzgün yapılmadığı kültür
Yapay zeka uygulamanın ilk %90’ını kolaylaştırıyor ama son %10’u çok daha zor hâle getiriyor
Kod tabanı büyümüş oluyor ama ona aşinalık kaybolmuş durumda, çoğu kişi de burada bırakıyor
Sonuçta yapay zeka hız kazandırsa da kalite ve güvenlik tuzakları çok fazla
Bugünkü AI patlaması dot-com balonunu hatırlatıyor
2000’lerin başındaki gibi “AI kullanırsak tamamdır” sanısıyla para yakan çok şirket var
Buna karşılık sessizce AI benimseyip iş verimliliğini artıran şirketler de bulunuyor
Sonuçta bunların çoğu yardımcı araç olarak kalacak, tamamen otomatik uygulamalar ise azınlıkta olacak
PyPI paket sayısıyla yapay zekanın etkisini ölçmek yanlış bir yaklaşım
Gerçek verimlilik artışı özel depolarda, iç araçlarda ve tek amaçlı uygulamalarda yaşanıyor
Ben de yapay zeka ile 6 haftada offline desteği, Stripe ödemesi ve SEO sayfaları olan bir web uygulaması yaptım
Eskiden olsa bu iş en az 6 ay sürerdi
Bu tür sonuçlar veri setlerine yansımıyor ama verimlilik artışı kesin
Ben de son zamanlarda daha az kütüphane kullanıyorum
Çünkü yapay zeka sayesinde API çağrılarını doğrudan ele almak daha kolaylaştı
Paket yayımlamak aslında neredeyse bir açık kaynak projesi işletmekle aynı şey ve bu çok yorucu
Bakım yükü ile karşılığının dengesizliği yüzünden insanlar bundan kaçınıyor
Dünyada zaten yeterince çok kütüphane var ve gerçekten iyi olanlarda konsolidasyon yaşanması kötü bir şey değil
Birçok geliştirici artık AI’ı “proje bazında” değil commit bazında kullanıyor
PyPI ile yapay zekanın etkisini ölçmek dar görüşlü bir yaklaşım
Bunun yerine GitHub Octoverse 2025 raporuna bakınca
kullanıcı sayısı ile açık kaynak katkılarının net biçimde yükseliş eğrisinde olduğu görülüyor
2025 itibarıyla tüm katkıların %81,5’i özel depolarda gerçekleşti, herkese açık depolar ise sadece %63’te kaldı
Cursor, Copilot gibi araçlar zaten vardı ve hepsi devrim diye sunuluyordu
Eğer AI gerçekten kodu 10 kat hızlı dağıtmayı sağlıyorsa, bunun patlayıcı sonuçlarını şimdiye kadar çoktan görmüş olmamız gerekirdi