- Kod birleştirmesinin reddedilmesi üzerine yapay zekanın suçlayıcı bir yazı paylaşması ve uydurma alıntılar içeren bir haberin geri çekilmesi gibi olaylar, yapay zekanın açık kaynak ekosistemi üzerindeki olumsuz etkisini ortaya koyuyor
- Açık kaynak bakımcıları, yapay zekanın ürettiği hatalı kodlar (PR) ve hata raporları nedeniyle inceleme yükünün hızla arttığını, gerçekten faydalı bildirimlerin oranının ise keskin biçimde düştüğünü söylüyor
- GitHub, durumun bu kadar kötüleşmesi nedeniyle Pull Request devre dışı bırakma özelliğini kullanıma sundu
- Yapay zeka modellerinin kod üretme yeteneği belli bir seviyede durağanlığa (plateau) ulaştı ve insan denetçilerin kaynakları da sınırına dayandı
- Yazı, yapay zeka çılgınlığının NFT ve kripto para patlamasına benzer spekülatif bir aşırılık sergilediği ve açık kaynakla teknoloji ekosistemine zarar verdiği uyarısında bulunuyor
Yapay zeka ile açık kaynağın çatışması
Açık kaynak bakımcılarının yaşadığı zarar
- curl bakımcısı Daniel Stenberg, AI tarafından üretilen hata raporlarının kalitesindeki düşüş nedeniyle bug bounty programını durdurdu
- Faydalı güvenlik açığı bildirimlerinin oranı %15'ten %5'e düştü
- “AI kullanıcıları gerçek iyileştirmelere katkı sunmuyor, abartılı güvenlik açıkları iddia edip yalnızca ödül peşinde koşuyor” dedi
- Jeff Geerling de 300’den fazla açık kaynak projeyi yönetirken AI tarafından üretilen ‘slop PR’lerin (kalitesiz kod önerileri) hızla arttığını belirtti
- GitHub, bu sorunlar nedeniyle Pull Request devre dışı bırakma ayarını ekledi
- Bu, GitHub’ın temel işlevlerinden birinin ilk kez sınırlandırılması anlamına geliyor ve açık kaynak iş birliği yapısında köklü bir daralmaya işaret ediyor
Yapay zeka kod üretiminin sınırları
- Yapay zeka ile kod üretimi belirli bir seviyede durağanlığa (plateau) ulaştı ve kalite artışı durmuş durumda
- Kod incelemesinden sorumlu insan geliştiriciler, sınırsız kaynaklara sahip AI şirketlerinin aksine sınırlara sahip
- Bazıları yapay zekanın kod incelemesini de tamamen üstlenebileceğini savunsa da Geerling, üretim ortamında doğrulanmamış AI kodu kullanmanın riskli olduğu uyarısında bulunuyor
- Kişisel deney projelerinde kabul edilebilir olabilir, ancak ticari hizmetler için uygun değil
Yapay zeka çılgınlığı ve teknoloji ekosisteminin bozulması
- OpenClaw’ın yayılması ve OpenAI’nin “ajanları yaygınlaştırma” girişimi, mevcut sorunları daha da ağırlaştırma potansiyeline sahip
- Geerling, bugünkü yapay zeka çılgınlığının kripto para ve NFT patlamasına benzer irrasyonel iyimserlik ve spekülatif aşırılık sergilediğini söylüyor
- LLM ve makine öğreniminin gerçekten faydalı kullanım alanları var, ancak dolandırıcılık niteliğindeki projeler bunu bahane ederek açık kaynak ekosistemine zarar veriyor
Yapay zeka sektöründe aşırı ısınma işaretleri
- Western Digital, 2026 yılı sabit disk envanterinin şimdiden tamamen tükendiğini açıkladı; bunun nedeni olarak yapay zeka bağlantılı talep patlaması gösteriliyor
- Geerling bunu AI balonunun tipik bir işareti olarak görüyor ve “AI şirketleri bedel ödemeden önce daha ne kadar şeyi yok edecekleri” konusunda kaygı duyuyor
- Yapay zekanın henüz yeterince “iyi” bile değilken açık kaynağın güven ve iş birliği yapısını çökerttiğini vurguluyor
Kişisel deneyim ve sonuç
- Geerling, yerel açık modelleri kullanarak blogunu Drupal’dan Hugo’ya taşırken AI’nin yardımcı faydasını kabul ediyor
- Ancak üretilen tüm kodları bizzat test edip inceledikten sonra dağıttığını, başka projelere katkı verilecekse çok daha sıkı doğrulama gerektiğini söylüyor
- Sonuç olarak, yapay zekanın geliştirme verimliliğini artırabileceğini ancak doğrulanmamış otomasyonun açık kaynak kalitesini tehdit ettiğini belirtiyor
3 yorum
Açık kaynağın özlerinden biri, başkalarına gönül rahatlığıyla gösterilebilecek kodda yatmıyor mu? Mantıksal zarafet, sadelik ve gurur duygusu şart. Koddur ama aynı zamanda şiirdir de; endüstriyel koddaki çekicilikten farklı bir çekiciliği vardır.
Ajanlar planlama aşaması ve uygulama planı aşamasına kadar oldukça iyiler, ancak sonrasında doğrulama fonksiyonunu geçene kadar sadece strateji değiştiriyorlar. Bu derinleştikçe implementation trap'e benzer bir tür yığın ortaya çıkıyor. Sorun şu ki, yeter ki çalışsın diyen insan kullanıcı da çok.
Sonuçta topluluğun felsefi uzlaşmasına dayanarak insanların planlama aşamasındaki denetiminin daha iyi yapılması gerekecek, ama bu ezici bir sezgiye ek olarak çaba da istiyor. Aslında o kadar inandırıcı görünüyor ki ajanların planını debug etmek kolay bir iş değil.
Moderatörlerin işi gerçekten çok zor olacak gibi görünüyor.
Hacker News görüşleri
Bu yalnızca açık kaynağa özgü bir sorun değil. Yüksek kaliteli bilgi kaynakları aşırı kullanılıyor ve zarar görüyor
StackOverflow fiilen öldü(ilgili yazı); yayıncılar Internet Archive erişimini kısıtlıyor. Akademik dergiler sahte makaleler ve LLM tabanlı düşük kaliteli incelemelerle boğuşuyor; OpenStreetMap gibi projeler de scraping yüzünden büyük maliyetler ödüyor
Veri madenciliğinden veri fracking çağına geçmişiz gibi hissettiriyor
Hobi olarak kod yazıyorum ve bu aralar çoğunlukla LLM kullanıyorum. Projelerimin kullanıcısı yok, bu da sorun değil
Ama açık kaynağa katkı verirken durum farklı. Eskiden acemiler mentorluk alarak gelişirdi, LLM'den sonra ise konuşma kalmadı. Pixar filmi Ratatouille'daki Linguini gibi, öğrenme hevesi olmadan metin kutusuna bir şey yazıp sadece sonuca bakan insanlar oldular.
Herkes kendi mutfağını(projesini) kirletmesin, biraz empatiyle yaklaşsın isterim
Yapay zekanın yayılması, adeta sofistike bir DDoS saldırısı gibi. Sadece sunucuları değil, insanların dikkatini ve kaynaklarını da tüketiyor.
Yapay zeka içeriğinin çoğu düşük kaliteli, bu da insanlar için çok yorucu. Bir gün faydalı olabilir ama şu an geçiş dönemi kaosu yaşanıyor
Kod incelemesi zaten başlı başına bir darboğazdı; test edilmemiş kod arttıkça bakımcıların yükü patlıyor.
Açık kaynakta uzun vadeli uyumluluk için kod kalitesinin güvence altına alınması şart
LLM'ler interneti düşük kaliteli içerikle kirletiyor. İleride bunu eğitim verisi olarak kullanmak bile mümkün olacak mı, emin değilim
Sorunun özü yapay zeka değil, emek asimetrisi. Eskiden kötü bir PR hazırlamak için bile asgari bir çaba gerekiyordu; şimdi birkaç tıkla mümkün
Bakımcıların teknik ve sosyal filtreleme araçlarına ihtiyacı var. E-posta spam'inde olduğu gibi teknoloji+politika karışımı bir yaklaşım gerekli
Hafta sonu Microsoft'un Golang sürümü sqlcmd'de bir bug buldum ve Claude ile düzelttim.
Böyle niyetli katkılar ekosistem için olumlu
2020'de öğrenciler tişört almak için README'de tek satır değiştiren PR'lar yağdırıyordu. Yapay zeka olmadan da açık kaynak zaten aşırı yük altındaydı
Kuşaklar arası mentorluk koptu ve ekosistem istikrarsız ve kırılgan hale geldi.
Yine de açık kaynak ölmez. Biri odasında yaptığı projeyi paylaştığı sürece yaşamaya devam eder.
Katkı rehberi şablonları, otomatik hata raporu araçları ve yeni bakımcı eğitimi gibi standartlaşmalar gerekli.
PR ve issue'ları kapatmak da sorun değil. GitHub kullanmak zorunda da değilsiniz
“Yapay zeka gelişimi durdu” sözü tuhaf geliyor. Daha son birkaç ayda bile Opus 4.5, 4.6, Codex 5.3 gibi çok hızlı iyileşmeler oldu
METR grafiğine bakınca 2024'te kısa bir yavaşlama var ama 2025'te yeniden trend çizgisinin üstüne çıkmış
İnternet eskiden eğlenceli bir yerdi ama reklamlar ve sosyal medya yaratıcılığı ve işbirliğini öldürdü.
Eskiden sabaha kadar pizza yiyip debug yaptığımız bir heyecan vardı; şimdi ise her şey çok sıkıcı
Bu, yapay zekayı gelişigüzel ve düşünmeden kullanan insanların sorunu değil de yapay zekanın sorunu mu? Daha şimdiden insanların hatalı davranışlarını yapay zekaya yıkmaya çalışan bir hava var.