- Debian topluluğu, yapay zeka veya LLM tabanlı kod katkılarına izin verilip verilmeyeceğini tartıştı, ancak bir sonuca varmadan görüşmeyi kapattı
- Önerilen taslak, AI araçları kullanıldığında bunun açıkça belirtilmesi, sorumluluğun netleştirilmesi ve hassas bilgilerin kullanılmasının yasaklanması gibi koşullarla buna izin verilmesini öngörüyordu
- Geliştiriciler, “AI” teriminin muğlaklığı, LLM’lerin kullanım kapsamı ve kalite, telif hakkı, etik sorunları konusunda farklı görüşlere sahipti
- Bazıları, yeni katkıcıların projeye uyumunu zorlaştırması, etik dışı şirket uygulamaları ve hukuki belirsizlik gibi gerekçelerle karşı çıktı
- Debian, şimdilik mevcut politikalara göre vaka bazında değerlendirme yaklaşımını sürdürecek ve ileride tartışmayı devam ettirme olasılığını açık bırakacak
Debian’ın AI katkıları tartışmasına genel bakış
- Debian, yapay zeka tarafından üretilen kodun kabul edilip edilmeyeceği konusunda iç tartışma yürüttü, ancak genel karar (GR) önerisi sunulmadan süreç sona erdi
- Tartışma, Lucas Nussbaum’un AI destekli katkılara ilişkin tutumu netleştirmeyi amaçlayan bir taslak sunmasıyla başladı
- Geri bildirim topladıktan sonra bunu resmî olarak sunmayı değerlendirdi, ancak tartışma yatışınca karar teklifi gündeme gelmedi
- Taslakta, AI araçlarıyla üretilen kodun açıklanması zorunluluğu, katkıcının sorumluluğunun açıkça belirtilmesi, güvenlik ve lisans uyumunun garanti edilmesi ve gizli bilgilerin kullanılmasının yasaklanması gibi maddeler yer alıyordu
Terim tanımı ve teknik ayrım tartışması
- Birçok geliştirici, “AI” teriminin belirsizliğine dikkat çekerek LLM gibi somut teknolojilerin özellikle belirtilmesi gerektiğini vurguladı
- Russ Allbery, “AI” ifadesinin politika oluşturmak için fazla geniş kapsamlı olduğunu söyledi
- Sean Whitton, LLM kullanım amacına göre ayrım yapılmasını (kod inceleme, prototip, üretim kodu) önerdi
- Andrea Pappacoda, Claude’s C Compiler gibi projelerin Debian’a dahil edilmemesi gerektiğini belirtti
- Buna karşılık Nussbaum, asıl önemli olanın araç türünden ziyade otomatik kod üretimi eylemi olduğunu savundu
Yeni katkıcıların uyumu ve maliyet sorunu
- Simon Richter, AI’nin yeni geliştiricilerin öğrenme fırsatlarının yerini alabileceği endişesini dile getirdi
- AI’nin yönlendirme alsa bile öğrenmediğini ve proje kaynaklarının kalıcı bilgi aktarımına dönüşmediğini belirtti
- AI kullanımının ücretli araçlara bağımlılık yaratıp katkıcıların erişimini zorlaştırabileceği de ifade edildi
- Nussbaum, şu anda ücretsiz erişimin mümkün olduğunu ancak ileride maliyet sorununun ortaya çıkabileceğini kabul etti
- Buna karşılık AI’nin karmaşık görevlere erişimi artırabileceğini savundu
- Ted Ts’o, AI kullanıcılarını dışlamanın kendi içinde çelişkili olacağını ve katkıcı çeşitliliğini sınırlayabileceğini söyledi
Etik, telif hakkı ve kalite tartışması
- Matthew Vernon, AI şirketlerinin etik dışı veri toplaması ve çevresel zararları nedeniyle Debian’ın buna açıkça karşı çıkması gerektiğini savundu
- Telif hakkı ihlali, rıza dışı görsel üretimi ve sahte güvenlik raporları gibi yan etkileri örnek gösterdi
- Jonathan Dowland, hukuki belirsizlik giderilene kadar AI üretimi içeriklerin kabulünün sınırlandırılmasını önerdi
- Thorsten Glaser, LLM tabanlı kod içeren projelerin
non-free alanına taşınması gerektiğini savundu, ancak Linux çekirdeği, Python gibi büyük projelerin dışarıda kalma riski nedeniyle destek bulamadı
- Allbery, AI kodunun kalitesi etrafındaki tartışmanın anlamsız olduğunu, çünkü insanların da kötü kod yazabildiğini söyledi
- Bdale Garbee, AI’yi evrimin bir aşaması olarak gördüğünü ve uzun vadeli etkilerinin izlenmesi gerektiğini vurguladı
‘Tercih edilen değiştirme biçimi (Preferred form of modification)’ tartışması
- Nussbaum, LLM girdisinin (prompt) tercih edilen değiştirme biçimi olduğunu söylese de, belirlenimsizlik sorunu nedeniyle tartışma sürdü
- Bazıları, LLM’lerin belirlenimci olmaması nedeniyle reproducible build için uygun olmadığını savundu
- Diğerleri ise PRNG seed ve aynı ortam korunursa yeniden üretilebilirliğin mümkün olduğunu ileri sürdü
- Tartışma, determinism, reproducibility, GPU işlemlerinin asenkronluğu gibi teknik ayrıntılara kadar genişledi
Sonuç: Kararı erteleyen Debian
- Debian içinde, AI üretimi katkıların tanımı konusunda bile henüz uzlaşı sağlanmış değil
- Birçok kişi, şu anda karar teklifi için oylama zamanı olmadığını ve tartışmanın e-posta listesi düzeyinde sürmesinin daha uygun olacağını düşünüyor
- Nussbaum, “AI’ye izin verip güvenlik önlemleri koyan bir orta yolun” gerçekçi olabileceğini belirtti
- Şimdilik mevcut politikalara göre vaka bazında değerlendirme yaklaşımı korunuyor ve AI modelleri, LLM kodu ve AI üretimi katkıların nasıl ele alınacağına dair ölçütler belirsizliğini koruyor
- Karmaşık teknolojik değişim ve farklı görüşler arasında, mevcut durumun korunması en pratik seçenek olarak değerlendiriliyor
1 yorum
Hacker News görüşleri
Hayatım boyunca kod yazdım ama bilek sakatlığı yüzünden yazı yazmak neredeyse imkânsız hale geldikten sonra, LLM’ler, yapay zeka otomatik tamamlama ve ajan tabanlı geliştirme sayesinde yeniden yüksek kaliteli kod üretebilir oldum
Yapay zekanın halüsinasyonları bile promptları iyileştirmeye ve niyeti daha net ifade etmeye yardımcı oluyor
Erişilebilirlik açısından yapay zeka benim için vazgeçilmez bir araç ve bence mesele “iyinin kötüyü telafi edip etmediği”nden çok, ekosisteme bütüncül biçimde entegre etme yaklaşımı
Bazı projeler düşük kaliteli PR yağmuruna tutuluyor ve birçok katkıcı sadece GitHub profilini doldurmaya çalışıyor
Sonuçta önemli olan iyi niyetle katkı yapılıp yapılmadığı; projelerin de bunun kabul sınırını netleştirmesi gerekiyor
Böyle olunca inceleme yorgunluğu azalıyor ve sadece beklenenden farklı kısımlara odaklanabiliyorum
Artık bu tür özellikleri engelleyen şirketlerde çalışmak istemeyecek kadar ileri gittim
Erişilebilirlik boyutu çok önemli ama telif ve sorumluluk meseleleri hâlâ karmaşık
Bence PR incelemesi eninde sonunda güven meselesi. Gönderen kişinin elinden gelenin en iyisini yaptığına inanmak gerekiyor
Mesele yapay zeka kullanılıp kullanılmadığı değil, onun sorumlulukla kullanılıp kullanılmadığı
Birden fazla sahte hesap aslında tek bir saldırgana ait olabilir ve LLM’in ürettiği kod, LLM’e bakınca iyi göründüğü için doğrulaması daha da zor olur
Sonuçta PR değerlendirmek, onu üretmekten daha zor hale gelmiş durumda
Yapay zeka katkılarının kalitesi etrafındaki tartışma tuhaf. Kalite her zaman gönderenin sorumluluğunda
Yapay zeka kullanmış olmak sorumluluktan muafiyet sağlamaz; hatta yapay zeka kullanımını kısıtlayan politikalar iyi niyetli katkıcılara zarar verebilir
Ben yapay zekayla 300 commit’lik bir fork sürdürüyorum ama her satırı inceleyip açıklayabilirim
Sonuçta belirleyici olan katılımın niteliği, kullanılan aracın türü değil
Uzun vadede yapay zeka gelişirse insan ve yapay zeka çıktısını ayırt etmek zorlaşacak gibi görünüyor
Sonunda “yeterince iyi” seviyesine gelince insan yapımı gibi görünecek; o zaman ne olacağını merak ediyorum
Şu anda AI PR’larının çoğu düşük kaliteli ama kalite artsa bile hukuki ya da ideolojik nedenlerle reddedilebilirler
Aşırı derecede parçalanmış soyutlamalar ya da gereksiz refactor’lar sık görülüyor
İnsanların yapay zekayı araç olarak kullanması sorun değil ama yapay zekanın insanın yerini alacağı düzey hâlâ uzak
Yine de vibecoding’in aşırı kullanımı, inceleme ve bakım maliyetlerini hızla artırıyor
Benim duruşum “çalışıyorsa yeterlidir”
Kod işlevsellik, dokümantasyon, test ve doğruluk ölçütlerini karşılıyorsa, bunu yapay zekanın mı insanın mı yazdığı önemli değil
Önemli olan “çalışıyor” tanımını netleştirmek ve yetkin bir inceleme sistemi kurmak
Yapay zeka bir seferde binlerce satır kod üretip PR açabilir ama sonuçta bunu incelenebilir boyutla sınırlamak gerekir
Yapay zeka testleri geçse bile, yazarı içeriği anlamıyorsa bu risklidir
İş kapsamının sınırlandırılması ve önceden yapılmış manuel katkı geçmişi gerekli
Debian’ın politikası basit: “Kimse incinmesin”. Güzel bir ilke
Debian’ın, başkasının kodunu kendi koduymuş gibi göndermeyi yasaklayan bir kuralı olup olmadığı sorulmuştu
Aslında bu, telif hakkı ihlali nedeniyle yasa dışı olduğu için açıkça yazılmasa da fiilen örtük biçimde mevcut
LLM insan değil ama ürettiği kodun telif hakkı hâlâ belirsiz
Web uygulaması ya da mobil uygulama vibecoding’i çok sorun olmayabilir ama çekirdek, derleyici, işletim sistemi gibi kritik altyapı yazılımlarında yapay zeka kullanmak riskli
Bu alanlarda Ada/SPARK gibi biçimsel doğrulama dilleri gerekiyor
Bir gün yapay zekanın yaptığı fren sistemine sahip bir arabaya binecek olmaktan korktuğunu söyleyenler var
“YOLO tarzı kod gönderimi” yerine, “Yapay zeka kullandım ama olabildiğince doğruladım” denilen kod çok daha kabul edilebilir