Linux çekirdeğine katkıda bulunurken yapay zeka destekli araç kullanımı yönergeleri
(github.com/torvalds)- Linus Torvalds’ın Linux çekirdeği resmî belgesine göre, yapay zeka kodlama araçlarıyla katkı yapılırken mevcut çekirdek geliştirme süreci ve kodlama stiline aynen uyulması gerekiyor
- AI,
Signed-off-byetiketini ekleyemez — yasal olarak yalnızca insanlar onay verebilir ve yapay zeka tarafından üretilen kodun incelenmesi, lisans uyumluluğu ve tüm hukuki sorumluluk insan geliştiriciye aittir - Yapay zekanın katkıda bulunduğu kodlarda,
Assisted-by: Claude:claude-3-opus coccinelle sparsebenzeri bir biçimle model adı:sürüm ve analiz araçları belirtilmelidirgit,gcc,makegibi temel geliştirme araçları bu bildirimin dışında tutulur
- Tüm katkıların GPL-2.0-only ile uyumlu olması gerekir ve SPDX lisans tanımlayıcısı zorunludur
1 yorum
Hacker News görüşleri
Temel kural şu: AI kullanmak serbest, ancak commit'in sorumluluğu tamamen insana ait
Kodun lisans koşullarını karşılaması gerektiği kulağa gayet sağduyulu geliyor. Çoğu geliştiricinin katılacağı bir içerik
Yine de bunun özellikle yazılı hale getirilmesi şaşırtıcı
Bugünlerde AI'nin ürettiği kodu anlamadan açık kaynağa yükleyip, sonra sorun çıkınca “bunu AI yaptı” diyerek sorumluluktan kaçan çok kişi var
Böyle bir ortamda bakımcıların AI koduna kuşkuyla yaklaşması doğal
Torvalds'ın bu politikası yüzünden onu hain görenler de var; AI üretimi kod birleştirilirse bir daha katkı yapmayacağını söyleyenler de
Kısa süre önce Greg KH'nin Sashiko AI reviewer'ı tüm patch'lere uyguladığını gördükten hemen sonra, bu politika biraz tezat gibi geliyor
AI reviewer gerçekten faydalı oluyor, ama tartışma hâlâ “AI kodunun sorumluluğu” etrafında dönüyor
AI'nin kendinden emin biçimde yanıldığı race condition veya lock sorunları asıl tehlikeli kısım
Bunun uzun vadeli çözüm mü olduğu, yoksa bakım tarafı Sashiko benzeri sistemlerle filtrelemeyi güçlendirmeden önce alınmış geçici bir önlem mi olduğu merak ediliyor
Torvalds'ın duyurduğu politika, insanların AI kodu konusunda inceleme, imza ve sorumluluk üstlenmesini açıkça şart koşuyor
Muhtemelen hukukçular tarafından incelenmiştir ve bundan sonra AI destekli geliştirme için bir ölçüt hâline gelebilir gibi görünüyor
Hatta bir keresinde yamam başka birinin refactor çalışmasına dahil edilirken adım otomatik olarak eklenmişti
Pratikte herkes “Co-developed-by” ya da “Signed-off-by” ekleyebilir ve hukuki bağlayıcılığı neredeyse yok
LLM kaynak gösteremiyorken lisans uyumunun nasıl garanti edilebileceği şüpheli
Yazar AI kullanıcısı da olabilir, modeli geliştiren taraf da; bu yüzden ciddi bir hukuki belirsizlik var
Bu durumda uzun vadede çekirdek lisansının kendisi bile etkisiz hâle gelebilir
Konu KPMG Law'un AI ve telif hakkı yazısında ele alınıyor
AI modellerini belirtmek için “Assisted-by:” etiketinin yeniden kullanılması garip
Bu etiket aslında insanların yardımını belirtmek içindi; şimdi iki ayrı anlamı olmuş oluyor ve kafa karıştırıyor
Normalde “AI-assistant:” gibi ayrı bir etiket kullanılması daha yaygındır
Açık kaynak için doğru yön, insan ile ajan arasındaki bağı açıkça göstermek ve nihai doğrulama sorumluluğunu insanın taşıması
Linus'a teşekkürler
Kod AI tarafından yazılmış olsa bile sorumluluk insandadır ilkesinin kabul görmesi sevindirici
Eski “kötü usta aletlerini suçlar” sözünün ters çevrilmiş hâli gibi
Sonuçta araç seçimi ve kullanım sorumluluğu insana ait
Bu politika Linux'u telif ihlali sorumluluğundan korumaz
Bir perakendecinin “tedarikçinin THC'yi çıkardığına inanıyorum” demesine benziyor
Kendi kendine muafiyet ilan etmek, hukuki sorumluluğu ortadan kaldırmaz
Bir ihlal kodu dahil olsa bile davanın hedefi Linux kullanıcıları ya da şirketler olur
Gerçekte böyle davaların açılması pek olası görünmüyor
Bu benzetme baştan sorunlu
Bir insan isterse özel kaynak kodu kopyalayıp yapıştırarak da imzalayabilir
Sonuçta asıl sorun yalan söyleyen insan
“Tüm kod GPL-2.0-only ile uyumlu olmalı” diye bir madde var,
ama AI'nin farklı lisanslı kodlarla eğitildiği bir durumda bunun nasıl garanti edileceği belirsiz
AI hata yaparsa bunun sorumluluğu da insana aittir. Endişen varsa AI kullanmamalısın
Yine de AI çalışma anında başka kod tabanlarına başvuruyorsa risk daha yüksek olabilir
Ama bu yaklaşım tersine lisansın anlamını sulandırabilir
“Kodun %100'ünü AI yazdı ama ben inceledim” notunun hukuki gücü zayıf
Hatta bu sorunlara dikkat çekmek için “%100 vibecoded” projelere public domain olarak yeniden lisanslama konulu issue açılması öneriliyor