10 puan yazan GN⁺ 19 일 전 | 1 yorum | WhatsApp'ta paylaş
  • Linus Torvalds’ın Linux çekirdeği resmî belgesine göre, yapay zeka kodlama araçlarıyla katkı yapılırken mevcut çekirdek geliştirme süreci ve kodlama stiline aynen uyulması gerekiyor
  • AI, Signed-off-by etiketini ekleyemez — yasal olarak yalnızca insanlar onay verebilir ve yapay zeka tarafından üretilen kodun incelenmesi, lisans uyumluluğu ve tüm hukuki sorumluluk insan geliştiriciye aittir
  • Yapay zekanın katkıda bulunduğu kodlarda, Assisted-by: Claude:claude-3-opus coccinelle sparse benzeri bir biçimle model adı:sürüm ve analiz araçları belirtilmelidir
    • git, gcc, make gibi temel geliştirme araçları bu bildirimin dışında tutulur
  • Tüm katkıların GPL-2.0-only ile uyumlu olması gerekir ve SPDX lisans tanımlayıcısı zorunludur

1 yorum

 
GN⁺ 19 일 전
Hacker News görüşleri
  • Temel kural şu: AI kullanmak serbest, ancak commit'in sorumluluğu tamamen insana ait
    Kodun lisans koşullarını karşılaması gerektiği kulağa gayet sağduyulu geliyor. Çoğu geliştiricinin katılacağı bir içerik

    • Bu gerçekten normal ve sıkıcı derecede makul bir politika
      Yine de bunun özellikle yazılı hale getirilmesi şaşırtıcı
      Bugünlerde AI'nin ürettiği kodu anlamadan açık kaynağa yükleyip, sonra sorun çıkınca “bunu AI yaptı” diyerek sorumluluktan kaçan çok kişi var
      Böyle bir ortamda bakımcıların AI koduna kuşkuyla yaklaşması doğal
    • Linux topluluğunda AI destekli commit'lere aşırı derecede karşı olan çok kişi var
      Torvalds'ın bu politikası yüzünden onu hain görenler de var; AI üretimi kod birleştirilirse bir daha katkı yapmayacağını söyleyenler de
    • AI çıktısı GNU GPL değilse, Linux geliştiricisinin eklemiş olmasıyla bunun GPL koduna dönüşüp dönüşmediği şüpheli
    • AI sadece bir araç (tool) iken, neden özellikle yazar olarak belirtilmesi gerektiğini anlamıyorum
  • Kısa süre önce Greg KH'nin Sashiko AI reviewer'ı tüm patch'lere uyguladığını gördükten hemen sonra, bu politika biraz tezat gibi geliyor
    AI reviewer gerçekten faydalı oluyor, ama tartışma hâlâ “AI kodunun sorumluluğu” etrafında dönüyor
    AI'nin kendinden emin biçimde yanıldığı race condition veya lock sorunları asıl tehlikeli kısım
    Bunun uzun vadeli çözüm mü olduğu, yoksa bakım tarafı Sashiko benzeri sistemlerle filtrelemeyi güçlendirmeden önce alınmış geçici bir önlem mi olduğu merak ediliyor

  • Torvalds'ın duyurduğu politika, insanların AI kodu konusunda inceleme, imza ve sorumluluk üstlenmesini açıkça şart koşuyor
    Muhtemelen hukukçular tarafından incelenmiştir ve bundan sonra AI destekli geliştirme için bir ölçüt hâline gelebilir gibi görünüyor

    • Ama asıl belge, Linux maintainer tartışmalarına dayanarak Sasha Levin tarafından yazıldı
    • ‘Signed-off-by’ zaten büyük ölçüde şekli bir prosedür; birçok yeni katkıcı ne anlama geldiğini bile bilmeden ekliyor
      Hatta bir keresinde yamam başka birinin refactor çalışmasına dahil edilirken adım otomatik olarak eklenmişti
      Pratikte herkes “Co-developed-by” ya da “Signed-off-by” ekleyebilir ve hukuki bağlayıcılığı neredeyse yok
  • LLM kaynak gösteremiyorken lisans uyumunun nasıl garanti edilebileceği şüpheli

    • Almanya'da LLM çıktıları telif hakkı koruması kapsamında değil
      Yazar AI kullanıcısı da olabilir, modeli geliştiren taraf da; bu yüzden ciddi bir hukuki belirsizlik var
      Bu durumda uzun vadede çekirdek lisansının kendisi bile etkisiz hâle gelebilir
      Konu KPMG Law'un AI ve telif hakkı yazısında ele alınıyor
  • AI modellerini belirtmek için “Assisted-by:” etiketinin yeniden kullanılması garip
    Bu etiket aslında insanların yardımını belirtmek içindi; şimdi iki ayrı anlamı olmuş oluyor ve kafa karıştırıyor
    Normalde “AI-assistant:” gibi ayrı bir etiket kullanılması daha yaygındır

  • Açık kaynak için doğru yön, insan ile ajan arasındaki bağı açıkça göstermek ve nihai doğrulama sorumluluğunu insanın taşıması
    Linus'a teşekkürler

  • Kod AI tarafından yazılmış olsa bile sorumluluk insandadır ilkesinin kabul görmesi sevindirici

  • Eski “kötü usta aletlerini suçlar” sözünün ters çevrilmiş hâli gibi
    Sonuçta araç seçimi ve kullanım sorumluluğu insana ait

  • Bu politika Linux'u telif ihlali sorumluluğundan korumaz
    Bir perakendecinin “tedarikçinin THC'yi çıkardığına inanıyorum” demesine benziyor
    Kendi kendine muafiyet ilan etmek, hukuki sorumluluğu ortadan kaldırmaz

    • Ama Linux çekirdeği hukuki bir tüzel kişilik değil, katkıcıların bir araya geldiği bir bütün
      Bir ihlal kodu dahil olsa bile davanın hedefi Linux kullanıcıları ya da şirketler olur
      Gerçekte böyle davaların açılması pek olası görünmüyor
    • AI kodu kullanan çok şirket var, ama bu hepsinin mutlaka hukuki sorumluluk üstlendiği anlamına gelmiyor
    • Açık kaynak projeleri mağazalardan farklı olarak tüketici garantisi vermez
      Bu benzetme baştan sorunlu
    • Aslında AI kodu diye otomatik olarak daha riskli değil
      Bir insan isterse özel kaynak kodu kopyalayıp yapıştırarak da imzalayabilir
      Sonuçta asıl sorun yalan söyleyen insan
  • “Tüm kod GPL-2.0-only ile uyumlu olmalı” diye bir madde var,
    ama AI'nin farklı lisanslı kodlarla eğitildiği bir durumda bunun nasıl garanti edileceği belirsiz

    • Cevap basit: AI kullanan kişi sorumluluğu üstlenir
      AI hata yaparsa bunun sorumluluğu da insana aittir. Endişen varsa AI kullanmamalısın
    • Aslında insan geliştiriciler de sadece GPL kodu görmüş değil
    • Telif yorumu mahkemelerin işi; Torvalds'ın önceden tahmin etmesi gereken bir konu değil
      Yine de AI çalışma anında başka kod tabanlarına başvuruyorsa risk daha yüksek olabilir
    • Bazıları “AI'nin yazdığı kod public domain sayılır, dolayısıyla GPL ihlali değildir” diye savunuyor
      Ama bu yaklaşım tersine lisansın anlamını sulandırabilir
      “Kodun %100'ünü AI yazdı ama ben inceledim” notunun hukuki gücü zayıf
      Hatta bu sorunlara dikkat çekmek için “%100 vibecoded” projelere public domain olarak yeniden lisanslama konulu issue açılması öneriliyor