3 puan yazan GN⁺ 2026-03-07 | 1 yorum | WhatsApp'ta paylaş
  • Açık kaynak proje chardet v7.0.0, tüm kodu AI aracı kullanarak yeniden yazdı ve lisansını LGPL'den MIT'ye değiştirdi
  • Orijinal yazar, bu sürecin GPL ihlali olasılığı taşıdığını savunuyor ve AI'nın orijinal kodu öğrenmiş durumda ürettiği çıktının "clean room implementation" olmadığını belirtiyor
  • Geleneksel clean room yaklaşımında iki ekibin ayrılması gerekirken, AI bu duvarı aşarak bunun türetilmiş eser sayılıp sayılmayacağı tartışmasını gündeme getiriyor
  • Aynı zamanda ABD Yüksek Mahkemesi'nin AI üretimlerine telif hakkı tanımaması, yeni kodun mülkiyeti ve lisansın geçerliliğini belirsiz hale getiriyor
  • Böyle örneklerin kabul edilmesi halinde, Copyleft düzeninin etkisizleşme riski gündeme geliyor

chardet projesinin AI tabanlı yeniden yazımı ve lisans değişikliği

  • Python karakter kodlaması algılama kütüphanesi chardet, başlangıçta Mozilla'nın C++ kodunun port edilmesiyle oluşturulmuştu ve bu nedenle LGPL kapsamındaydı
    • Bu da kurumsal kullanıcılar için hukuki belirsizlik yaratıyordu
  • Bakımcılar, Claude Code kullanarak tüm kodu yeniden yazdı ve v7.0.0 sürümünü MIT lisansı ile yayımladı
  • Orijinal yazar a2mark, bu adımın LGPL ihlali olduğunu öne sürüyor
    • Değiştirilen kodun hâlâ LGPL'ye tabi olması gerektiğini, ayrıca “tam yeniden yazım” iddiasının orijinal koda maruz kalınmış durumda üretilen bir çıktı olduğu için geçersiz olduğunu belirtiyor
    • AI ile kod üretmenin ek haklar sağlamadığını açıkça ifade ediyor

Clean room uygulaması ve AI'nın bunu aşması

  • Geleneksel clean room rewrite iki ekipten oluşur
    • Takım A, orijinal kodu analiz ederek işlevsel bir spesifikasyon hazırlar
    • Takım B, orijinali görmeden yalnızca bu spesifikasyona dayanarak yeni kodu yazar
  • Ancak AI, orijinal LGPL kodu girdi olarak alıp çıktı ürettiğinde bu usule dayalı ayrım ortadan kalkıyor
  • AI orijinal koddan öğrenip sonuç ürettiyse, bu çıktı LGPL türevi eser olarak değerlendirilebilir

ABD Yüksek Mahkemesi kararı ve hukuki paradoks

  • 2 Mart 2026'da ABD Yüksek Mahkemesi, AI üretimlerine telif hakkı tanınıp tanınmayacağına ilişkin temyiz başvurusunu reddetti
    • Böylece alt mahkemenin "Human Authorship" şartına ilişkin kararı yürürlükte kaldı
  • Bunun sonucunda chardet bakımcıları üç hukuki çelişkiyle karşı karşıya kaldı
    • Telif boşluğu: AI üretimleri telif koruması alamıyorsa, bunları MIT ile yeniden lisanslamak için hukuki dayanak yok
    • Türev eser tuzağı: AI çıktısı orijinal LGPL kodunun türevi ise bu bir lisans ihlali olur
    • Mülkiyet boşluğu: AI tamamen yeni kod ürettiyse, bu kod üretildiği anda public domain haline gelir ve MIT lisansının kendisi anlamsızlaşır

Copyleft düzeni üzerindeki olası etkiler

  • AI ile yeniden yazım yoluyla lisans değiştirme yaklaşımına izin verilirse, Copyleft'in temelinin çökme ihtimali doğabilir
  • Herkes bir GPL projesini bir LLM'e verip “bunu farklı bir tarzda yeniden yaz” diyerek ardından MIT lisansı ile dağıtabilir
  • chardet v7.0.0 vakası, bu hukuki ve etik sınırların ilk kez gerçek bir olay üzerinden sınandığı bir örnek olarak değerlendiriliyor

1 yorum

 
GN⁺ 2026-03-07
Hacker News görüşleri
  • Bakımcının yanıtına göre, Claude'a LGPL/GPL koduna bakmaması açıkça söylendi, ancak modelin zaten bu kodlarla eğitilmiş olma ihtimali yüksek
    Bir LLM'in eğitim verisinin etkisini tamamen **“unutması”**nın şu anda imkansız olduğu biliniyor
    İlgili bir çalışma olarak bu proje var
    Ben bir geliştirici ve fikri mülkiyet avukatı olarak, bu tür meselelerin ABD mahkemelerinde de hâlâ evrilmekte olduğunu söyleyebilirim
    Ayrıca Anthropic'in ücretli enterprise planı telif hakkı ihlali durumunda kullanıcıyı tazmin ederken, free/Pro/Max planlarında tersine kullanıcının Anthropic'i tazmin etmesi gerekiyor (şartlar madde 11)

    • Bakımcı “sıfırdan yeniden yazdığını” iddia ediyor ama gerçekte chardet'in test verilerini aynen kullandı ve 10 yılı aşkın süredir özgün kodu koruyan kişi
      Tam bir clean-room implementation olabilmesi için özgün kodu bilen kişiyle yeni yazan kişinin ayrılması gerekir; burada böyle bir ayrım yoktu
    • Benzer bir konuda şu başlıkta da tartışma vardı
    • Eğitim sırasında belirli token'ları rastgele maskeleyerek metnin birebir ezberlenmesini önlemeye yönelik çalışmalar vardı
      Anlamı korurken kelimelerin bir kısmını kaldırıp doğrudan alıntıyı engelleme fikriydi
    • Ücretli planlar arasındaki tazminat maddesi farkının önemli olduğunu ilk kez öğrenmem faydalı oldu
  • Bu yazı “clean-room implementation”ın anlamını yanlış anlıyor
    Mesele sadece “özgün koda bakmamak” değil, API spesifikasyonundan bağımsız biçimde uygulamak
    LLM'in ürettiği kodun özgün olana benzeme olasılığı yüksek olduğundan, hukuken bir kopya sayılma riski büyük
    chardet bakımcısının yaptıkları hukuken sorumsuz bir yeniden lisanslama gibi görünüyor ve ileride tedarik zinciri sorunları çıkarabilir

    • İki kişi bağımsız olarak aynı kodu yazdıysa her birinin ayrı telif hakkına sahip olabileceğini söyleyen hukuki açıklamaya atıf yaparak itiraz ediyor
    • Telif hakkı açısından kopyalama ancak bilgi akışı olduğunda oluşur
      Sadece aynı sonuca ulaşılmışsa bu işlevsel bir sonuçtur, telif ihlali değildir
    • Google vs Oracle davasında olduğu gibi API tabanlı uygulamalarda da hukuki risk vardır
      Vikipedi maddesine bakılabilir
    • IBM PC BIOS için Phoenix clean-room örneğinde olduğu gibi, özgün koda bakmadan yeniden yazmanın yasal olduğuna dair emsal de var
    • Eksiksiz bir CRRE(clean-room reverse engineering) süreci izlenirse, kod 1:1 aynı olsa bile hukuken kopya sayılmaz
      Ancak gerçek davalarda benzerlik yüksekse savunmak zordur
      chardet vakası da Japon yazı tipi telif tartışmalarında olduğu gibi, esaslı ihlal olmasa bile dağıtımın durmasına yol açabilir
  • “LGPL kodu hâlâ LGPL'dir”
    Tüm özgün telif hakkı sahipleri açıkça onay vermedikçe, lisans değişikliği mümkün değildir
    Kodu AI'ın dönüştürmüş olması telif hakkını ortadan kaldırmaz
    Aksi halde ABD'deki tüm telif endüstrisi çökerdi

    • Hukuken ayrı bir “LGPL kodu” niteliği yok; asıl mesele kopyalama eyleminin izinli olup olmadığıdır
      İzinsiz türev eser üreten birinin yeniden izin vermesi karmaşık bir meseledir
    • SCOTUS kararı, tersine, AI'ın ürettiği çıktıların yaratıcılık taşımadığını kabul etmesi bakımından özgün telif sahibinin haklarını güçlendiriyor
    • Tam anlamıyla AI tabanlı clean-room yeniden yazım olsaydı, fiilen public domain sayılabileceği de söylenebilir; ama pratikte böyle örnekler nadir
  • Üretken AI yüzünden telif sistemi çağın gerisinde kalıyor
    Eski yasalar tek amaçlı modelleri varsayıyordu, ama şimdi her kaynakla rekabet edebilen modeller ortaya çıktı
    GNU'nun lisans stratejisi de kod kıtlığını varsayıyordu; artık kod üretmek o kadar kolay ki bunun anlamı zayıflıyor

    • AI'a özgün kod verilip “bunu yeniden yaz” denirse bu bir türev eser olur; ama yalnızca işlev açıklaması verilirse yeni bir eser sayılır
      Dava halinde Claude logları delil olarak kullanılabilir
    • “Yasayı çiğneyerek denklemi değiştirdiler” eleştirisi de var
    • Fikirlerin değil ifadelerin korunduğu yönündeki eski varsayım, AI çağında sarsılıyor
      Artık fikirden çok ifade üretmenin kolay olduğu bir dönemdeyiz
    • Hatta bu değişimin telif tekeli yapısını kıran olumlu bir işaret olduğu görüşü de var
    • GNU'nun amacı lisans değil kullanıcının özgürlüğüydü
      AI sayesinde herkesin kod üretebildiği bir dünya, aslında GNU'nun hayal ettiği ütopyaya daha yakın olabilir
  • AI'ın ürettiği kod gerçekten yeni bir eser ise, üretildiği anda public domain olabileceği iddiası sorgulanıyor
    Modelin hangi verilerle eğitildiği bilinmediğinden bunun tersine mühendislik sayılabileceği söyleniyor
    Bu nedenle en kısıtlayıcı lisansın uygulanması ve AI şirketlerinin özgün hak sahiplerine gelir aktarması gerektiği savunuluyor

    • O durumda “All Rights Reserved” geçerli olur ve AI çıktılarını kullanmak imkansız hale gelir
      Gerçekte yalnızca izinli verilerle eğitilmiş modellerin performansı çok düşüktür
      Eğer AI üretimlerinin tümü türev eser sayılırsa, bütün açık kaynak projeleri kirlenmiş olur
    • AI özgün kodu neredeyse birebir kopyalamadığı sürece, ABD mahkemeleri eğitim verisinin telifini genelde sorun etmez
      Sonuçta insan olmayan hiç kimsenin mülkiyet iddia edemediği bir durum ortaya çıkarsa, fiilen public domain gibi muamele görür
    • Şaka yollu olarak, tüm LLM üretimi kodların doğrudan GPL v3 sayılması önerisi de vardı
    • Disney'nin çıkarı zarar görünceye kadar yasanın değişmeyeceğini söyleyen alaycı yorumlar da vardı
    • AI'ın özgün kodu doğrudan mı kullandığı, yoksa ara temsiller üzerinden mi yeniden yazdığına göre hukuki sorumluluk değişebilir
  • İlgili tartışma olarak “No right to relicense this project” başlıklı başka bir konu var

    • O daha çok doğrudan çalınmış bir proje gibi görünüyor; bu chardet vakasında asıl mesele AI yeniden yazımının meşruiyeti
  • AI'ın ürettiği kod public domain ise, MIT lisansının da anlamsız hale geldiği iddiasına itiraz ediliyor
    AI çıktıları basit bir kopya değildir ve yine de özgün eserin lisans kısıtlarına tabidir

    • AI'ın ürettiği sonuçlar hukuken eser sayılmadığı için, kimse bunlara lisans veremez
      Örneğin Project Gutenberg ile eğitilmiş bir şiir üreticisi de telif iddia edemez
    • Ancak kod için hukuki ölçütler hâlâ belirsiz
      Makrolar, kod üretim araçları, Intellisense gibi otomasyonlarda nerede “AI üretimi” başladığı sınırı muğlak
    • “copywrite” değil “copyright” doğru terimdir diye düzeltme yapanlar da vardı
    • AI üretiminde insanın yaratıcı katkısı varsa telif hakkı doğabileceğini savunan görüşler de vardı
  • Geçmişte chardet'i Python standart kütüphanesine dahil etme yönünde tartışmalar olmuştu
    Ancak bu lisans değişikliği tartışması yüzünden artık bunun ihtimal dışı kaldığı düşünülüyor
    İlgili tartışmalar için bu issue ile
    bakımcının açıklaması 1, açıklama 2 görülebilir

  • Bu tür bir AI ile yeniden lisanslama, açık kaynağın, özellikle de Copyleft'ın sonu anlamına gelebilir
    Lisanslar artık koruma işlevi görmezse, geliştiriciler yeniden kapalı geliştirmeye dönecektir

    • Ben de bu yüzden açık kaynak yayınlamayı tamamen bıraktım
      Son modellerin WebAssembly tersine mühendisliği bile yapabilmesi, bana adeta dark forest teorisini hatırlatıyor
    • Bu yalnızca açık kaynak için değil, kaynağını yayımlayan tüm projeler için geçerli
    • GPL'in amacı “istenmeyen kullanımı engellemek” değil, değişiklik yapıldığında kaynağın da yayımlanmasını istemektir
      AI yeniden yazımı GPL ise, onun da yayımlanması gerekir
    • “Özgür yazılımı” kapatmak istemenin baştan özgürlük felsefesiyle çeliştiği yönünde itirazlar da vardı
  • “AI yeniden yazımıyla lisans değiştirilebiliyorsa, telif hakkının tamamı çöker” sonucuna katılanlar var
    Çünkü bu mantık film, müzik, roman gibi tüm yaratıcı eserler için de geçerli olur
    Sonuçta mahkemelerin bu tür girişimleri teliften kaçış olarak kabul etmeyeceği düşünülüyor ve
    chardet projesinin yaklaşan büyük hukuki dalga karşısında bir deney nesnesine dönüşmemesi umuluyor