8 puan yazan GN⁺ 2026-03-10 | 1 yorum | WhatsApp'ta paylaş
  • Python karakter kodlaması algılama kütüphanesi chardet’in yapay zeka kullanılarak yeniden uygulanması ve LPGPL’den MIT’ye geçirilmesi, açık kaynak etiği tartışmasını tetikledi
  • Yapay zeka ile yeniden uygulamanın yasallığını kabul eden görüşler ortaya çıktı, ancak yazı hukuki izin ile toplumsal meşruiyetin farklı şeyler olduğunu vurguluyor
  • GNU ve Linux’un tarihsel yeniden uygulamaları, mülkiyetten özgürlüğe doğru bir genişleme idi; buna karşılık bu vaka, ortak alanın korunmasını zayıflatan bir yönde işliyor
  • GPL’nin paylaşım koşulları bir kısıtlama değil, karşılıklı paylaşımı güvence altına alan bir mekanizma; MIT tarzı özgürlük ise faydanın yalnızca daha fazla sermayeye sahip tarafa aktığı asimetrik bir yapı doğuruyor
  • Yapay zekanın copyleft’i dolanmasının kolaylaştığı bir çağda, ortak alandan alanın buna yeniden ortak alana geri vermesi gerektiği ilkesi daha da önemli hale geliyor

chardet 7.0’ın yapay zeka ile yeniden uygulanması ve lisans değişikliği

  • Python’daki chardet kütüphanesi, Anthropic’in Claude aracı kullanılarak baştan sona yeniden yazıldı
    • Yeni sürüm öncekinden 48 kat daha hızlı ve çok çekirdek desteği ekliyor
    • Kod benzerliği %1,3’ün altında ölçüldüğü için bağımsız bir eser olarak değerlendiriliyor
  • Mevcut LGPL lisansı, MIT lisansına çevrildi; böylece kaynak kodu yayımlama yükümlülüğü ortadan kalktı
  • Orijinal yazar Mark Pilgrim, GitHub issue üzerinden LGPL ihlali ihtimalini gündeme getirdi
    • Yapay zekanın mevcut kod tabanına maruz kaldığı bir ortamda yapılan yeniden uygulamanın, “clean room” yöntemi sayılmasının zor olduğu görüşünü savundu

Açık kaynak dünyasındaki zıt tepkiler

  • Armin Ronacher (Flask’ın yaratıcısı) yeniden lisanslamayı memnuniyetle karşıladı ve GPL’nin paylaşım ruhuna aykırı olduğunu savundu
  • Salvatore Sanfilippo (antirez, Redis’in yaratıcısı), yapay zeka ile yeniden uygulamanın yasallığını savundu; dayanak olarak GNU tarihi ile telif hakkı hukukunu gösterdi
  • Her ikisi de hukuki izin ile meşruiyeti eşitleme eğiliminde; yazı ise hukuk ile etik arasındaki boşluğu sorun olarak ortaya koyuyor

GNU tarihi ve yön farkı

  • GNU’nun yeniden uygulamaları, mülkiyetli yazılımı özgür yazılıma dönüştürme süreciydi
    • Buradaki öz, hukuki izin değil, ortak alanı genişletmeye dönük etik yönelimdi
  • Buna karşılık chardet vakası, copyleft korumasını kaldıran ve ortak alanın çitlerini söken bir yönde çalışıyor
    • chardet 7.0 tabanlı türevler artık kaynak kodu açıklama yükümlülüğü taşımıyor
  • antirez, bu yön farkının tersliğini gözden kaçırıyor ve GNU örneğini yanlış bir gerekçe olarak kullanıyor

GPL ve paylaşımın anlamı

  • Ronacher, GPL’nin paylaşımı sınırladığını savunuyor; yazı ise bunu temel bir yanlış anlama olarak değerlendiriyor
    • GPL, kaynak kodunun açıklanmasını yalnızca dağıtım halinde ister; kişisel kullanımda bir kısıtlama yoktur
    • Bu, paylaşımı bastıran değil, paylaşımda karşılıklılığı güvence altına alan bir mekanizmadır
  • MIT lisansı kodu alan kişiyi özgür bırakır, ancak katkıyı geri verme zorunluluğu yoktur
    • Sonuçta faydalar sermayesi ve insan kaynağı daha güçlü olan tarafa yığılır
  • 1990’larda GPL kodunun şirketler tarafından soğurulduğu örnekler, copyleft’in güçlendirilmesi gereğini gösteriyordu

Kendisiyle çelişen örnek: Vercel ve Cloudflare

  • Vercel, yapay zeka ile GNU Bash’i yeniden uyguladıktan sonra, Cloudflare Next.js’i yeniden uygulayınca rahatsızlığını dile getirdi
  • Next.js, MIT lisanslı olduğu için hukuki bir sorun yoktu
  • Bu durum, “GPL’yi MIT’ye çevirmek paylaşımın zaferidir” denirken, kendi kodu yeniden uygulandığında tepki gösterilmesi şeklindeki çelişkiyi ortaya koyuyor
  • Ronacher bunu kabul etse de sonucunu değiştirmiyor; bu yüzden tutumunun mantıktan çok pozisyona göre şekillendiği değerlendiriliyor

Yasallık ile meşruiyetin ayrımı

  • Hukuk yalnızca yasaklamadığı eylemleri tanımlar; doğru olanı garanti etmez
    • Vergiden kaçınma ya da ilaç fiyatlarını artırma gibi, yasal ama toplum karşıtı eylemler vardır
  • chardet’in LGPL’si, salt hukuki bir araç değil, 12 yıllık toplumsal bir sözleşmeydi
    • “Bu kodu kullanırsan aynı koşullarla paylaşırsın” şeklindeki güvene dayalı bir mutabakat
  • Yapay zeka ile yeniden uygulama hukuken yeni bir eser sayılsa bile, katkı sunanlarla kurulan güveni bozan bir eylemdir
  • FSF’den Zoë Kooyman, “Kendisine verilen hakları başkalarına tanımamak toplum karşıtı bir davranıştır” diye açıkça belirtiyor

Bakış açısındaki asimetri

  • antirez ve Ronacher, açık kaynak dünyasının merkezdeki figürleri; yapay zeka ile yeniden uygulama, kendileri için avantajlı bir ortam anlamına geliyor
  • Buna karşılık chardet katkıcıları için bu durum, katkı korumasının kaybı anlamına geliyor
  • Bu asimetri görmezden gelinip “hukuken sorun yok” denmesi, analiz değil rasyonalizasyon olarak değerlendiriliyor

Copyleft’in geleceği ve toplumsal yargı

  • Bruce Perens, “yazılım geliştirmenin ekonomisi sona erdi” diyerek uyardı
    • antirez “uyum sağlamak gerekir”, Ronacher ise “ilginç” diye yanıt verdi
  • Ancak asıl soru şu: “Copyleft, dolanılması kolaylaştıkça daha da gerekli hale mi geliyor?
    • Yazı buna net biçimde “evet” diyor
  • GPL, kodun kıtlığını değil, kullanıcının özgürlüğünü korur
    • Yapay zeka ile yeniden uygulama kolaylaştıkça, copyleft’i ortadan kaldırmanın sürtünmesi de azalıyor
  • “Ortak alandan alan, ortak alana geri vermelidir” ilkesi, zamandan ya da teknolojik değişimden bağımsız bir toplumsal normdur
  • Hukuk yavaş değişir, ancak önce hareket eden şey topluluğun değer yargıları olmuştur
    • GPLv2→v3→AGPL evrimi de, hukuktan önce topluluğun yargısının geldiğini gösteriyor
  • Yapay zeka çağında, test suite’lerin ve API spesifikasyonlarının da copyleft korumasına dahil edilmesi gerekir
  • Sonuç olarak, önce hukuki karar değil toplumsal hüküm verilmelidir;
    yasallık meşruiyetin yerini tutamaz

1 yorum

 
GN⁺ 2026-03-10
Hacker News görüşleri
  • Artık yalnızca specification ile kaynak kod üretilebiliyorsa, GPL projelerinin temel fikri mülkiyeti specification içinde yer alıyor demektir
    Geçmişte kurumsal yazılımları taklit etmenin yasal olarak mümkün olması için mücadele ettik, ama şimdi bu haktan kendi elimizle vazgeçip fikri mülkiyet sahiplerine daha fazla kontrol vermeye çalışıyoruz
    Bu gidişat, büyük şirket karşıtı ya da paylaşım dostu sonuçlar doğurmayacaktır. Sonuçta bu gücü kullanacak olanlar büyük şirketler olacaktır

    • Bu, geçmişteki Oracle vs Google API davasına çok benziyor
    • Ama geçmişteki geliştiriciler, kendi işlerini öğrenmiş üretken yapay zeka ile rekabet etmiyordu
      Şimdi dönem tamamen farklı. Alıntılanan iddia, daha önce zaten eleştirilmiş bir noktayı tekrar ediyor.
      Bu tartışmaya katılıyorsanız, asıl makaleyi doğrudan okumanızı özellikle tavsiye ederim
  • Benim ilginç bulduğum nokta, bunun sadece telif hakkının ötesine geçip fikri mülkiyet (IP) kavramının kendisini çökertip çökertemeyeceği
    IP, ‘yaratıcılık zordur’ varsayımı üzerine kuruluydu, ama LLM’ler artık matematik ispatı, yeni ilaç tasarımı gibi neredeyse her tür bilgi üretimini otomatikleştiriyor
    O halde artık ‘zor olmayan’ yaratımlara tekel hakkı vermek için bir gerekçe var mı? Sonuçta AI, patentleri bile sadece aşılması gereken kısıtlar olarak ele alacaktır

    • Yine de insanların ürettiği sonuçların hâlâ korunması gerektiğini düşünüyorum
      Mevcut hukukta AI çıktıları telif korumasına tabi değil, korunabilmesi için insanın anlamlı müdahalesi gerekiyor
      İnsan emeğiyle ortaya çıkan sonuçlar, büyük şirketlerin bedavaya alıp götüremeyeceği şekilde korunmalı
    • Telif hakkı, harcanan emek miktarıyla değil özgünlük ve ifade biçimiyle ilgilidir. ABD hukuku ‘Sweat of the Brow’ ilkesini kabul etmez
    • Artık IP, seçkinlerin tekeline aldığı çarpık bir kavrama dönüştü. Disney’nin Mickey Mouse’undan sonra her şey yokuş aşağı gitti
    • Muhtemelen bu sadece bir geçiş dönemi. Eskiden zor olan sorunlar kolaylaşacak ve biz daha zor sorunlara yöneleceğiz
      Yalnız o sorunları çözenin insan olmama ihtimali de var
    • Aslında IP, en başından beri sayıların mülkiyeti gibi çelişkili bir kavramdı
      Bilgisayar ortaya çıktığı anda zaten anlamsızlaşmıştı, ama lobicilikle ayakta tutuldu.
      Şimdi AI, o tabuta son çiviyi çakabilir.
      Sonuçta asıl önemli olan modelin weights değerleri; bunlar herkesin erişebilmesi için açılmalı ya da gerekirse zorla kamuya sunulmalı
  • Birinin bunu gerçekten test etmesi gerekiyor
    Sızdırılmış Minecraft kaynak kodunu Copilot’a verip, başka bir dilde tamamen aynı bir kopyasını ürettirip açık kaynak olarak yayımlamak mesela
    Bakalım Microsoft buna telif ihlali diyecek mi

    • Ama bu sadece bir port olacağı için ihlal sayılma ihtimali yüksek.
      Bunun yerine “Minecraft’ı sıfırdan implemente et” demek gerekir.
      Yalnız texture ya da model yeniden kullanılamayacağı için, bunları AI’ın yeniden üretmesi gerekir
    • İş gerçekten ilginçleşecek olan, AI’ın binary decompile da yapabildiği zaman olacak
    • Bence tam da bu yöntem, onların silahını kendilerine karşı kullanmak olur
    • Asıl mesele, eğitim verisinde telifli materyal varsa bunun çıktısının ihlal sayılıp sayılmayacağı
      Senin örneğin ise ihlal ihtimali çok daha açık olan bir durum
    • Şu anda en önemli soru bu.
      Diyelim ki bir LLM kullanarak sızdırılmış Windows kaynak kodundaki lisansı kaldırıp WINE için kod üretiyorsun; ne olacak?
      Son dönemde LLM kullanarak binary decompile denemeleri de yoğun biçimde tartışılıyor
  • Açık kaynak dünyasından iki kişi bu tartışmaya katıldı, ama ikisi de IP avukatı değil
    Gerçek bir avukat olan Richard Fontana tartışmaya katıldı, fakat onun açtığı konu kapatıldı
    Kendisi GitHub issue içinde “AI üretimi içerikler genel olarak telif korumasına uygun değildir” diye belirtti
    Yani bir kişi kodu doğrudan düzenlemeden sadece prompt yazdıysa, o koda MIT lisansı eklemek başlı başına ciddi hukuki sonuçlar doğurabilir

    • Ama ben Fontana’nın mantığını zayıf buluyorum
      Bana daha çok fotoğraf çekmeye benziyor. Kamera telif sahibi olmaz ama insan olabilir
      Piksel düzeyinde müdahale etmese bile bunun insanın yaratımı sayılması gibi
  • GPL’in tarihine bakınca, bu telif hakkına karşı telif hakkısını kullanma girişimiydi
    Zaten ‘Copyleft’ adı da bunu anlatıyor
    Fakat AI, telif hakkının kendisini aşındırıyor.
    Artık yalnızca GPL programları değil, kapalı kaynak yazılımlar da AI ile yeniden implemente edilebiliyor
    Öyleyse GNU, GPL’den vazgeçip LLM’leri yeni silahı haline getirmeli

    • Ama yüksek performanslı LLM’ler, devasa sermaye gücü gerektiren bir teknoloji
      Bu da açık kaynak özgürlüğünü daha da zayıflatıp gücü büyük şirketlere kaydırıyor
      Ayrıca LLM’ler, sayısız gönüllünün koduyla eğitildi ama bunun kazancını büyük şirketler topluyor
      Sonuç olarak açık kaynağın cazibesi azalabilir ve lisanslara saygı tamamen yok olabilir
    • Copyleft, telif hakkının zıttı değil; kullanıcıya hak veren bir yapı
      Özellikle kullanıcının kendi cihazında çalışan yazılımı değiştirme hakkını güvence altına alır
      Ama belirli araçlar, anahtarlar ya da specification’lar kısıtlıysa yeniden implementasyon mümkün olmayabilir
    • LLM’in gerçekten özgürce kullanılabilen bir araç olup olmadığı da şüpheli
      Sonunda ‘kötü şirketlerin’ silahını ödünç alarak savaşıyor olabiliriz
    • Aslında bugünün LLM’leri zaten ‘kötü yazılım şirketlerinin’ cisimleşmiş hâli
    • Sıradan insanların kolayca barındırabileceği bir açık kaynak LLM çıkmadan, gerçek yazılım özgürlüğü hâlâ çok uzak
  • Bence lisans ihlali zaten yaşandı
    Büyük modellerin çoğu veri toplama sürecinde hizmet şartlarını ihlal etti
    Dolayısıyla GPL koduyla eğitilmiş modellerin, açık lisans yükümlülüklerini infect etmiş sayılması gerekir

    • Ama eğitimin kendisi telif ihlali değildir. Bu, fair use olarak kabul edilir
      Hukuken önemli olanlar: ① verinin yasal biçimde elde edilip edilmediği, ② çıktının özgün ifade içerip içermediği
      Bu vakada %98,7’sinin yeni kod olduğu tespit edildi
    • Son sözü mahkemeler söylemek zorunda. Ama tartışma ‘fair use’ ilkesinden çok, çıktının dönüştürücülüğü etrafında şekillenecek gibi duruyor
    • Birçok içtihatta eğitim eyleminin kendisi zaten fair use sayıldı
      Asıl mesele çıktının ne kadar dönüştürücü olduğu.
      Bu, NYT vs OpenAI davasının da temel tartışma noktası
  • Blanchard, “API ve testleri Claude’a verip yeni bir implementasyon yaptırdım” dedi ama,
    bu biraz “gözlerimi bağlayıp tuvale boya fırlattım ve ortaya Mickey Mouse çıktı” demeye benziyor
    Kendisi zaten ilgili kodun bakımını yapan kişiydi, dolayısıyla tamamen bağımsız olduğunu söylemek zor

    • Ama gerçekten kodu görüp görmemiş olması o kadar önemli değil
      Orijinal kodu girip kopya üretmesi için ayarladıysa, bu hâlâ telif ihlali olur
      AI basit bir araçsa sorumluluk kullanıcıdadır; bağımsız bir failse, o zaman ihlali yapan da odur
    • Ben kodun yeniden implementasyonunun yasal olduğunu ve etik olarak da kabul edilebilir olduğunu düşünüyorum
      Yeter ki ifade unsurları birebir kopyalanmasın
    • Oracle vs Google örneğinde olduğu gibi API yeniden implementasyonu mümkündür
      Blanchard bütün prompt’ları yayımlarsa, herkes aynı sonucu yeniden üretebilir
    • Blanchard’ın bunu gerçekten söylediğine dair alıntıyı bulabilir misin?
      Benim anladığım, sadece Claude’un kodu görmediğini söylediğiydi
    • Ama Mickey Mouse benzetmesi ticari marka meselesi olduğu için, hukuken çok isabetli değil
  • Makaleye göre Claude’a sadece API ve testler verildi ve kütüphaneyi yeniden implemente etti
    Oysa GPL2, test paketini de kaynak kodun bir parçası sayar
    Bu durumda Claude testleri kullandıysa, ortaya çıkan sonuç LGPL 2.1 açısından orijinal eserden türetilmiş bir çalışma olabilir

    • Ama hukuken bu transformative use sayılır
      Yine de testleri MIT lisansıyla yeniden dağıtmak mümkün olmayabilir
      Bu yüzden pratik çözüm, kodu MIT ile dağıtıp testleri ayrıca LGPL altında sunmak olabilir
    • Google vs Oracle kararına göre API kullanımı fair use’tur
      Test case’ler de API kullanımının bir parçası sayılabilir
  • Bizim şirkette, güvenlik ekibinin onaylamadığı araçları kullanabilmek için AI ile yeniden implementasyon yapılmaya başlandı
    Güvenlik ekibi ‘varsayılan olarak reddet’ politikasına sahip, mühendislik ekibi ise ‘AI’ı aktif kullan’ yaklaşımında
    Sonuçta, iç kullanım için araçları AI ile baştan yazmayı teşvik eden tuhaf bir teşvik yapısı doğuyor
    Farklı bir sonuç istiyorsanız, önce teşvik tasarımını değiştirmeniz gerekir

    • “Not Invented Here” kültürü giderek antibiyotik direnci gibi güçleniyor
      Eğer AI güvenlik odaklı kodu tekrar tekrar iyi yazabiliyorsa,
      neden aynı AI’ın üçüncü taraf yazılımların güvenlik doğrulamasını yapamayacağına inanıyoruz?
      Üretim ile analiz arasındaki asimetri neden var, bunu sorgulamak isterim
  • GPL şartları yalnızca distribution anında devreye girer
    Değiştirilmiş kodu dağıttığınızda veya ağ hizmeti olarak sunduğunuzda kaynak kodunu açıklamanız gerekir
    Ancak ağ üzerinden hizmet sunmak distribution sayılmadığı için, bunu kapatmak üzere AGPL oluşturuldu