- Python karakter kodlaması algılama kütüphanesi chardet’in yapay zeka kullanılarak yeniden uygulanması ve LPGPL’den MIT’ye geçirilmesi, açık kaynak etiği tartışmasını tetikledi
- Yapay zeka ile yeniden uygulamanın yasallığını kabul eden görüşler ortaya çıktı, ancak yazı hukuki izin ile toplumsal meşruiyetin farklı şeyler olduğunu vurguluyor
- GNU ve Linux’un tarihsel yeniden uygulamaları, mülkiyetten özgürlüğe doğru bir genişleme idi; buna karşılık bu vaka, ortak alanın korunmasını zayıflatan bir yönde işliyor
- GPL’nin paylaşım koşulları bir kısıtlama değil, karşılıklı paylaşımı güvence altına alan bir mekanizma; MIT tarzı özgürlük ise faydanın yalnızca daha fazla sermayeye sahip tarafa aktığı asimetrik bir yapı doğuruyor
- Yapay zekanın copyleft’i dolanmasının kolaylaştığı bir çağda, ortak alandan alanın buna yeniden ortak alana geri vermesi gerektiği ilkesi daha da önemli hale geliyor
chardet 7.0’ın yapay zeka ile yeniden uygulanması ve lisans değişikliği
- Python’daki chardet kütüphanesi, Anthropic’in Claude aracı kullanılarak baştan sona yeniden yazıldı
- Yeni sürüm öncekinden 48 kat daha hızlı ve çok çekirdek desteği ekliyor
- Kod benzerliği %1,3’ün altında ölçüldüğü için bağımsız bir eser olarak değerlendiriliyor
- Mevcut LGPL lisansı, MIT lisansına çevrildi; böylece kaynak kodu yayımlama yükümlülüğü ortadan kalktı
- Orijinal yazar Mark Pilgrim, GitHub issue üzerinden LGPL ihlali ihtimalini gündeme getirdi
- Yapay zekanın mevcut kod tabanına maruz kaldığı bir ortamda yapılan yeniden uygulamanın, “clean room” yöntemi sayılmasının zor olduğu görüşünü savundu
Açık kaynak dünyasındaki zıt tepkiler
- Armin Ronacher (Flask’ın yaratıcısı) yeniden lisanslamayı memnuniyetle karşıladı ve GPL’nin paylaşım ruhuna aykırı olduğunu savundu
- Salvatore Sanfilippo (antirez, Redis’in yaratıcısı), yapay zeka ile yeniden uygulamanın yasallığını savundu; dayanak olarak GNU tarihi ile telif hakkı hukukunu gösterdi
- Her ikisi de hukuki izin ile meşruiyeti eşitleme eğiliminde; yazı ise hukuk ile etik arasındaki boşluğu sorun olarak ortaya koyuyor
GNU tarihi ve yön farkı
- GNU’nun yeniden uygulamaları, mülkiyetli yazılımı özgür yazılıma dönüştürme süreciydi
- Buradaki öz, hukuki izin değil, ortak alanı genişletmeye dönük etik yönelimdi
- Buna karşılık chardet vakası, copyleft korumasını kaldıran ve ortak alanın çitlerini söken bir yönde çalışıyor
- chardet 7.0 tabanlı türevler artık kaynak kodu açıklama yükümlülüğü taşımıyor
- antirez, bu yön farkının tersliğini gözden kaçırıyor ve GNU örneğini yanlış bir gerekçe olarak kullanıyor
GPL ve paylaşımın anlamı
- Ronacher, GPL’nin paylaşımı sınırladığını savunuyor; yazı ise bunu temel bir yanlış anlama olarak değerlendiriyor
- GPL, kaynak kodunun açıklanmasını yalnızca dağıtım halinde ister; kişisel kullanımda bir kısıtlama yoktur
- Bu, paylaşımı bastıran değil, paylaşımda karşılıklılığı güvence altına alan bir mekanizmadır
- MIT lisansı kodu alan kişiyi özgür bırakır, ancak katkıyı geri verme zorunluluğu yoktur
- Sonuçta faydalar sermayesi ve insan kaynağı daha güçlü olan tarafa yığılır
- 1990’larda GPL kodunun şirketler tarafından soğurulduğu örnekler, copyleft’in güçlendirilmesi gereğini gösteriyordu
Kendisiyle çelişen örnek: Vercel ve Cloudflare
- Vercel, yapay zeka ile GNU Bash’i yeniden uyguladıktan sonra, Cloudflare Next.js’i yeniden uygulayınca rahatsızlığını dile getirdi
- Next.js, MIT lisanslı olduğu için hukuki bir sorun yoktu
- Bu durum, “GPL’yi MIT’ye çevirmek paylaşımın zaferidir” denirken, kendi kodu yeniden uygulandığında tepki gösterilmesi şeklindeki çelişkiyi ortaya koyuyor
- Ronacher bunu kabul etse de sonucunu değiştirmiyor; bu yüzden tutumunun mantıktan çok pozisyona göre şekillendiği değerlendiriliyor
Yasallık ile meşruiyetin ayrımı
- Hukuk yalnızca yasaklamadığı eylemleri tanımlar; doğru olanı garanti etmez
- Vergiden kaçınma ya da ilaç fiyatlarını artırma gibi, yasal ama toplum karşıtı eylemler vardır
- chardet’in LGPL’si, salt hukuki bir araç değil, 12 yıllık toplumsal bir sözleşmeydi
- “Bu kodu kullanırsan aynı koşullarla paylaşırsın” şeklindeki güvene dayalı bir mutabakat
- Yapay zeka ile yeniden uygulama hukuken yeni bir eser sayılsa bile, katkı sunanlarla kurulan güveni bozan bir eylemdir
- FSF’den Zoë Kooyman, “Kendisine verilen hakları başkalarına tanımamak toplum karşıtı bir davranıştır” diye açıkça belirtiyor
Bakış açısındaki asimetri
- antirez ve Ronacher, açık kaynak dünyasının merkezdeki figürleri; yapay zeka ile yeniden uygulama, kendileri için avantajlı bir ortam anlamına geliyor
- Buna karşılık chardet katkıcıları için bu durum, katkı korumasının kaybı anlamına geliyor
- Bu asimetri görmezden gelinip “hukuken sorun yok” denmesi, analiz değil rasyonalizasyon olarak değerlendiriliyor
Copyleft’in geleceği ve toplumsal yargı
- Bruce Perens, “yazılım geliştirmenin ekonomisi sona erdi” diyerek uyardı
- antirez “uyum sağlamak gerekir”, Ronacher ise “ilginç” diye yanıt verdi
- Ancak asıl soru şu: “Copyleft, dolanılması kolaylaştıkça daha da gerekli hale mi geliyor?”
- Yazı buna net biçimde “evet” diyor
- GPL, kodun kıtlığını değil, kullanıcının özgürlüğünü korur
- Yapay zeka ile yeniden uygulama kolaylaştıkça, copyleft’i ortadan kaldırmanın sürtünmesi de azalıyor
- “Ortak alandan alan, ortak alana geri vermelidir” ilkesi, zamandan ya da teknolojik değişimden bağımsız bir toplumsal normdur
- Hukuk yavaş değişir, ancak önce hareket eden şey topluluğun değer yargıları olmuştur
- GPLv2→v3→AGPL evrimi de, hukuktan önce topluluğun yargısının geldiğini gösteriyor
- Yapay zeka çağında, test suite’lerin ve API spesifikasyonlarının da copyleft korumasına dahil edilmesi gerekir
- Sonuç olarak, önce hukuki karar değil toplumsal hüküm verilmelidir;
yasallık meşruiyetin yerini tutamaz
1 yorum
Hacker News görüşleri
Artık yalnızca specification ile kaynak kod üretilebiliyorsa, GPL projelerinin temel fikri mülkiyeti specification içinde yer alıyor demektir
Geçmişte kurumsal yazılımları taklit etmenin yasal olarak mümkün olması için mücadele ettik, ama şimdi bu haktan kendi elimizle vazgeçip fikri mülkiyet sahiplerine daha fazla kontrol vermeye çalışıyoruz
Bu gidişat, büyük şirket karşıtı ya da paylaşım dostu sonuçlar doğurmayacaktır. Sonuçta bu gücü kullanacak olanlar büyük şirketler olacaktır
Şimdi dönem tamamen farklı. Alıntılanan iddia, daha önce zaten eleştirilmiş bir noktayı tekrar ediyor.
Bu tartışmaya katılıyorsanız, asıl makaleyi doğrudan okumanızı özellikle tavsiye ederim
Benim ilginç bulduğum nokta, bunun sadece telif hakkının ötesine geçip fikri mülkiyet (IP) kavramının kendisini çökertip çökertemeyeceği
IP, ‘yaratıcılık zordur’ varsayımı üzerine kuruluydu, ama LLM’ler artık matematik ispatı, yeni ilaç tasarımı gibi neredeyse her tür bilgi üretimini otomatikleştiriyor
O halde artık ‘zor olmayan’ yaratımlara tekel hakkı vermek için bir gerekçe var mı? Sonuçta AI, patentleri bile sadece aşılması gereken kısıtlar olarak ele alacaktır
Mevcut hukukta AI çıktıları telif korumasına tabi değil, korunabilmesi için insanın anlamlı müdahalesi gerekiyor
İnsan emeğiyle ortaya çıkan sonuçlar, büyük şirketlerin bedavaya alıp götüremeyeceği şekilde korunmalı
Yalnız o sorunları çözenin insan olmama ihtimali de var
Bilgisayar ortaya çıktığı anda zaten anlamsızlaşmıştı, ama lobicilikle ayakta tutuldu.
Şimdi AI, o tabuta son çiviyi çakabilir.
Sonuçta asıl önemli olan modelin weights değerleri; bunlar herkesin erişebilmesi için açılmalı ya da gerekirse zorla kamuya sunulmalı
Birinin bunu gerçekten test etmesi gerekiyor
Sızdırılmış Minecraft kaynak kodunu Copilot’a verip, başka bir dilde tamamen aynı bir kopyasını ürettirip açık kaynak olarak yayımlamak mesela
Bakalım Microsoft buna telif ihlali diyecek mi
Bunun yerine “Minecraft’ı sıfırdan implemente et” demek gerekir.
Yalnız texture ya da model yeniden kullanılamayacağı için, bunları AI’ın yeniden üretmesi gerekir
Senin örneğin ise ihlal ihtimali çok daha açık olan bir durum
Diyelim ki bir LLM kullanarak sızdırılmış Windows kaynak kodundaki lisansı kaldırıp WINE için kod üretiyorsun; ne olacak?
Son dönemde LLM kullanarak binary decompile denemeleri de yoğun biçimde tartışılıyor
Açık kaynak dünyasından iki kişi bu tartışmaya katıldı, ama ikisi de IP avukatı değil
Gerçek bir avukat olan Richard Fontana tartışmaya katıldı, fakat onun açtığı konu kapatıldı
Kendisi GitHub issue içinde “AI üretimi içerikler genel olarak telif korumasına uygun değildir” diye belirtti
Yani bir kişi kodu doğrudan düzenlemeden sadece prompt yazdıysa, o koda MIT lisansı eklemek başlı başına ciddi hukuki sonuçlar doğurabilir
Bana daha çok fotoğraf çekmeye benziyor. Kamera telif sahibi olmaz ama insan olabilir
Piksel düzeyinde müdahale etmese bile bunun insanın yaratımı sayılması gibi
GPL’in tarihine bakınca, bu telif hakkına karşı telif hakkısını kullanma girişimiydi
Zaten ‘Copyleft’ adı da bunu anlatıyor
Fakat AI, telif hakkının kendisini aşındırıyor.
Artık yalnızca GPL programları değil, kapalı kaynak yazılımlar da AI ile yeniden implemente edilebiliyor
Öyleyse GNU, GPL’den vazgeçip LLM’leri yeni silahı haline getirmeli
Bu da açık kaynak özgürlüğünü daha da zayıflatıp gücü büyük şirketlere kaydırıyor
Ayrıca LLM’ler, sayısız gönüllünün koduyla eğitildi ama bunun kazancını büyük şirketler topluyor
Sonuç olarak açık kaynağın cazibesi azalabilir ve lisanslara saygı tamamen yok olabilir
Özellikle kullanıcının kendi cihazında çalışan yazılımı değiştirme hakkını güvence altına alır
Ama belirli araçlar, anahtarlar ya da specification’lar kısıtlıysa yeniden implementasyon mümkün olmayabilir
Sonunda ‘kötü şirketlerin’ silahını ödünç alarak savaşıyor olabiliriz
Bence lisans ihlali zaten yaşandı
Büyük modellerin çoğu veri toplama sürecinde hizmet şartlarını ihlal etti
Dolayısıyla GPL koduyla eğitilmiş modellerin, açık lisans yükümlülüklerini infect etmiş sayılması gerekir
Hukuken önemli olanlar: ① verinin yasal biçimde elde edilip edilmediği, ② çıktının özgün ifade içerip içermediği
Bu vakada %98,7’sinin yeni kod olduğu tespit edildi
Asıl mesele çıktının ne kadar dönüştürücü olduğu.
Bu, NYT vs OpenAI davasının da temel tartışma noktası
Blanchard, “API ve testleri Claude’a verip yeni bir implementasyon yaptırdım” dedi ama,
bu biraz “gözlerimi bağlayıp tuvale boya fırlattım ve ortaya Mickey Mouse çıktı” demeye benziyor
Kendisi zaten ilgili kodun bakımını yapan kişiydi, dolayısıyla tamamen bağımsız olduğunu söylemek zor
Orijinal kodu girip kopya üretmesi için ayarladıysa, bu hâlâ telif ihlali olur
AI basit bir araçsa sorumluluk kullanıcıdadır; bağımsız bir failse, o zaman ihlali yapan da odur
Yeter ki ifade unsurları birebir kopyalanmasın
Blanchard bütün prompt’ları yayımlarsa, herkes aynı sonucu yeniden üretebilir
Benim anladığım, sadece Claude’un kodu görmediğini söylediğiydi
Makaleye göre Claude’a sadece API ve testler verildi ve kütüphaneyi yeniden implemente etti
Oysa GPL2, test paketini de kaynak kodun bir parçası sayar
Bu durumda Claude testleri kullandıysa, ortaya çıkan sonuç LGPL 2.1 açısından orijinal eserden türetilmiş bir çalışma olabilir
Yine de testleri MIT lisansıyla yeniden dağıtmak mümkün olmayabilir
Bu yüzden pratik çözüm, kodu MIT ile dağıtıp testleri ayrıca LGPL altında sunmak olabilir
Test case’ler de API kullanımının bir parçası sayılabilir
Bizim şirkette, güvenlik ekibinin onaylamadığı araçları kullanabilmek için AI ile yeniden implementasyon yapılmaya başlandı
Güvenlik ekibi ‘varsayılan olarak reddet’ politikasına sahip, mühendislik ekibi ise ‘AI’ı aktif kullan’ yaklaşımında
Sonuçta, iç kullanım için araçları AI ile baştan yazmayı teşvik eden tuhaf bir teşvik yapısı doğuyor
Farklı bir sonuç istiyorsanız, önce teşvik tasarımını değiştirmeniz gerekir
Eğer AI güvenlik odaklı kodu tekrar tekrar iyi yazabiliyorsa,
neden aynı AI’ın üçüncü taraf yazılımların güvenlik doğrulamasını yapamayacağına inanıyoruz?
Üretim ile analiz arasındaki asimetri neden var, bunu sorgulamak isterim
GPL şartları yalnızca distribution anında devreye girer
Değiştirilmiş kodu dağıttığınızda veya ağ hizmeti olarak sunduğunuzda kaynak kodunu açıklamanız gerekir
Ancak ağ üzerinden hizmet sunmak distribution sayılmadığı için, bunu kapatmak üzere AGPL oluşturuldu