- New York Eyalet Meclisi'nde, yapay zeka tarafından üretilen haber içeriklerine uyarı eklenmesini ve insan denetimini zorunlu kılan bir yasa tasarısı sunuldu
- Tasarının adı ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’ olup, haber sektöründe şeffaflığı ve gazeteciliğin korunmasını hedefliyor
- Başlıca maddeler arasında AI kullanımının açıklanması, editör incelemesi ve gizli bilgileri koruyacak önlemler yer alıyor
- Tasarı, AI tarafından üretilen içeriklerin yanlış bilgi ve intihal riski taşıdığına dikkat çekerken, medya çalışanlarının işten çıkarılmasının veya ücretlerinin düşürülmesinin yasaklanması gibi emek koruma hükümleri de içeriyor
- WGA-East, SAG-AFTRA, DGA, NewsGuild of New York gibi büyük medya sendikaları tasarıyı destekliyor; bu destek, AI benimsenmesiyle ortaya çıkan güven erozyonu ve istihdam tehdidine karşı bir adım olarak öne çıkıyor
NY FAIR News Act'e genel bakış
- New York Eyalet Senatörü Patricia Fahy ile Meclis Üyesi Nily Rozic tarafından ortaklaşa sunulan NY FAIR News Act, haber kuruluşlarının AI ile üretilen içerikleri açıkça etiketlemesini zorunlu kılıyor
- “Üretken yapay zeka kullanılarak esasen yazılmış içerik” için uyarı metni (disclaimer) eklenmesi gerekiyor
- Yalnızca haber yazılarını değil, ses, görüntü ve görsel materyaller dahil tüm haber içeriği biçimlerini kapsıyor
- AI ile üretilen tüm içeriklerin, editoryal kontrol yetkisine sahip bir insan çalışan tarafından önceden incelenmesi gerekiyor
- Haber odası içinde de AI'nın kullanılıp kullanılmadığı ve nasıl kullanıldığı, muhabirler dahil çalışanlara açıklanmalı
Tasarının başlıca düzenlemeleri
- AI şeffaflığını güçlendirmeye odaklanan çok sayıda hüküm içeriyor
- AI'nın erişebileceği gizli bilgileri (özellikle kaynaklarla ilgili bilgileri) koruyacak mekanizmaların kurulması zorunlu
- Telif koruması istisnası da yer alıyor: Telif hukuku kapsamında insan yazarlığının kabul edildiği durumlar hariç tutuluyor
- AI üretimlerinin güvenilirlik sorununa açıkça işaret ediyor
- Yasa yapıcılar, gerekçe olarak AI içeriklerinin “yanlış veya yanıltıcı olabileceğini” ve “izinsiz alıntı ve intihal riski” taşıdığını gösteriyor
Medya sektörü ve sendikaların tepkisi
- Tasarı, medya sektöründeki büyük sendikalardan geniş destek görüyor
- WGA-East, SAG-AFTRA, DGA, NewsGuild of New York destek verenler arasında
- NewsGuild sözcüsü Jennifer Sheehan, sendikanın AI benimsenmesinin etkileri ve işlerin korunması konularını tartıştığını doğruladı
- NewsGuild, 2025 Aralık ayında ‘News Not Slop’ kampanyasını başlatarak haber odalarında AI kullanımına yönelik güvence mekanizmaları talep etti
- New York City'de Business Insider sendikası, AI imzasıyla (byline) yayımlanan haberlere karşı bir protesto düzenledi
Gazeteciliğin korunması ve emek hakları hükümleri
- Tasarı, AI'nın devreye alınması nedeniyle işten çıkarma, görev daraltma, ücret ve yan hak kesintilerini yasaklayan hükümler içeriyor
- Bu, son yıllarda tek tek haber odalarının sendika sözleşmelerinde yer alan maddeleri yasalaştırma girişimi olarak görülüyor
- Senatör Fahy, “AI gazeteciliği ve kamusal güveni tehdit edebilir” diyerek, Amerikalıların %76'sının AI'nın haber içeriğini çalması veya yeniden üretmesi ihtimali konusunda endişe duyduğunu söyledi
Arka plan ve anlamı
- New York, ABD medya sektörünün merkezi olarak, gazeteciliğin güvenilirliği ile çalışanların korunmasını aynı anda güçlendirmeye çalışıyor
- Bu tasarı, AI şeffaflığı, telif hakkı ve emek haklarını birlikte ele alan ilk eyalet düzeyindeki yasama girişimi olarak değerlendiriliyor
1 yorum
Hacker News yorumları
Son zamanlarda AI ile ilgili mevzuat haberlerinin neredeyse hiç ele alınmaması şaşırtıcı
Sadece New York eyaletinde bile RAISE(frontier AI güvenlik protokolleri, gözetim, olay bildirimi), S8420A(reklamlarda AI tarafından üretilen kişilerin açıklanması zorunluluğu), GBL Article 47(AI chatbot’ları için kriz tespiti ve uyarı metinleri), S7676B(oyuncuların AI suret haklarının korunması), NYC LL144(AI işe alım araçlarında önyargı denetimi) ve reşit olmayanlar için algoritmik akış kısıtlaması getiren SAFE for Kids Act(beklemede) gibi birçok yasa tasarısı var
Bir uygulama sadece New York kullanıcılarına hizmet verse bile en az üçü kapsamına girebilir
ABD’de eyalet bazlı hukuk sistemi, AB düzenlemelerinden bile daha karmaşık bir mayın tarlası gibi görünüyor
Ama bence tam tersine, dürüst geliştiricilerin aşırı şekilde cezalandırıldığı bir biçimde uygulanacaklar
Bu sadece çocukları korumakla ilgili değil; kullanıcıların doğrudan seçim yapabilmesi güvenin yeniden kazanılmasına yardımcı olabilir
Çünkü deterministik olmayan sistemler tam denetime uygun değil
Bunun yerine basın sendikaları ya da loncaların, AI kullanılıp kullanılmadığını gönüllü olarak işaretlemesi daha gerçekçi olabilir
Gerçekte büyük şirket merkezli bir hukuk sistemine bağlıyken kendini üstün görme hali
Bence “orijinal haber” etiketlemesi gerekli
Haberlerin çoğu yeniden işlenmiş bilgi olduğu için AI tarafından ikame edilebilir, ama sahada bizzat haber yapan muhabirin rolü ikame edilemez
Her haberde kaynaklar açıkça belirtilmeli; AI yanlış linkler üretirse bu büyük bir alarm işaretidir
Büyük medya kuruluşlarının yüzeysel kaynaklarla bile güven görmesi ironik
Bu, erken dönem Civil projesinin etkisi
Tabii muhabirin anonim kaynaklarını koruma durumu istisna olmalı
AI tarafından üretilen haberler mutlaka insan editör denetiminden geçmeli
Kurumlar AI çıktılarından sorumlu olmalı; iş sadece sorumluluktan kaçınmak için eklenen uyarı metinleriyle bitmemeli
Bunun, güvenlik sertifikasyonundaki gibi göstermelik bir uyumluluk şovuna dönüşmesine izin verilmemeli
Hatalı AI haberi zarar doğurursa medya kuruluşu sorumlu tutulmalı
Önce en tepeden hesap sorulmalı
İdeal olarak, AI üretimini insan üretimi gibi göstermenin yasa dışı olması gerekir
Uyarılar yaygınlaşırsa insanlar sinyali görmezden gelmeye başlar
Uyarının güvenilir kalması için bunu sadece haber yazılarıyla sınırlamak gerekir
Çünkü akıllı telefon kameraları ve Photoshop da AI kullanıyor
AI her aşamaya dahil olabilir
Bunun sonunda Prop 65 gibi, tüm içeriklere “AI kullanılmış olabilir” uyarısı eklenen bir düzene gidilmesinden endişe ediyorum
“Büyük ölçüde AI dahil olmuştur” gibi muğlak ifadeler avukatlar için bir oyun alanına dönüşür
Bkz. Prop 65 wiki
Editörlük veya düzeltme bile ‘esaslı yazarlık’ sayılabilir
Washington Post haberine göre üreticilerin %78’i içerik formülasyonunu yeniden düzenlemiş
W3C içinde AI içerik açıklama standardizasyonu çalışma grubu başlattım
Web sitelerinin AI müdahalesinin düzeyini gönüllü olarak açıklayabilmesini sağlayacak bir standart üzerinde çalışıyoruz
Bkz. W3C sayfası ve GitHub deposu
New York, 3D yazıcıların silah parçaları bastığını tespit etmesini zorunlu kılmak istiyor
Ama bu tür düzenlemeler eninde sonunda sadece iyi niyetli kullanıcıların uyduğu kurallar olur
Bir içeriğin AI üretimi olup olmadığını kusursuz biçimde tespit etmenin yolu yok; eğitim ve farkındalık artırımı daha gerçekçi çözümler
Sonunda tüm web siteleri galiba “Bu site New York eyaleti standartlarına göre AI içerik barındırabilir” gibi bir metin ekleyecek
Medya kuruluşları her içeriğe uyarı koyarsa uyarının değeri yok olur
Düzenleyiciler bunu yasaklarsa, medya bu kez her içeriği gerçekten AI ile üretmeye başlayabilir
Buna “Sesame etkisi” demek istiyorum
Her habere topluca uyarı ekleyen mecralara güvenmiyorum
Bütün bu tartışma aslında AI sonuçlarına körü körüne güvenme kültürüyle ilgili
Uyarı metinleri geçici bir önlem; asıl gereken karar alma yapısının hesap verebilirliği
Birden çok bağımsız AI ajanının oylama ve doğrulama yaptığı uzlaşı tabanlı sistemleri deniyoruz
Bunu açık kaynak CLI consensus.tools üzerinden test etmek mümkün
Düşük kaliteli içeriğin taştığı bir ortamda, uzlaşı sistemleri maliyetli olduğu için uygulanması zor
Bu yüzden en azından asgari düzeyde uyarı zorunluluğu hâlâ gerekli