2 puan yazan GN⁺ 2026-02-07 | 1 yorum | WhatsApp'ta paylaş
  • New York Eyalet Meclisi'nde, yapay zeka tarafından üretilen haber içeriklerine uyarı eklenmesini ve insan denetimini zorunlu kılan bir yasa tasarısı sunuldu
  • Tasarının adı ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’ olup, haber sektöründe şeffaflığı ve gazeteciliğin korunmasını hedefliyor
  • Başlıca maddeler arasında AI kullanımının açıklanması, editör incelemesi ve gizli bilgileri koruyacak önlemler yer alıyor
  • Tasarı, AI tarafından üretilen içeriklerin yanlış bilgi ve intihal riski taşıdığına dikkat çekerken, medya çalışanlarının işten çıkarılmasının veya ücretlerinin düşürülmesinin yasaklanması gibi emek koruma hükümleri de içeriyor
  • WGA-East, SAG-AFTRA, DGA, NewsGuild of New York gibi büyük medya sendikaları tasarıyı destekliyor; bu destek, AI benimsenmesiyle ortaya çıkan güven erozyonu ve istihdam tehdidine karşı bir adım olarak öne çıkıyor

NY FAIR News Act'e genel bakış

  • New York Eyalet Senatörü Patricia Fahy ile Meclis Üyesi Nily Rozic tarafından ortaklaşa sunulan NY FAIR News Act, haber kuruluşlarının AI ile üretilen içerikleri açıkça etiketlemesini zorunlu kılıyor
    • “Üretken yapay zeka kullanılarak esasen yazılmış içerik” için uyarı metni (disclaimer) eklenmesi gerekiyor
    • Yalnızca haber yazılarını değil, ses, görüntü ve görsel materyaller dahil tüm haber içeriği biçimlerini kapsıyor
  • AI ile üretilen tüm içeriklerin, editoryal kontrol yetkisine sahip bir insan çalışan tarafından önceden incelenmesi gerekiyor
  • Haber odası içinde de AI'nın kullanılıp kullanılmadığı ve nasıl kullanıldığı, muhabirler dahil çalışanlara açıklanmalı

Tasarının başlıca düzenlemeleri

  • AI şeffaflığını güçlendirmeye odaklanan çok sayıda hüküm içeriyor
    • AI'nın erişebileceği gizli bilgileri (özellikle kaynaklarla ilgili bilgileri) koruyacak mekanizmaların kurulması zorunlu
    • Telif koruması istisnası da yer alıyor: Telif hukuku kapsamında insan yazarlığının kabul edildiği durumlar hariç tutuluyor
  • AI üretimlerinin güvenilirlik sorununa açıkça işaret ediyor
    • Yasa yapıcılar, gerekçe olarak AI içeriklerinin “yanlış veya yanıltıcı olabileceğini” ve “izinsiz alıntı ve intihal riski” taşıdığını gösteriyor

Medya sektörü ve sendikaların tepkisi

  • Tasarı, medya sektöründeki büyük sendikalardan geniş destek görüyor
    • WGA-East, SAG-AFTRA, DGA, NewsGuild of New York destek verenler arasında
    • NewsGuild sözcüsü Jennifer Sheehan, sendikanın AI benimsenmesinin etkileri ve işlerin korunması konularını tartıştığını doğruladı
  • NewsGuild, 2025 Aralık ayında ‘News Not Slop’ kampanyasını başlatarak haber odalarında AI kullanımına yönelik güvence mekanizmaları talep etti
    • New York City'de Business Insider sendikası, AI imzasıyla (byline) yayımlanan haberlere karşı bir protesto düzenledi

Gazeteciliğin korunması ve emek hakları hükümleri

  • Tasarı, AI'nın devreye alınması nedeniyle işten çıkarma, görev daraltma, ücret ve yan hak kesintilerini yasaklayan hükümler içeriyor
    • Bu, son yıllarda tek tek haber odalarının sendika sözleşmelerinde yer alan maddeleri yasalaştırma girişimi olarak görülüyor
  • Senatör Fahy, “AI gazeteciliği ve kamusal güveni tehdit edebilir” diyerek, Amerikalıların %76'sının AI'nın haber içeriğini çalması veya yeniden üretmesi ihtimali konusunda endişe duyduğunu söyledi

Arka plan ve anlamı

  • New York, ABD medya sektörünün merkezi olarak, gazeteciliğin güvenilirliği ile çalışanların korunmasını aynı anda güçlendirmeye çalışıyor
  • Bu tasarı, AI şeffaflığı, telif hakkı ve emek haklarını birlikte ele alan ilk eyalet düzeyindeki yasama girişimi olarak değerlendiriliyor

1 yorum

 
GN⁺ 2026-02-07
Hacker News yorumları
  • Son zamanlarda AI ile ilgili mevzuat haberlerinin neredeyse hiç ele alınmaması şaşırtıcı
    Sadece New York eyaletinde bile RAISE(frontier AI güvenlik protokolleri, gözetim, olay bildirimi), S8420A(reklamlarda AI tarafından üretilen kişilerin açıklanması zorunluluğu), GBL Article 47(AI chatbot’ları için kriz tespiti ve uyarı metinleri), S7676B(oyuncuların AI suret haklarının korunması), NYC LL144(AI işe alım araçlarında önyargı denetimi) ve reşit olmayanlar için algoritmik akış kısıtlaması getiren SAFE for Kids Act(beklemede) gibi birçok yasa tasarısı var
    Bir uygulama sadece New York kullanıcılarına hizmet verse bile en az üçü kapsamına girebilir
    ABD’de eyalet bazlı hukuk sistemi, AB düzenlemelerinden bile daha karmaşık bir mayın tarlası gibi görünüyor

    • Birçok kişi bu yasaların gerçekte uygulanmayacağını düşünüyor
      Ama bence tam tersine, dürüst geliştiricilerin aşırı şekilde cezalandırıldığı bir biçimde uygulanacaklar
    • SAFE for Kids Act gibi yasaların, tüm kullanıcılara algoritmik akışı kapatma anahtarı sunacak şekilde genişletilmesi güzel olurdu
      Bu sadece çocukları korumakla ilgili değil; kullanıcıların doğrudan seçim yapabilmesi güvenin yeniden kazanılmasına yardımcı olabilir
    • Sonuçta AI ile işe alımın tamamen yasaklanma ihtimali yüksek bence
      Çünkü deterministik olmayan sistemler tam denetime uygun değil
    • Yayınlara uyarı metni eklemek, ifade özgürlüğü nedeniyle daha zor bir hukuki mesele
      Bunun yerine basın sendikaları ya da loncaların, AI kullanılıp kullanılmadığını gönüllü olarak işaretlemesi daha gerçekçi olabilir
    • ABD’nin AB düzenlemeleriyle alay etmesi bir tür kendini haklı çıkarma
      Gerçekte büyük şirket merkezli bir hukuk sistemine bağlıyken kendini üstün görme hali
  • Bence “orijinal haber” etiketlemesi gerekli
    Haberlerin çoğu yeniden işlenmiş bilgi olduğu için AI tarafından ikame edilebilir, ama sahada bizzat haber yapan muhabirin rolü ikame edilemez
    Her haberde kaynaklar açıkça belirtilmeli; AI yanlış linkler üretirse bu büyük bir alarm işaretidir

    • Benim sitem Forty.news 40 yıl önceki haberleri ele aldığı halde bana sık sık “kaynak gerekli” deniyor
      Büyük medya kuruluşlarının yüzeysel kaynaklarla bile güven görmesi ironik
    • Colorado Sun her habere haber türü etiketi koyuyor
      Bu, erken dönem Civil projesinin etkisi
    • Yemeğin nereden geldiğini bilmek istediğimiz gibi, bilginin kaynak şeffaflığı da önemli
      Tabii muhabirin anonim kaynaklarını koruma durumu istisna olmalı
    • Zaten “exclusive!” gibi etiketler var ama bunlar gerçek bir kaynak gösterimi değil
  • AI tarafından üretilen haberler mutlaka insan editör denetiminden geçmeli
    Kurumlar AI çıktılarından sorumlu olmalı; iş sadece sorumluluktan kaçınmak için eklenen uyarı metinleriyle bitmemeli
    Bunun, güvenlik sertifikasyonundaki gibi göstermelik bir uyumluluk şovuna dönüşmesine izin verilmemeli
    Hatalı AI haberi zarar doğurursa medya kuruluşu sorumlu tutulmalı

    • Ama ortada, başkanın bile AI ile manipüle edilmiş videoları yaymasına rağmen sorumluluk üstlenmediği bir durum var
      Önce en tepeden hesap sorulmalı
  • İdeal olarak, AI üretimini insan üretimi gibi göstermenin yasa dışı olması gerekir

    • Ama her şeye uyarı koyarsanız bu, Prop 65 gibi anlamsız hale gelme riski taşır
      Uyarılar yaygınlaşırsa insanlar sinyali görmezden gelmeye başlar
      Uyarının güvenilir kalması için bunu sadece haber yazılarıyla sınırlamak gerekir
    • “AI üretimi”nin tanımı belirsiz
      Çünkü akıllı telefon kameraları ve Photoshop da AI kullanıyor
    • İnsanların özensiz işi ile AI üretimini ayırmak da zor
    • Yayıncılık sadece yazmaktan ibaret değil; araştırma, düzenleme, kontrol gibi birçok aşama var
      AI her aşamaya dahil olabilir
    • Sonuçta asıl tartışma AI destekli mi, AI üretimi mi sınırında düğümleniyor
  • Bunun sonunda Prop 65 gibi, tüm içeriklere “AI kullanılmış olabilir” uyarısı eklenen bir düzene gidilmesinden endişe ediyorum
    “Büyük ölçüde AI dahil olmuştur” gibi muğlak ifadeler avukatlar için bir oyun alanına dönüşür
    Bkz. Prop 65 wiki

    • Yine de bu olursa AI olmayan içerikleri filtrelemek mümkün hale gelebilir
    • Ama çoğu zorunlu uyarıda olduğu gibi bunun da biçimsel ve anlamsız hale gelme ihtimali yüksek
    • Hatta “No AI!” belki de zenginlere yönelik premium seçenek haline gelebilir
      Editörlük veya düzeltme bile ‘esaslı yazarlık’ sayılabilir
    • Öte yandan Prop 65’in gerçekten şirketlerin kimyasal kullanımını azalttığını gösteren araştırmalar da var
      Washington Post haberine göre üreticilerin %78’i içerik formülasyonunu yeniden düzenlemiş
  • W3C içinde AI içerik açıklama standardizasyonu çalışma grubu başlattım
    Web sitelerinin AI müdahalesinin düzeyini gönüllü olarak açıklayabilmesini sağlayacak bir standart üzerinde çalışıyoruz
    Bkz. W3C sayfası ve GitHub deposu

    • Katılmak için ne yapmak gerektiğini soranlar oldu
  • New York, 3D yazıcıların silah parçaları bastığını tespit etmesini zorunlu kılmak istiyor
    Ama bu tür düzenlemeler eninde sonunda sadece iyi niyetli kullanıcıların uyduğu kurallar olur
    Bir içeriğin AI üretimi olup olmadığını kusursuz biçimde tespit etmenin yolu yok; eğitim ve farkındalık artırımı daha gerçekçi çözümler

  • Sonunda tüm web siteleri galiba “Bu site New York eyaleti standartlarına göre AI içerik barındırabilir” gibi bir metin ekleyecek

    • Hatta buna madem öyle, gerçekten bunu yapalım diye şaka yapanlar da var
  • Medya kuruluşları her içeriğe uyarı koyarsa uyarının değeri yok olur
    Düzenleyiciler bunu yasaklarsa, medya bu kez her içeriği gerçekten AI ile üretmeye başlayabilir
    Buna “Sesame etkisi” demek istiyorum

    • Ben bir veri gazetecisi olarak AI’ı kısmen kullanıyorum ama bunu her zaman metodoloji bölümünde açıklıyorum
      Her habere topluca uyarı ekleyen mecralara güvenmiyorum
    • Buna karşılık gerçekten insan eliyle doğrulama yapan mecralar abonelik artışı bekleyebilir
    • “Tüm içeriğimiz insanlar tarafından doğrulandı” türü bir farklılaşma stratejisi de mümkün
  • Bütün bu tartışma aslında AI sonuçlarına körü körüne güvenme kültürüyle ilgili
    Uyarı metinleri geçici bir önlem; asıl gereken karar alma yapısının hesap verebilirliği
    Birden çok bağımsız AI ajanının oylama ve doğrulama yaptığı uzlaşı tabanlı sistemleri deniyoruz
    Bunu açık kaynak CLI consensus.tools üzerinden test etmek mümkün

    • Ama çoğu içerik üreticisi için öncelik doğruluk değil hız ve maliyet tasarrufu
      Düşük kaliteli içeriğin taştığı bir ortamda, uzlaşı sistemleri maliyetli olduğu için uygulanması zor
      Bu yüzden en azından asgari düzeyde uyarı zorunluluğu hâlâ gerekli