1 puan yazan GN⁺ 2025-09-30 | 1 yorum | WhatsApp'ta paylaş
  • California Valisi, yapay zeka şeffaflığını güçlendiren bir yasa tasarısını imzaladı
  • Bu yasa, yapay zeka sistemlerinin geliştirilmesi ve kullanımında şeffaflık standartları ortaya koyuyor
  • Şirketlere, yapay zekanın karar alma süreçleri ve etkileri hakkında bilgi açıklama yükümlülüğü getiriliyor
  • Temel amaç, tüketiciyi korumak ve yapay zeka kötüye kullanımına ilişkin hesap verebilirliği güçlendirmek
  • Yasanın yürürlüğe girmesiyle yapay zeka sektörünün düzenlenmesi ve etik geliştirme için bir temel oluşturuluyor

California yapay zeka şeffaflığı yasa tasarısına genel bakış

  • California Valisi, yapay zeka şeffaflığını güçlendirmeye yönelik yeni bir yasa tasarısını resmen imzaladı
  • Tasarı, şirketler ve kurumların yapay zeka sistemlerini geliştirirken veya kullanırken karar alma süreçleriyle ilgili bilgileri açıklamasını zorunlu kılıyor
  • Başlıca maddeler arasında, yapay zekanın hangi veri ve ölçütleri kullanarak sonuca vardığı ve ilgili sistemin potansiyel etkilerinin neler olduğu konusunda açıklama sorumluluğu yer alıyor
  • Tüketicilerin, yapay zeka tabanlı hizmetleri veya ürünleri kullanırken algoritmik kararlardan etkilendiklerini anlayabilmeleri için şeffaflığı sağlayan mekanizmalar oluşturuluyor
  • Nihayetinde bu yasa tasarısı, yapay zeka sektöründe hesap verebilirliğin artırılmasını ve bununla birlikte yapay zeka kötüye kullanımının önlenmesini ve tüketici güveninin yeniden tesis edilmesini hedefliyor
  • Yasanın uygulanmasıyla California'nın, ABD içinde yapay zeka etiği ve düzenlemesinde öncü bir eyalet olarak konumlanması bekleniyor

1 yorum

 
GN⁺ 2025-09-30
Hacker News görüşleri
  • Gerçek dünyadaki bir sorun olarak, bu tasarının fikri mülkiyetimin iznim olmadan LLM’ler tarafından kullanılmasını engelleyip engelleyemeyeceğini merak ediyorum
    • Bu yasanın asıl amacı, gerçek verilere dayalı tartışmalar yapılabilmesi için temel bir çerçeve sunmak. Bu yüzden teknoloji şirketlerinin güvenlik planlarını, şeffaflık raporlarını ve olay kayıtlarını açıklamasını zorunlu kılıyor. Cezaların 10 bin dolar gibi düşük tutulmasının nedeni de bu. Kapsamlı yapay zeka düzenlemesi için henüz çok erken; ayrıca California, ABD telif hakkı yasasını yöneten merci de değil
    • Hükümete, kamuya açık bilgi işlem kümeleri geliştirmek için bir çerçeve oluşturma talimatı veriliyor. Bu tasarı bazı devlet yüklenicilerine büyük fayda sağlayabilir ve tarihsel olarak bakınca, doğrudan verilen ihalelerle belli kişilere para aktarılmasına yol açabileceğini düşünüyorum. İlgili yazı: Sacramento Bee başyazısı
    • İhbarcı koruma maddeleri içeriyor. Bu sayede yasa dışı faaliyetler ifşa edilebilir
    • Şu anda da, insanların yaptığı fikri mülkiyet ihlallerine karşı korunduğunuz şekilde korunabilirsiniz
    • Sonuçta bu yasa, devlet memurlarına daha fazla para kazandırma gibi gerçek bir sorunu çözüyor
  • Yasanın gerçek metnini ve açıklamalarını görebileceğiniz bir site buldum: https://sb53.info/
    • "Yapay zeka modeli" tanımına bakılırsa, girdilerden çıktı üreten ve fiziksel ya da sanal ortamları etkileyebilen, farklı özerklik düzeylerine sahip makine tabanlı sistemlerin hepsi buna giriyor. Yani basit bir çim biçme makinesi bile, girdi (gaz kolu, kill switch) ile çıktı (dönen bıçak) arasında bir ilişki kurduğu için kapsama girebilir. "Kritik risk" tanımı ise 50’den fazla kişinin ölümü/ağır yaralanması ya da 1 milyar dolardan fazla kayba yol açabilecek risk olarak yazılmış; her yıl sadece çim biçme makinesi nedeniyle yaralanan insan sayısı bile bundan fazla
  • Tasarının tam metnini okuyunca bunun "AI safety" sektörü için bir ayrıcalık gibi hissettirdiğini düşünüyorum. Uyum sertifikasyonu yüksek ödüller getirecek
    • Big4 muhasebe firmalarında danışmanlık bölümlerini ayırmamakta direnen boomer ortaklar var; bu yeni yapay zeka yasası onlar için yeni bir gelir kapısı olacak. Özellikle deloitte’ın bundan büyük kazanç sağlayacağını düşünüyorum
    • Yukarıdaki yorumu yazan kişi büyük bir yapay zeka geliştiricisinde çalışıyor. Yapay zeka düzenlemesine karşı olması kendi maaşıyla yakından bağlantılı. Ayrıca 'AI safety' ile alay etme eğilimi de var. Silikon Vadisi’ndeki birçok sektörde güvenlik kültürüne dair farkındalık zayıf. Düzenlemelerin verimsiz olması sorun, ama hiç düzenleme olmamasının yaratacağı sorunları da hesaba katmak gerekiyor. Sektör içindeki yolsuzluklar, geri ödemeler ve danışıklı hareketler de mutlaka eleştirilmeli
  • Tasarıda, "ölüm, ağır yaralanma, kritik risk" doğuran kasıtlı ihlaller için ilk ihlalde 1 milyon dolar, sonrakilerde ise 10 milyon dolara kadar para cezası öngörüldüğü açıkça yazıyor. Kasıtsız ihlallerde (hata vb.) aynı risk ortaya çıksa bile ceza yok. Cezalar için sadece üst sınır var, alt sınır yok. Yani 0 dolar da "10 milyon dolara kadar" ifadesini karşılıyor
  • 1 milyar dolar zarar verip sadece 10 milyon dolar mı ceza ödeyecekler? "Kritik" zarar için de aynı şey geçerli. Buna düzenleme demem. OpenAI mühendislere yılda 1 milyon dolar ödese bile, 10 bin dolarlık ya da 1 milyon, 10 milyon dolarlık cezaların caydırıcı hiçbir etkisi yok
  • Tartışmalara bakınca bu yasa bir yandan hiçbir anlam ifade etmiyor, bir yandan da California’ya geoblock uygulanması için gerekçe oluyor. Aşırı fazla şey yaparken aynı anda çok az şey yapıyor. Hem pahalı hem ucuz. Hem yolsuzluğun örneği hem de yapay zeka düzenlemesinin ilk adımı. Yapay zeka şirketleri California’yı terk edebilir de, düzenleme çıtası düşük olduğu için daha fazlası gelebilir de. Konuyu daha derin ele alan bir tartışma varsa bağlantı görmek isterim
    • Bence her sonuç mümkün ve her şey hükümetin ve mahkemelerin bunu nasıl yorumlayıp uygulayacağına bağlı olacak. Yasa metni o kadar muğlak ki, bir çekice de dönüşebilir, hiçbir etkisi de olmayabilir
  • Bunun baştan federal yasayla düzenlenmesi gereken bir konu olduğunu düşünüyorum. Ama bu yasanın tanımları fazla özensiz. Özellikle "yapay zeka modeli" tanımı fiilen bütün makineleri ve algoritmaları kapsıyor. Bu tanım sanki Twilight Zone izleyip guguklu saatli bir android çıkarsa diye önlem almışlar gibi
  • California’nın yapay zekayı nasıl tanımlayacağını merak ediyordum; şu anki haliyle bu daha çok bir pazarlama terimi gibi. Burada, girdi alıp çıktı üreten biyolojik olmayan sistem olarak tanımlanıyor
    • Bu yoruma verilen iki tepki komik: "Bu tanıma uyan gerçek bir teknoloji yok", "Yani kahve makinem mi?"
    • Benim görüşüm yukarıdakinden farklı. Bu tanıma uyan bir teknoloji gerçekte yok. Yapay zeka girdiden bir şey 'çıkarım' yapamıyor. Aynısı insanların da bunu yaptığı kanıtlanmış değil
    • O zaman benim kahve makinem de buna giriyor, öyle mi
  • Tek kelimeyle bu, ‘sadece daha fazla prosedür eklenmiş sansür’. Tasarının istedikleri, şirketlerin risk azaltma ve güvenlik protokollerini belgelemesi, hükümetin neyin riskli olduğunu tanımlaması ve özel sektörün buna göre filtreleme sistemleri kurması demek. Bu, ABD Anayasası Birinci Ek Maddesi’ne aykırı ön sansürdür. Federal Yüksek Mahkeme zaten doğrudan şiddete çağrı (Brandenburg kararı) ve istisnai durumlar (çocuk pornografisi, gerçek tehditler) dışında buna izin verilmeyeceğini açıkça söyledi. Teknoloji yeni diye devletin yeni riskli ifade kategorileri yaratma hakkı olmamalı. Eğer AI silah tasarımı ya da suça yardım konusunda uzman düzeyinde bilgi veriyorsa, bunun devlete raporlanması ve azaltma önlemleri sunulması gerekiyor. Bugün "kritik risk", yarın "dezenformasyon", "nefret söylemi" olabilir. Devlet bir kez güvenlik bahanesiyle içerik sınırlamayı zorlamaya başladığında mantıksal meşruiyetini kaybeder
    • 18 USC § 842 uyarınca, patlayıcı yapımı gibi suçta kullanılacak bilgiyi sağlamak zaten suçtur. Bu, ifade özgürlüğü ile gerçek zarar olasılığı arasında denge kurar. AI ifade özgürlüğünün öznesi değildir, dolayısıyla devlet onu düzenleyebilir. Şirketlerin AI çıktısını filtrelemesini istemenin ön sansür olduğu iddiası, şirketlerin AI’nin "konuşmasını" kontrol edemediği varsayımına dayanıyor. Bu mantık yürümüyor. Rastgele cümle üreten bir sistem de benim internet hosting’im diye korunmaz. Yapay zeka sansürüne ifade özgürlüğü mantığını uygulamak uygun değil
    • LLM’lerin hakları yok. LLM bir araçtır ve devlet araçları düzenleyebilir. Hatta isterseniz bir insan da şirket bloguna doğrudan silah yapım talimatı koyabilir
    • "Bugün kritik risk, yarın dezenformasyon, nefret söylemi" denmesi tam da sorun. Ben kritik riskten çok günlük risklerden endişe duyuyorum. LLM zararlı bilgi verse bile, sonuçta internette zaten açık olan şeylerin özeti oluyor. Amerikan toplumu zaten nefret söylemiyle dolu, bu da yeni bir sorun değil. Asıl sorun "dezenformasyon". Büyük ölçekli LLM’ler interneti okuyup buna bir otorite havası kattığı için, Google veya MS’nin gücü doğrulanmamış bilgilere taşınmış oluyor. LLM’lerin "Y, X’i iddia etti" biçiminde yönlendirme yapması daha iyi bir yaklaşım olabilir. "Güvenlik" konusu çoğunlukla yetişkin içeriğini engelleme meselesi ve bence Pornhub çağında bunun büyük bir anlamı kalmadı. Gerçek tartışılması gereken konu, AI’nin müşterileri kandırmak ya da kaçınmak için ticari amaçlı özel hizmetler sunması. Bu, tüketici hakları açısından ele alınmalı. Bir başka sorun da AI’nin patronum gibi hareket etmesi durumu (ör. Uber)
    • Son 15 yıldaki sosyal medya gelişimine bakınca, hızlı risk değerlendirmesi ve müdahalenin çok geç kaldığı dersini çıkarıyorum. Sosyal medya zaten siyasi güç biriktirdi ve artık anlamlı biçimde düzenlenmesi neredeyse imkansız. Aynı hatanın üretken yapay zekada tekrarlanmamasını umuyorum