1 puan yazan GN⁺ 19 일 전 | 1 yorum | WhatsApp'ta paylaş
  • OpenAI, Illinois Senatosu'nun SB 3444 numaralı yasa tasarısını destekliyor; tasarı, AI modelleri büyük çaplı can kaybına ya da devasa mal varlığı zararına yol açsa bile belirli koşullar altında AI laboratuvarlarının yasal sorumluluğunu sınırlandırmayı öngörüyor
    • Tasarı, bir AI modelinin 100'den fazla kişinin ölümü veya ağır yaralanmasına ya da 1 milyar dolardan fazla mal varlığı zararına yol açması durumunu "kritik zarar (critical harm)" olarak tanımlıyor
    • AI laboratuvarı bu zarara kasıtlı olarak veya ağır ihmal sonucu neden olmadıysa ve güvenlik, emniyet ve şeffaflık raporunu internet sitesinde yayımladıysa sorumluluktan muaf tutulabiliyor
    • Tasarı, "frontier model" kavramını eğitim maliyeti 100 milyon doların üzerindeki AI'lar olarak tanımlıyor; OpenAI, Google, xAI, Anthropic ve Meta gibi büyük AI laboratuvarlarının bu kapsama girmesi muhtemel
    • Bu tanım, yüksek performanslı AI sistemlerini merkez alan bir düzenleme çerçevesi oluşturma girişimi olarak yorumlanıyor
  • OpenAI sözcüsü Jamie Radice, e-postayla gönderdiği açıklamada, "Bu yaklaşım, gelişmiş AI sistemlerinin ciddi zarar riskini azaltırken aynı zamanda teknolojinin şirketlere ve bireylere ulaşmasına yardımcı oluyor" dedi
    • Ayrıca eyaletten eyalete değişen düzenlemeler yerine açık ve tutarlı ulusal ölçekte standartlar oluşturulmasına yardımcı olduğunu da belirtti
    • Tasarının tanımladığı "kritik zarar" kapsamına, AI'nin kimyasal, biyolojik, radyolojik veya nükleer silah üretmesi ya da insan yapmış olsaydı suç sayılacak eylemleri kendi başına gerçekleştirmesi gibi durumlar da giriyor
    • Bu tür eylemler büyük çaplı zarara yol açsa bile, AI laboratuvarı kasıtlı davranmadıysa ve rapor sunduysa yasal sorumluluktan muaf tutulabilir
  • Federal düzenleme ile eyalet tasarılarının çatışması

    • OpenAI'nin küresel ilişkiler ekibinden Caitlin Niedermeyer, SB 3444 lehine verdiği ifadede federal düzeyde bir AI düzenleme çerçevesi ihtiyacını vurguladı
      • Eyalet bazında farklı düzenlemelerin verimsiz sürtüşmelere yol açabileceğini söyleyerek, federal sistemle uyumun güçlendirilmesi gerektiğini savundu
      • Bu yaklaşım, Silikon Vadisi genelindeki tutumla benzerlik taşıyor ve ABD'nin AI rekabet gücünü koruma mantığıyla örtüşüyor
      • Niedermeyer, "Frontier modellerin güvenli şekilde devreye alınması ve Amerika'nın inovasyon liderliğinin korunması, düzenlemenin kutup yıldızı (North Star) olmalı" dedi
  • Tasarının geçme ihtimali ve eleştiriler

    • Secure AI Project politika direktörü Scott Wisor, Illinois'in teknoloji düzenleme eğilimi dikkate alındığında tasarının geçme ihtimalinin düşük olduğunu değerlendirdi
      • Illinois sakinleriyle yapılan bir kamuoyu yoklamasında %90'ı AI şirketlerine sorumluluk muafiyeti verilmesine karşı çıktı
      • Eyalet milletvekilleri ise tam tersine AI geliştiricilerine yönelik sorumluluğu artıran yasa tasarıları sunuyor
      • Illinois, hâlihazırda ruh sağlığı hizmetlerinde AI kullanımını sınırlayan yasayı çıkaran ilk eyalet; ayrıca 2008'de Biyometrik Bilgi Gizliliği Yasası (BIPA) kabul edilmişti
  • AI kaynaklı zararlar için sorumlulukta çözülemeyen sorun

    • SB 3444 büyük çaplı zarara odaklansa da bireysel düzeydeki zararlar üzerine tartışmalar da sürüyor
      • Bazı aileler, çocuklarının ChatGPT ile anormal etkileşimlerin ardından intihar ettiğini iddia ederek OpenAI'ye dava açtı
    • Federal düzeyde AI mevzuatı hâlâ Kongre'de ilerleme kaydedememiş durumda
      • Trump yönetimi yürütme emirleri ve çerçeveler yayımlamış olsa da somut yasama tartışmaları tıkanmış durumda
      • Federal kılavuz eksikliğinde California ve New York gibi eyalet yönetimleri, kendi güvenlik ve şeffaflık raporlama zorunluluğu getiren yasaları geçirdi
    • AI patlaması yıllardır sürerken, AI modelleri felaket niteliğinde olaylara yol açarsa yasal sorumluluğun kimde olacağı hâlâ çözülememiş bir mesele olarak kalıyor

1 yorum

 
GN⁺ 19 일 전
Hacker News yorumları
  • GPT 5.4 ve Opus 4.6 kullanarak gündelik malzemelerle nörotoksik madde yapma yöntemleri üretmeye çalıştım
    Model önce fosfor (P) temin etme kısmında takıldı, ama sonunda eBay’deki “dekoratif fosfor” satış ilanlarını ve gerçek karaborsada kullanılan kod kelimeleri bile gösterdi
    Güvenlik önlemleri, malzeme listesi, gizleme yöntemleri ve akademik aramayla kimyasal süreçler konusunda koçluk aldı
    Elbette bu, bağlam tüketme saldırısı (context exhaustion attack) yoluyla mümkün olan anormal bir sonuçtu; sonrasında OpenAI ve Anthropic’e bildirdim ama yanıt gelmedi
    Yakın zamanda tekrar denediğimde oturum sonlandırıldı; düzeltilmiş gibi görünüyor
    Bunun terörle mücadele birimlerindeki insanların uykusunu kaçıracak düzeyde bir şey olduğundan eminim

    • Bu tür bilgiler internette zaten 20–30 yıl önce bile kolayca bulunabiliyordu
      Eskiden “hükümetin saklamaya çalıştığı bilgiler” üzerine çok sayıda forum da vardı
      Ama şimdi uygulamaya geçişteki sürtünmenin azalması asıl daha korkutucu kısım
    • “Terörle mücadele görevlileri uyuyamıyor” ifadesi biraz fazla abartılı geliyor ama bugün bu pozitif enerjiyi olduğu gibi kabul edeceğim
    • Acaba biyokimya alanında bir geçmişiniz var mı diye merak ediyorum
      Kendi uzmanlık alanımda ChatGPT ve Claude kullandım; uzman olmayan birine bakınca makul görünen ama tamamen yanlış içerikler sık sık üretiyorlar
      Gerçekten birinin LLM’in kimya talimatlarını izleyerek deney yapıp yapmadığını da merak ediyorum
    • Bu tür bilgilere AI öncesinde de yalnızca Google aramasıyla rahatça erişilebiliyordu
    • “Modelin böyle çalışmaması gerekir” sözüne katılmıyorum
      Aslında sistem prompt’u üzerine yazmazsan tam olarak böyle çalışması gerekir
  • Illinois Senatosu Tasarısı 3444 metninden alıntı yapılıyor
    “Ciddi zarar (critical harm)”, bir AI modelinin 100’den fazla kişinin ölümüne veya 1 milyar dolardan fazla mülk zararına yol açması anlamına geliyor
    Geliştirici, önceden güvenlik protokolleri ve şeffaflık raporunu yayımlamışsa kasıtlı ihmal olmadığı sürece sorumluluktan muaf tutuluyor
    Ama bunun yalnızca bir PDF yüklemek düzeyinde kalmasının yetersiz olduğunu düşünüyorum

    • İlginç olan, bu yasanın yalnızca “frontier model” için geçerli olması
      Yani küçük bir model felakete yol açarsa korunmuyor
      99 kişi ölürse sorun yok mu yani? “Ya büyük oyna ya eve dön” gibi tuhaf bir mantık
    • Asıl mesele 15. maddede
      Sadece belge yayımlamak değil, gerçekten o protokollere uymak da koruma şartı
      Düzenleyiciler “makul standartlar” belirlemeli ve şirketler ancak bu standartları karşıladıklarında muaf tutulmalı
      Koşulsuz muafiyet de, koşulsuz sorumluluk da aşırı
      Sonuçta yasanın sorunu, standardın fazla düşük belirlenmiş olması
    • Şirketlerin sorumluluğu kamuya yıkması yaygın bir şey
      1957 tarihli Price–Anderson Act bunun tipik örneği; nükleer endüstrinin sorumluluğunu sınırlıyor
      Fukuşima kazasında olduğu gibi 1 trilyon doları aşan zararlar olsa bile yükün büyük kısmını devlet üstleniyor
      AI endüstrisindeki muafiyet tartışması da aynı bağlamda
      Ayrıca Gemini’nin bu yasanın sona erme yılını yanlış söylemesini görünce AI’da olgu doğrulamasının gerekliliğini tekrar hissettim
    • Bu, AI versiyonu “silahlar insan öldürmez” mantığı
      Elbette basitleştirilmiş bir benzetme ama sonuçta sorumluluktan kaçmak için hazırlanmış bir yasa olduğu açık
    • Bu yasa, otonom silah geliştirme etrafındaki tartışmalarla da bağlantılı
      Yanlış hedef vurulduğunda sorumluluktan kaçma girişimi gibi görünüyor
      “Skynet”ten bahsedilmemesi neredeyse tuhaf
      Muafiyete ihtiyaç duyulması, zaten tehlikenin bilindiği anlamına geliyor
  • Iowa’daki örnek aklıma geldi
    Eyalet senatosu, pestisit/herbisit şirketlerinin EPA etiket standardına uydukları sürece davalardan korunmasını sağlayan bir yasa tasarısını iki kez geçirdi
    Iowa aynı zamanda ABD’de kanser oranının en hızlı arttığı eyalet

    • Devlet onaylı bir ürünse, sonradan zararlı olduğu ortaya çıktığında şirket yine de sorumlu tutulmalı mı?
      PFAS davalarında olduğu gibi (haber bağlantısı) bu ileride büyük bir tartışma olacak gibi görünüyor
    • Sonuçta bu, yerel sanayi çıkarlarıyla halk sağlığının çatışması meselesi gibi görünüyor
  • Anlamadığımız sistemler inşa ettik ve bir sonraki adımın muafiyet olması gerçekten ironik

    • Evet, amaç sorumluluktan kaçmak
      Ama asıl korkutucu olan, bu tepkinin ne kadar dar bir düşünme biçiminden kaynaklanıyor olması
  • Bence sorumluluk meselesi basit
    Kararı veren insan her zaman sorumlu olmalı
    “AI bana yaptırdı” bahanesi geçerli değil
    Ama yetkisi olmayan biri bunu uyguladıysa, o da başka bir sorumluluk biçimi
    Sonuçta AI sadece yeni bir günah keçisi olacak

    • Ama “sorumlu kim” sorusu her zaman net olmuyor
  • Sonuçta hesap şu: hükümete lobi yapmak, ürün güvenliğini iyileştirmekten daha ucuz ve daha hızlı
    Daha şaşırtıcı olan, dünyanın anahtarlarını bu şirketlere teslim etmek isteyen geliştiricilerin çokluğu

    • Aslında bu yöntem, 20. yüzyılın ortalarından beri şirketlerin standart stratejisi ve gayet iyi işledi
    • Ama belirlenimsiz (nondeterministic) bir ürün nasıl “güvenli” hale getirilecek?
  • Illinois’te ayrıca işletim sistemi düzeyinde yaş doğrulamasını zorunlu kılan başka bir yasa tasarısı (HB 5511) da var
    Bu tür kötü yasaların geçmesinin nedeni, sesimizi çıkarmamamız
    Orada yaşıyorsanız milletvekilinize hemen e-posta atmalısınız

  • “Bu yazı ana sayfadan ne zaman düşer?” diye bahis açılmış

    • Başlık “OpenAI backs Illinois bill that would limit when AI labs can be held liable” olarak değiştirildi
      Gerçek yasa metninde (bağlantı) ‘100’den fazla ölüm veya 1 milyar dolarlık zarar’ ifadesi açıkça yer alıyor
      Bence ilk başlık aslında daha doğruydu
    • Güncelleme: yaklaşık 1–4 saat içinde ana sayfadan düştü
    • Ama bu bir pazarlama etkisi, o yüzden silinmeyecek gibi görünüyor
      Biz de onu tüketiyoruz
    • Bahse girerim 3 ay sürer — düşmezse ömür boyu kazanılmış bahis olur
  • OpenAI başlangıçta LLM risklerini azaltmayı amaçlayan bir kâr amacı gütmeyen kuruluş olarak başlamıştı ama şimdi tam ters yönde ilerliyor

    • Bu, paranın potansiyelini keşfetmeden önceydi
    • Adında “Open” olan şirketler genelde kapalıdır
    • Sonuçta herkesin bir fiyatı vardır
    • Onlar da artık başlangıçtaki ideallerini unuttu
    • Belki de en başından beri yalandı
  • Bu çizgi, OpenAI ve Sam Altman açısından şaşırtıcı değil
    Şirketlerin maliyetleri dışsallaştırması yaygın bir şey
    Ama bu tür davranışları nasıl durdurabiliriz?
    Bu sadece açgözlülüğün ahlakı yenmesinin sonucu mu?

    • Toplumsal ölçekte bunu engellemek zor
      SOPA/PIPA karşıtı hareket gibi istisnai örnekler var ama çoğu durumda şirketlerin motivasyonu bireysel çıkarlardan çok daha güçlü
      Sonuçta bu, demokrasinin zayıflama mekanizmasıyla aynı şey
    • Çözüm, tüzel kişilik kavramının kendisini değiştirmek olabilir
      Şirketler özünde sorumluluktan kaçış yapıları olduğu için çok katmanlı şirketleri ve özel amaçlı araçları (SPV) sınırlamak gerekir
      Ayrıca Friedman Doctrine’e inanan siyasetçilere ve yargıçlara oy verilmemeli
      Şu an toplum sermaye sahipleri lehine eğilmiş durumda
    • Böyle bir yasa geçerse anayasaya aykırılık riski yüksek olur
      “Net varlığı 1 milyar doların üzerindeyse istediğin kişiye vurup muaf olabilirsin” diyen bir yasadan farkı yok
      Sonuçta mahkemeler yozlaşmamışsa iptal edilecektir
    • Bireyin yapabileceği şeyler sınırlı
      Bunu toplumsal eyleme dönüştürmenin yolu, uygarlığın kendi ödevi
    • Birçok kişi görmezden gelecek ama, Demokratlara oy verin demek istiyorum
      Tüketici Koruma Bürosu’nu (CFPB) kuran Demokratlardı; Cumhuriyetçiler ise onu zayıflattı
      Tekelleri ve manipülasyonu durduracak siyasi güçleri desteklemek gerekiyor
      Özellikle genç ilerici kuşak yükselirken, ön seçimlerde doğru adayları seçmek önemli
      Sonuçta seçmenlerin yalnızca %25’i değişse bile dünya değişebilir