- OpenAI, Illinois Senatosu'nun SB 3444 numaralı yasa tasarısını destekliyor; tasarı, AI modelleri büyük çaplı can kaybına ya da devasa mal varlığı zararına yol açsa bile belirli koşullar altında AI laboratuvarlarının yasal sorumluluğunu sınırlandırmayı öngörüyor
- Tasarı, bir AI modelinin 100'den fazla kişinin ölümü veya ağır yaralanmasına ya da 1 milyar dolardan fazla mal varlığı zararına yol açması durumunu "kritik zarar (critical harm)" olarak tanımlıyor
- AI laboratuvarı bu zarara kasıtlı olarak veya ağır ihmal sonucu neden olmadıysa ve güvenlik, emniyet ve şeffaflık raporunu internet sitesinde yayımladıysa sorumluluktan muaf tutulabiliyor
- Tasarı, "frontier model" kavramını eğitim maliyeti 100 milyon doların üzerindeki AI'lar olarak tanımlıyor; OpenAI, Google, xAI, Anthropic ve Meta gibi büyük AI laboratuvarlarının bu kapsama girmesi muhtemel
- Bu tanım, yüksek performanslı AI sistemlerini merkez alan bir düzenleme çerçevesi oluşturma girişimi olarak yorumlanıyor
- OpenAI sözcüsü Jamie Radice, e-postayla gönderdiği açıklamada, "Bu yaklaşım, gelişmiş AI sistemlerinin ciddi zarar riskini azaltırken aynı zamanda teknolojinin şirketlere ve bireylere ulaşmasına yardımcı oluyor" dedi
- Ayrıca eyaletten eyalete değişen düzenlemeler yerine açık ve tutarlı ulusal ölçekte standartlar oluşturulmasına yardımcı olduğunu da belirtti
- Tasarının tanımladığı "kritik zarar" kapsamına, AI'nin kimyasal, biyolojik, radyolojik veya nükleer silah üretmesi ya da insan yapmış olsaydı suç sayılacak eylemleri kendi başına gerçekleştirmesi gibi durumlar da giriyor
- Bu tür eylemler büyük çaplı zarara yol açsa bile, AI laboratuvarı kasıtlı davranmadıysa ve rapor sunduysa yasal sorumluluktan muaf tutulabilir
-
Federal düzenleme ile eyalet tasarılarının çatışması
- OpenAI'nin küresel ilişkiler ekibinden Caitlin Niedermeyer, SB 3444 lehine verdiği ifadede federal düzeyde bir AI düzenleme çerçevesi ihtiyacını vurguladı
- Eyalet bazında farklı düzenlemelerin verimsiz sürtüşmelere yol açabileceğini söyleyerek, federal sistemle uyumun güçlendirilmesi gerektiğini savundu
- Bu yaklaşım, Silikon Vadisi genelindeki tutumla benzerlik taşıyor ve ABD'nin AI rekabet gücünü koruma mantığıyla örtüşüyor
- Niedermeyer, "Frontier modellerin güvenli şekilde devreye alınması ve Amerika'nın inovasyon liderliğinin korunması, düzenlemenin kutup yıldızı (North Star) olmalı" dedi
- OpenAI'nin küresel ilişkiler ekibinden Caitlin Niedermeyer, SB 3444 lehine verdiği ifadede federal düzeyde bir AI düzenleme çerçevesi ihtiyacını vurguladı
-
Tasarının geçme ihtimali ve eleştiriler
- Secure AI Project politika direktörü Scott Wisor, Illinois'in teknoloji düzenleme eğilimi dikkate alındığında tasarının geçme ihtimalinin düşük olduğunu değerlendirdi
- Illinois sakinleriyle yapılan bir kamuoyu yoklamasında %90'ı AI şirketlerine sorumluluk muafiyeti verilmesine karşı çıktı
- Eyalet milletvekilleri ise tam tersine AI geliştiricilerine yönelik sorumluluğu artıran yasa tasarıları sunuyor
- Illinois, hâlihazırda ruh sağlığı hizmetlerinde AI kullanımını sınırlayan yasayı çıkaran ilk eyalet; ayrıca 2008'de Biyometrik Bilgi Gizliliği Yasası (BIPA) kabul edilmişti
- Secure AI Project politika direktörü Scott Wisor, Illinois'in teknoloji düzenleme eğilimi dikkate alındığında tasarının geçme ihtimalinin düşük olduğunu değerlendirdi
-
AI kaynaklı zararlar için sorumlulukta çözülemeyen sorun
- SB 3444 büyük çaplı zarara odaklansa da bireysel düzeydeki zararlar üzerine tartışmalar da sürüyor
- Bazı aileler, çocuklarının ChatGPT ile anormal etkileşimlerin ardından intihar ettiğini iddia ederek OpenAI'ye dava açtı
- Federal düzeyde AI mevzuatı hâlâ Kongre'de ilerleme kaydedememiş durumda
- Trump yönetimi yürütme emirleri ve çerçeveler yayımlamış olsa da somut yasama tartışmaları tıkanmış durumda
- Federal kılavuz eksikliğinde California ve New York gibi eyalet yönetimleri, kendi güvenlik ve şeffaflık raporlama zorunluluğu getiren yasaları geçirdi
- AI patlaması yıllardır sürerken, AI modelleri felaket niteliğinde olaylara yol açarsa yasal sorumluluğun kimde olacağı hâlâ çözülememiş bir mesele olarak kalıyor
- SB 3444 büyük çaplı zarara odaklansa da bireysel düzeydeki zararlar üzerine tartışmalar da sürüyor
1 yorum
Hacker News yorumları
GPT 5.4 ve Opus 4.6 kullanarak gündelik malzemelerle nörotoksik madde yapma yöntemleri üretmeye çalıştım
Model önce fosfor (P) temin etme kısmında takıldı, ama sonunda eBay’deki “dekoratif fosfor” satış ilanlarını ve gerçek karaborsada kullanılan kod kelimeleri bile gösterdi
Güvenlik önlemleri, malzeme listesi, gizleme yöntemleri ve akademik aramayla kimyasal süreçler konusunda koçluk aldı
Elbette bu, bağlam tüketme saldırısı (context exhaustion attack) yoluyla mümkün olan anormal bir sonuçtu; sonrasında OpenAI ve Anthropic’e bildirdim ama yanıt gelmedi
Yakın zamanda tekrar denediğimde oturum sonlandırıldı; düzeltilmiş gibi görünüyor
Bunun terörle mücadele birimlerindeki insanların uykusunu kaçıracak düzeyde bir şey olduğundan eminim
Eskiden “hükümetin saklamaya çalıştığı bilgiler” üzerine çok sayıda forum da vardı
Ama şimdi uygulamaya geçişteki sürtünmenin azalması asıl daha korkutucu kısım
Kendi uzmanlık alanımda ChatGPT ve Claude kullandım; uzman olmayan birine bakınca makul görünen ama tamamen yanlış içerikler sık sık üretiyorlar
Gerçekten birinin LLM’in kimya talimatlarını izleyerek deney yapıp yapmadığını da merak ediyorum
Aslında sistem prompt’u üzerine yazmazsan tam olarak böyle çalışması gerekir
Illinois Senatosu Tasarısı 3444 metninden alıntı yapılıyor
“Ciddi zarar (critical harm)”, bir AI modelinin 100’den fazla kişinin ölümüne veya 1 milyar dolardan fazla mülk zararına yol açması anlamına geliyor
Geliştirici, önceden güvenlik protokolleri ve şeffaflık raporunu yayımlamışsa kasıtlı ihmal olmadığı sürece sorumluluktan muaf tutuluyor
Ama bunun yalnızca bir PDF yüklemek düzeyinde kalmasının yetersiz olduğunu düşünüyorum
Yani küçük bir model felakete yol açarsa korunmuyor
99 kişi ölürse sorun yok mu yani? “Ya büyük oyna ya eve dön” gibi tuhaf bir mantık
Sadece belge yayımlamak değil, gerçekten o protokollere uymak da koruma şartı
Düzenleyiciler “makul standartlar” belirlemeli ve şirketler ancak bu standartları karşıladıklarında muaf tutulmalı
Koşulsuz muafiyet de, koşulsuz sorumluluk da aşırı
Sonuçta yasanın sorunu, standardın fazla düşük belirlenmiş olması
1957 tarihli Price–Anderson Act bunun tipik örneği; nükleer endüstrinin sorumluluğunu sınırlıyor
Fukuşima kazasında olduğu gibi 1 trilyon doları aşan zararlar olsa bile yükün büyük kısmını devlet üstleniyor
AI endüstrisindeki muafiyet tartışması da aynı bağlamda
Ayrıca Gemini’nin bu yasanın sona erme yılını yanlış söylemesini görünce AI’da olgu doğrulamasının gerekliliğini tekrar hissettim
Elbette basitleştirilmiş bir benzetme ama sonuçta sorumluluktan kaçmak için hazırlanmış bir yasa olduğu açık
Yanlış hedef vurulduğunda sorumluluktan kaçma girişimi gibi görünüyor
“Skynet”ten bahsedilmemesi neredeyse tuhaf
Muafiyete ihtiyaç duyulması, zaten tehlikenin bilindiği anlamına geliyor
Iowa’daki örnek aklıma geldi
Eyalet senatosu, pestisit/herbisit şirketlerinin EPA etiket standardına uydukları sürece davalardan korunmasını sağlayan bir yasa tasarısını iki kez geçirdi
Iowa aynı zamanda ABD’de kanser oranının en hızlı arttığı eyalet
PFAS davalarında olduğu gibi (haber bağlantısı) bu ileride büyük bir tartışma olacak gibi görünüyor
Anlamadığımız sistemler inşa ettik ve bir sonraki adımın muafiyet olması gerçekten ironik
Ama asıl korkutucu olan, bu tepkinin ne kadar dar bir düşünme biçiminden kaynaklanıyor olması
Bence sorumluluk meselesi basit
Kararı veren insan her zaman sorumlu olmalı
“AI bana yaptırdı” bahanesi geçerli değil
Ama yetkisi olmayan biri bunu uyguladıysa, o da başka bir sorumluluk biçimi
Sonuçta AI sadece yeni bir günah keçisi olacak
Sonuçta hesap şu: hükümete lobi yapmak, ürün güvenliğini iyileştirmekten daha ucuz ve daha hızlı
Daha şaşırtıcı olan, dünyanın anahtarlarını bu şirketlere teslim etmek isteyen geliştiricilerin çokluğu
Illinois’te ayrıca işletim sistemi düzeyinde yaş doğrulamasını zorunlu kılan başka bir yasa tasarısı (HB 5511) da var
Bu tür kötü yasaların geçmesinin nedeni, sesimizi çıkarmamamız
Orada yaşıyorsanız milletvekilinize hemen e-posta atmalısınız
“Bu yazı ana sayfadan ne zaman düşer?” diye bahis açılmış
Gerçek yasa metninde (bağlantı) ‘100’den fazla ölüm veya 1 milyar dolarlık zarar’ ifadesi açıkça yer alıyor
Bence ilk başlık aslında daha doğruydu
Biz de onu tüketiyoruz
OpenAI başlangıçta LLM risklerini azaltmayı amaçlayan bir kâr amacı gütmeyen kuruluş olarak başlamıştı ama şimdi tam ters yönde ilerliyor
Bu çizgi, OpenAI ve Sam Altman açısından şaşırtıcı değil
Şirketlerin maliyetleri dışsallaştırması yaygın bir şey
Ama bu tür davranışları nasıl durdurabiliriz?
Bu sadece açgözlülüğün ahlakı yenmesinin sonucu mu?
SOPA/PIPA karşıtı hareket gibi istisnai örnekler var ama çoğu durumda şirketlerin motivasyonu bireysel çıkarlardan çok daha güçlü
Sonuçta bu, demokrasinin zayıflama mekanizmasıyla aynı şey
Şirketler özünde sorumluluktan kaçış yapıları olduğu için çok katmanlı şirketleri ve özel amaçlı araçları (SPV) sınırlamak gerekir
Ayrıca Friedman Doctrine’e inanan siyasetçilere ve yargıçlara oy verilmemeli
Şu an toplum sermaye sahipleri lehine eğilmiş durumda
“Net varlığı 1 milyar doların üzerindeyse istediğin kişiye vurup muaf olabilirsin” diyen bir yasadan farkı yok
Sonuçta mahkemeler yozlaşmamışsa iptal edilecektir
Bunu toplumsal eyleme dönüştürmenin yolu, uygarlığın kendi ödevi
Tüketici Koruma Bürosu’nu (CFPB) kuran Demokratlardı; Cumhuriyetçiler ise onu zayıflattı
Tekelleri ve manipülasyonu durduracak siyasi güçleri desteklemek gerekiyor
Özellikle genç ilerici kuşak yükselirken, ön seçimlerde doğru adayları seçmek önemli
Sonuçta seçmenlerin yalnızca %25’i değişse bile dünya değişebilir