4 puan yazan GN⁺ 2025-07-20 | 2 yorum | WhatsApp'ta paylaş
  • Meta Platforms, Avrupa Birliği'nin (AB) yapay zeka uygulama kurallarını imzalamayacağını resmen açıkladı
  • Meta'nın küresel politika sorumlusu Joel Kaplan, bu kuralların aşırı düzenleme olduğunu ve inovasyon ile büyümeyi engellediğini vurguladı
  • Söz konusu kurallar, AI Act'e (2024'te kabul edildi) uyum için şeffaflık ve güvenlik yönergeleri sunmayı amaçlıyor
  • Avrupa Komisyonu geçen hafta genel amaçlı AI modelleri için nihai uygulama kurallarını yayımladı; her şirket imzalayıp imzalamamaya kendi karar verebiliyor
  • Meta'nın yanı sıra ASML, Airbus gibi şirketler de uygulamanın ertelenmesini isteyen mektuba katılırken, OpenAI uygulama kurallarına katılma niyetini açıkladı

Meta'nın Avrupa AI uygulama kurallarını reddetmesinin arka planı

  • Meta Platforms, Avrupa Birliği'nin yapay zeka uygulama kurallarını imzalamama kararı aldığını resmen duyurdu
  • Küresel politika sorumlusu Joel Kaplan, "Avrupa AI konusunda yanlış bir yola giriyor" görüşünü dile getirdi
  • Kaplan, bu kuralların model geliştiriciler için hukuki belirsizlik yarattığını ve AI Act kapsamını aşan aşırı önlemler getirdiğini savundu
  • Bu uygulama kuralları, geçen yıl kabul edilen AI Act'in şeffaflık ve güvenlik gerekliliklerini somutlaştırmak için hazırlandı ve gelecek aydan itibaren yürürlüğe girecek

Avrupa Birliği AI uygulama kurallarına genel bakış

  • Avrupa Komisyonu, genel amaçlı AI modelleri için nihai uygulama kurallarını yayımladı
  • Her şirket, kuralları imzalayıp imzalamamaya kendi karar verebiliyor
  • Kuralların amacı, AI Act uyumu için bir çerçeve sunmak ve AI teknolojilerinde şeffaflık ile güvenliği sağlamak

Sektör tepkileri ve başlıca meseleler

  • Meta'dan Kaplan, "Bu kurallar aşırı düzenleyici; Avrupa'da AI modeli geliştirme ve iş büyümesi için ciddi bir engel olacak" diyerek eleştirdi
  • ASML, Airbus gibi bazı büyük şirketler, uygulamanın 2 yıl ertelenmesini isteyen mektubu imzalayarak eleştirel tutum sergiledi
  • Buna karşılık OpenAI, Avrupa uygulama kurallarına katılma niyetini resmen açıkladı

Meta'nın küresel politika sorumlusundaki değişim

  • Joel Kaplan, 2025'in başından itibaren Meta'nın küresel politika sorumlusu olarak atandı
  • Daha önce Facebook'un ABD politika başkan yardımcısı olarak ve George W. Bush yönetiminde görev yaptı

2 yorum

 
xguru 2025-07-20

Aşağıdaki Hacker News yorumunda geçen Latham & Watkins'in EU AI Act ilk taslak açıklaması

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act, 1 Ağustos 2024'te yürürlüğe girdi ve ilgili yükümlülükler kademeli olarak uygulanacak
  • Komisyon bünyesindeki AI Office, uygulama kurallarının hazırlanmasına öncülük ediyor; hazırlıkların Mayıs 2025'e kadar tamamlanması ve 2 Ağustos'ta yürürlüğe girmesi planlanıyor
  • 14 Kasım 2024'te EC, genel amaçlı yapay zeka uygulama kuralları taslağını ilk kez yayımladı
  • Taslak, AB ilkeleri ve değerleriyle uyumlu net hedefler, önlemler ve temel performans göstergeleri (KPI) ortaya koyuyor

EU AI Act taslağının ana içeriği

Şeffaflık

  • Şeffaflık, uygulama kurallarının temel ilkesi
  • GPAI model sağlayıcıları aşağıdaki bilgileri belgelendirmeli ve güncel tutmalı
    • modelin kendisine ilişkin bilgiler
    • entegre edilebilecek yapay zeka sistemi türleri ve kullanım alanları
    • izin verilen kullanım politikaları
    • model lisansının temel unsurları
    • tasarım spesifikasyonları ve eğitim süreci
    • test ve doğrulama yöntemleri
  • Bu bilgiler, talep halinde AI Office ve ulusal kurumlara veya yapay zeka sistemi sağlayıcılarına sunulmalı
  • Mümkün olduğunda kamuya açık bilgi paylaşımı da tavsiye ediliyor

Telif hakkına uyum

  • AB telif hakkı ve ilgili haklara uyum vurgulanıyor
  • GPAI model sağlayıcıları, tüm yaşam döngüsü boyunca kapsamlı bir iç telif hakkı politikası oluşturmalı
  • Üçüncü taraflarla veri kümesi sözleşmesi yapmadan önce telif hakkı durum tespiti yapılması ve Article 4(3) kapsamındaki hak sahipliği uyumunun doğrulanması gerekiyor
  • SME'ler hariç GPAI sağlayıcılarının, modelin telif hakkını ihlal eden çıktılar üretmemesi için makul önleyici tedbirler alması gerekiyor
  • Model sağlanırken, karşı tarafın tekrarlayan telif hakkı ihlallerini önlemeye yönelik tedbirleri taahhüt etmesini sözleşme şartı haline getirmek tavsiye ediliyor

Text and Data Mining(TDM)

  • TDM yapılırken, telif hakkıyla korunan içeriğe yasal erişim yetkisinin sağlanması zorunlu
  • Yalnızca Robot Exclusion Protocol'e uyan crawler'lar kullanılmalı
  • Crawler dışlama uygulamalarının, içeriğin arama motorlarındaki bulunabilirliğini olumsuz etkilememesine dikkat edilmeli
  • Makine tarafından okunabilen hak sahibi işaretlerine aktif biçimde yanıt verilmeli
  • Hak sahipliği standartlarının geliştirilmesine katkı sağlanmalı
  • Korsan kaynakların crawl edilmesini önlemek için makul tedbirler gerekli

Telif hakkı uyumunda şeffaflık

  • Telif hakkıyla ilgili önlemlerin ve hak sahibi uyumunun açıklanması zorunlu
  • Hak sahiplerinin itiraz edebileceği tek bir iletişim noktası sağlanmalı
  • Eğitim, test ve doğrulama verilerinin kaynakları ile erişim yetkisi bilgileri AI Office'e sunulmalı

Sistemik risk sınıflandırması

  • GPAI sağlayıcıları, sistemik risk sınıflandırma çerçevesine dayanarak riskleri sürekli değerlendirmeli ve bunlara yanıt vermeli
  • Başlıca risk kalemleri:
    • siber suç
    • kimyasal, biyolojik, radyolojik ve nükleer riskler
    • model üzerindeki kontrolün kaybedilmesi
    • yapay zeka araştırma ve geliştirme amaçlarının otomasyonu
    • büyük ölçekli ikna ve manipülasyon
    • büyük ölçekli ayrımcılık

Sistemik risk yönetimi çerçevesi

  • Sistemik risk tespit edilen GPAI model sağlayıcıları bir güvenlik ve emniyet çerçevesi kurmalı
  • Şeffaflığı ve hesap verebilirliği güçlendirmek için dokümantasyon ve yönetişim yapısı (bağımsız uzman değerlendirmesi dahil) gerekli
  • Olay bildirimi, muhbir koruması ve kamusal şeffaflık önlemleri de belirtiliyor
 
GN⁺ 2025-07-20
Hacker News görüşleri
  • Sadece Meta değil, 40 Avrupa şirketi de AI yasasının uygulanmasının belirsiz olduğu gerekçesiyle AB'den 2 yıllık erteleme talep etti; bu code of practice gönüllü bir standart ve gerçek yasadan daha kapsamlı. AB, bu standarda gönüllü katılımın daha hafif düzenleme anlamına gelebileceğini ima etti. Ancak Meta, zaten her açıdan düzenleme kapsamına girdiği için bu tür gönüllü onayın pratikte çok az fayda sağladığını düşünüyor. Yasanın önemli noktalarından biri, model sağlayıcısının iş ortaklarının uygunsuz kullanımlarından da sorumlu tutulabilmesi. Bu, açık kaynak için oldukça zorlu bir gereklilik. Örneğin GPAI sağlayıcılarının telif hakkı ihlalini önleyecek makul önlemler kurması ve sözleşmelerde de iş ortaklarının bu önlemlere uymasını belirtmesi teşvik ediliyor. Ayrıntılar için Latham & Watkins açıklamasına bakılabilir

    • Alıntıyı okuyunca, AB'nin telif korumalı materyallerin lisans olmadan eğitim verisi olarak kullanılmasına izin veren istisna hükmünü neden koyduğunun bağlamı anlaşılabiliyor. Uygulamada zorluklar olsa da oldukça zarif bir denge kurulmaya çalışıldığını düşünüyorum

    • Bu standardın makul olduğunu düşünüyorum. Açık kaynak yapay zeka modellerinde de, “telif korumalı içerikle aynı veya benzer çıktıları tekrar tekrar üretmemek için uygun önlemler alınacaktır” gibi bir hüküm lisans şartlarına konabilir. Bu ABD hukuku değil, Avrupa hukuku; ayrıca “makul (reasonable)” kavramı, hakimin iki tarafın çıkarlarını tartarak yorumladığı bir şey olduğu için yalnızca lafzi yorumla değerlendirilmiyor

    • Pazarın nasıl gelişeceğine dair hiçbir şey bilinmezken böyle yeni bir sektörü aceleyle düzenlemeye kalkmaları gerçekten sinir bozucu

    • Çok sayıda telifli eseri aynen yeniden üreten bir model yaptıysanız, onun dağıtımına izin verilmemesi gerektiği açısından bu standardın aşırı olduğunu düşünmüyorum. Bu, sıradan yazılım için bile kabul edilmezdi; sırf AI modeli diye istisna olamaz

    • Yasa maddelerinde model sağlayıcısının ortakların kötüye kullanımından da sorumlu tutulduğuna dair bölüm, gerçek yasa metninde[0] yok; bu, Code of Practice'in telif hakkı bölümünde yer alıyor. Ancak bu Code, yasaya ek yükümlülük koymuyor; daha çok yasaya nasıl uyulabileceğine dair örnekler veriyor. Örneğin yasa, “machine-readable opt-out”a saygı gösterilmesini istiyor ama nasıl yapılacağını söylemiyor; code ise robots.txt kullanımını örnek veriyor. Telif hakkıyla ilgili içerik measure 1.4'te açıkça belirtilmiş: a) modelin telif ihlali içeren içeriği yeniden üretmemesi için teknik önlemler alınmalı, b) telif ihlali amaçlı kullanıma izin verilmediği kullanım şartlarında veya belgelerde açıkça belirtilmeli. Açık kaynak modellerde bu bilginin belgelerde yer alması yeterli olabiliyor. Bu Code of Practice yalnızca gönüllü olarak imzalayanlar için geçerli; bir başkası benim modelimi alıp imzaladı diye bana sorumluluk doğmuyor. Bu, bir Photoshop eklentisini GPL ile yayımlamanın Photoshop kaynak kodunun da açılmasını zorunlu kılmamasına benziyor. Yasada açık kaynak istisnaları epey fazla. Meta'nın itiraz nedeni, AB AI Office'un Meta AI'ı açık kaynak olarak kabul etmemesi ve bu yüzden bu istisnalardan yararlanamaması gibi görünüyor. Ayrıntılar için yasa bağlantısı ve Code of Practice bağlantısı incelenebilir

  • Sadece Meta'nın tepkisine bakınca bile bu AI yasasının muhtemelen gerçekten ihtiyacımız olan türden bir şey olduğuna dair bir önyargı oluştuğunu kabul ediyorum; içinde ne olduğunu tam bilmesem de böyle hissettiriyor

    • “AI Code of Practice” toplam 3 bölümden oluşuyor; burada ve taslak geçmişinde görülebilir. Henüz tamamını okumadım; daha çok önceki AI yasasına (artificialintelligenceact.eu) aşinayım. Tahminimce Meta özellikle 2. bölüm, yani telif hakkı kısmı ve özellikle de telifli materyallerin izinsiz taranması uygulamasıyla çelişen yönleri nedeniyle itiraz ediyor. Bunun gerçekten “fair use” sayılıp sayılmadığı hâlâ belirsiz

    • Bir şirketin “kötü” olması, söylediklerinin mutlaka yanlış olduğu anlamına gelmez diye düşünüyorum

  • Rehberin özetini merak edenler için şuradan bakılabilir. Gerçekten de ağır bir düzenleme gibi görünüyor; pratikte büyük telif hakkı sahipleri, avukatlar ve bürokratların lehine işliyor izlenimi veriyor

    • Bu tür düzenlemeler sonunda Avrupa şirketleri için bir tuzağa dönüşebilir. Belirli bir ölçeğin üstüne çıkıldığında düzenleme yükü aniden büyüyor; bu da küçük/yeni Avrupa AI şirketleri için büyüme eşiğini aşmayı korkutucu hale getiriyor. Buna karşılık ABD ve Çinli büyük teknoloji şirketleri çok daha hızlı inovasyon yapabildikleri ortamlarda AI seviyelerini yükseltip sermayelerini büyütüyor; sonuçta daha olgun ürünler ve çok daha güçlü finansmanla AB pazarına giriyorlar ve gerçek rekabet onların lehine kayabiliyor

    • Avrupa, AI sektörünü hiç büyütmemişken tüm sektörü aşırı ayrıntılı biçimde düzenlemeye kalkıyor. Düzenleme, düzenleme olsun diye yapılıyor gibi. Draghi'nin AB rekabetçilik raporundan bir değişim umudu doğmuştu ama AB'nin gerçekte yönünü hiç değiştirmediğini görmek büyük hayal kırıklığı yaratıyor. AB politikalarına güvenimi kaybediyorum

    • “Ağır” dedin ama özellikle hangi yönlerinin bu kadar ağır olduğunu merak ediyorum

  • AB düzenlemeleri bazen çerez politikalarında olduğu gibi tüm dünyayı peşinden sürükleyebilen bir güce sahipti. Genelde küçük bir grubun çoğunluğa bir şeyi dayatabilmesi için uyum maliyetinin karşı çıkma maliyetinden düşük olması gerekir. Ama AI farklı; oyun çok büyük ve kimse durmayacak. Nükleer savaş dışında AI'yı durdurmak mümkün değil

    • AI'nın potansiyel riskleri muazzam. Otomatik silahlardan kötü niyetli AGI'ye kadar her şey düşünülebilir. Almanya'da Doğu-Batı Almanya bölünmesinden kalma otomatik makineli tüfek travması var; Ukrayna da ağır bir drone savaşı psikolojik etkisi yaşıyor. AI'nın somut riskleri de açık; düzenleme ve yasa şart

    • Çerez yasalarının sonucu, insanların bitmek bilmeyen popup'larla uğraşması oldu. uBlock olmadan web kullanmak işkenceye dönüştü. Kullanıcı takibi server-side'a taşındı ve gerçek gizlilik koruması artmadı. Ortada çok fazla para döndüğü için sektör bu tür gevşek düzenlemeleri kolayca dolaşıyor

  • Avrupa düzenlemelerine sorgusuz destek veren çok yorum görünce şaşırdım. Temelde Avrupa düzenlemelerinin aşırı ve kötü tasarlanmış olduğunu düşünen tek kişi ben miyim diye merak ediyorum

    • Avrupa şu ana kadar ABD'li büyük teknoloji tekellerini kıracak bir politika hiç ortaya koymadı. AB kullanıcılarının çoğu hâlâ Google, Meta ve Amazon'a bağımlı. AB'nin amacı doğrudan Amerikan şirketlerine karşı çıkmak değil; daha çok onları biraz hizaya sokmak ve bazı ulusal güvenlik çıkarlarını korumak gibi görünüyor. Fazlasıyla nazik ama özünde rasyonel bir pozisyon bu

    • Vatandaşların korunması açısından bakarsak, düzenlemenin sert olmasının kötü yanı ne olabilir ki diye merak ediyorum

    • “Körlemesine” diye nitelendirmen, senin haklı olduğunu ve karşı tarafın ise bilmediği için o karara vardığını varsaymak oluyor. Zaten sen de “temelde varsayıyorum” dedin; bu, kendine yönelttiğin eleştiriyle aynı şey

    • Açıkçası Avrupa'yı bastırmaya çalışan dış görüşlerin fazlasıyla etkili olduğunu düşünüyorum

    • Sorun zaten “temelde varsayıyorum” demen. Önce varsaymak yerine ilgili metinleri okuyup kendi görüşünü oluşturmak daha önemli. Ulusötesi dev şirketlerin görüşleri dışında herkesin kendi fikrine sahip olması iyi olmaz mı

  • AB'nin LLM'lere de tüm web sitelerinde olduğu gibi popup yağdıracağından endişe ediyorum

    • İnternet zaten her tür popup ve dikkat çekmeye çalışan UX deseniyle dolu; sorun edilen tek şeyin, kullanıcıya takibi reddetme seçeneği veren popup'lar olması garip

    • Popup'ları zorunlu kılan AB değil, şirketlerdi. Site sahipleri veri toplamayı gerçekten azaltsa ya da tamamen bıraksa popup'a da gerek kalmazdı; ama bunun yerine kullanılabilirliği feda edip anlamsız popup'lar koydular. Bugünkü kaosun nedeni bu. Nitekim hiçbir şey toplamayan sitelerde (örneğin Fabien Sanglard blogu) hiç popup yok. AB'nin hatası, bunun böyle kötüye kullanılacağını öngörememiş olmasıydı; sonuç gerçekten çok kötü oldu

    • Popup olmadan da bu işler rahatça yapılabilir ama herkes büyük şirketleri taklit etmekle meşgul. Kullanıcı deneyiminden önce taklit geliyor

    • Bu popup'lardan gerçekten nefret ediyorum; bu durumun böyle sürmesi, sorumluların ne kadar yavaş olduğunu gösteriyor

  • Bunun amacının Meta'nın büyümesini engellemek olduğunu tahmin ediyorum. LinkedIn gönderisine bakılırsa Meta ise tam tersine Avrupa şirketlerinin büyümesinin engellendiğini söylüyor: “Bu aşırı düzenleme, Avrupa'da frontier AI modellerinin geliştirilmesini ve dağıtımını engelliyor; ayrıca bunların üstüne iş kurmak isteyen Avrupalı şirketleri de caydırıyor.”

    • Meta “başka şirketlerle aynı kaygıları paylaştığını” söylediğinde bunun gerçek anlamı, o anda kendi PR'ı için en işine gelen argümanı kullanmaktan ibaret. Gerçekte kamu yararıyla ya da başka şirketlerin çıkarlarıyla zerre kadar ilgilenmiyor; tek istediği daha fazla veri toplayıp daha fazla reklam satmak

    • Code of Practice'e göz gezdirince özellikle aşırı ya da “aşırı yetki kullanımı” denebilecek bir taraf görünmüyor. Sonuçta model sağlayıcılarının şeffaf davranması isteniyor; bu da sadece Meta'nın bugüne kadarki çalışma biçimiyle çatışıyor

  • Kaplan'ın LinkedIn paylaşımında politikaların hangi kısmının sorunlu olduğuna dair hiçbir şey söylenmiyor. “Büyümeyi engelliyor” ifadesi, aslında yeni özellikler eklenirken opt-in zorunluluğu gibi oldukça mütevazı şeyleri bile kastediyor olabilir diye düşünüyorum

    • Sanki her düzenleme karşısında aynı bahanenin tekrarlandığını görüyoruz
  • Küresel ortam giderek iki kutba ayrılıyor ve Meta'nın hoşnutsuzluğu ve çatışmayı büyütmede payı olduğunu düşünüyorum. Bir gün Avrupa'ya gidip açık kaynak LLM'leri özgürce kullanmak isterim

  • Umarım bu tartışma “düzenleme varsa AI gelişimi durur” sonucuna gitmez. Telif hakkı veya bilgi kaynaklarının korunması gibi konulara da yeterince değer vermek gerekiyor