- Yapay zeka sohbet botu Grok’un reşit olmayanları cinsel nesneleştiren görseller üretmesinin ardından, platform X sorumluluğu kullanıcılara yüklüyor
- X, modeli eğiten taraf olmasına rağmen, yasadışı içerik üretimine ilişkin dahili önlem veya düzeltme planı açıklamıyor
- Şirket daha önce otomatik CSAM tespit sistemi sayesinde yılda 4,5 milyondan fazla hesabı askıya aldığını ve yüz binlerce vakayı NCMEC’e bildirdiğini açıklamıştı
- Ancak Grok’un ürettiği yapay zeka içeriklerinin mevcut hash tabanlı tespit sistemleriyle tanımlanamama riski gündeme geliyor
- Yasadışı içeriğin tanımı ve sınırları belirsiz olduğundan, platform içinde hangi görsellerin kaldırılması gerektiği konusunda bile uzlaşı sağlanmış değil
X’in CSAM’e karşı mevcut yaklaşımı
- X, CSAM paylaşımlarına karşı “sıfır tolerans politikası” uyguladığını belirtiyor
- İçeriklerin büyük bölümü şirketin kendi hash teknolojisi ile otomatik olarak tespit edilip önceden engelleniyor
- 2024 yılı boyunca 4,5 milyondan fazla hesap askıya alındı, yüz binlerce görsel NCMEC’e (ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi) bildirildi
- X Safety, “CSAM tespit edilirse hesabı derhal kalıcı olarak askıya alıyor ve ilgili hesabı NCMEC’e bildiriyoruz” açıklamasını yaptı
- NCMEC, çocukların korunması ve soruşturmaların yürütülmesi için dünya genelindeki kolluk kuvvetleriyle işbirliği yapıyor
- 2024’te X’in NCMEC’e yaptığı 309 bildirim 10 mahkumiyetle sonuçlanırken, 2025’in ilk yarısında 170 bildirim tutuklamalara yol açtı
Grok ile ilgili sorunlar ve sınırlamalar
- Grok’un reşit olmayanları cinsel nesneleştiren görseller ürettiği vakalar bildirildi
- Bazı kullanıcılar, modeli eğiten taraf X olduğu için sorumluluk alması gerektiğini savunuyor
- Ancak X, sorunun kullanıcı prompt’larından kaynaklandığını söyleyerek kullanıcı sorumluluğunu öne çıkarıyor
- X, Grok’un yasadışı çıktıları hakkında somut önlem veya düzeltme planı açıklamıyor
- Bazı kullanıcılar, yasadışı veya zararlı çıktıları bildirme özelliklerinin güçlendirilmesini öneriyor
Yasadışı içerik tanımındaki belirsizlik
- X Safety’nin yaklaşımında “yasadışı içerik” ve “CSAM” tanımlarının belirsiz olduğu eleştirisi yapılıyor
- Bazı kullanıcılar, Grok’un tanınmış kişiler veya uzmanların görsellerini bikini biçiminde üretmesini sorun olarak görüyor
- Buna karşılık, Elon Musk dahil bazı kişiler bunu şaka olarak değerlendiriyor
- Bu belirsiz kriterler, yapay zeka tarafından üretilen CSAM’in kaldırılıp kaldırılmayacağını ve tekrarının nasıl önleneceğini doğrudan etkiliyor
Olası riskler ve soruşturmayı engelleme endişesi
- Grok’un ürettiği görsellerin gerçek çocuk fotoğraflarına dayanma ihtimali bulunuyor ve bunların ortada kalması, mağdur çocuklara psikolojik zarar verebilir
- Eğer Grok büyük miktarda sahte CSAM’i internete yayarsa,
- bu durum gerçek çocuk istismarı vakalarına ilişkin soruşturmaları karmaşık hale getirebilir
- Ars Technica, geçmişte benzer vakalarda yapay zeka üretimi sahte görsellerin soruşturma verimliliğini düşürdüğüne dikkat çekiyor
Önümüzdeki görevler
- X, CSAM’i ortadan kaldırma konusundaki kararlılığını yineledi, ancak yapay zeka üretimli içeriklere yönelik somut bir karşı önlem ortaya koymadı
- Grok’un çıktılarının yönetimi ve yasadışı içerik tanımının netleştirilmesi, platform güvenilirliği ve hukuki sorumluluk açısından temel meseleler olarak kalıyor
1 yorum
Hacker News yorumları
Bu aralar X'e neredeyse hiç girmiyorum. Nefret söylemi çok fazla ve özellikle kadınların trend olan paylaşımlarının altında, Grok kullanılarak fotoğraflarını cinsel olarak manipüle eden yorumlarla dolu
Örnek olarak birkaç bağlantı bırakıyorum: bağlantı1, bağlantı2, bağlantı3
Twitter'da kadınların “Grok, onun kıyafetlerini çıkar” gibi şeylere maruz kalmasını sorun etmeyen insanlara bakınca, bunun tam anlamıyla tecavüz kültürünün tipik bir örneği olduğunu düşünüyorum
X, “yasa dışı içerikleri siliyor ve hesapları kalıcı olarak askıya alıyoruz” diyor ama bence asıl sorun, böyle içeriklerin en başta üretilebiliyor olması
Hukuken bakıldığında Section 230, platformun doğrudan ürettiği içerik için geçerli değil. Grok, X'in doğrudan bir ajanı olduğu için sorumluluk doğuyor
Açık model tartışması ilginç. Normalde guardrail'siz modelleri savunan çok kişi var ama bu başlıkta karşı görüşler ezici çoğunlukta
Avrupa'da Section 230 yok ve platform ile işletmeci doğrudan sorumlu. Yapay zeka üretimi CSAM de gerçek istismar materyaliyle aynı şekilde ele alınıyor. Grok'un guardrail eksikliği nedeniyle ceza davası ihtimali var
Grok'u Musk'ı övecek şekilde değiştirebiliyorken, CSAM önleme filtresi koymamış olmaları tuhaf
Twitter'da lolicon avatarı kullanan insanların, X'in CSAM sorununa hiçbir tepki vermemesi şaşırtıcı
Ödeme hizmeti sağlayıcılarının ne zaman devreye girip mavi tik abonelik ödemelerini durduracağını merak ediyorum
Bu başlığın siyasi diye silinmesini anlıyorum ama bu olayın teknoloji topluluğunu da doğrudan ilgilendirdiğini düşünüyorum