- Sorunlu alıntıların, gerçek konuşmacının söylemediği sözler olmasına rağmen yapay zeka tarafından üretilmiş ve kaynağa yanlış atfedilmiş olduğu doğrulandı
- Yayın kuruluşu bu olayı editoryal standartlarda ciddi bir başarısızlık olarak nitelendirdi ve tüm doğrudan alıntıların gerçek beyanları yansıtması gerektiğini belirtti
- İç inceleme sonucunda benzer başka bir ek vakaya rastlanmadığı ve bu olayın tekil bir vaka olarak değerlendirildiği açıklandı
- Ars Technica, yapay zeka tarafından üretilen içeriklerin açıkça işaretlenmiş gösterim amaçları dışında kabul edilmediği yönündeki politikasını yeniden teyit etti ve okurlardan ile yanlış alıntılanan kişiden özür diledi
Makalenin geri çekilmesi ve olayın özeti
- Ars Technica, cuma öğleden sonra yapay zeka aracının ürettiği sahte alıntılar içeren bir makale yayımladığını açıkladı ve ilgili makaleyi geri çekti
- Alıntılar, gerçek bir kişinin söylemediği sözlerin yapay zeka tarafından üretilmesine rağmen kaynağa yanlış atfedildiği bir yapıdaydı
- Yayın bunu “standartların ciddi ihlali” olarak tanımladı
- Editörler, “doğrudan alıntılar mutlaka kaynağın gerçekten söylediği sözleri yansıtmalıdır” ifadesini kullandı
İç inceleme ve politika
- Ars Technica, yapay zeka araçlarına aşırı bağımlılığın risklerini uzun süredir ele alıyordu ve bu kaygılar şirket içi politikalara da yansımış durumda
- Bu olaydaki alıntıların yayımlanmasının söz konusu politikayla uyumlu olmayan bir şekilde gerçekleştiği açıklandı
- Son çalışmalara yönelik inceleme sonucunda, ek bir sorun tespit edilmediği ve şimdilik bunun tekil bir olay gibi göründüğü belirtildi
Yapay zeka üretimi içeriklerle ilgili kurallar
- Ars Technica, yapay zeka tarafından üretilen materyallerin yayımlanmasını prensip olarak yasaklıyor
- Ancak yalnızca açıkça işaretlenmiş ve gösterim amaçlıysa istisnai olarak izin veriliyor
- Bu olayda ise bu kuralın uygulanmadığı ifade edildi
Özür ve sonraki adımlar
- Yayın kuruluşu bu başarısızlık nedeniyle okurlarından özür diledi ve sahte alıntıların mağduru Scott Shambaugh için de doğrudan özür sundu
- Editörler, bu olayın ardından editoryal standartları güçlendireceklerini ve benzer bir durumun tekrarını önleyeceklerini söyledi
Sonuç
- Ars Technica, bu olayın yapay zeka üretimi içeriklerde doğrulama ve şeffaflığın önemini yeniden ortaya koyduğunu belirtti
- Editoryal güvenilirliği yeniden tesis etmek ve etik habercilik standartlarını korumak için iç süreçler güçlendiriliyor
2 yorum
AI ajanı benim hakkımda karalayıcı bir yazı yayımladı
AI ajanı benim hakkımda karalayıcı bir yazı yazdı — ardından daha da fazlası yaşandı
Hacker News yorumları
Eski bir teknoloji gazetecisi olarak, doğrulanmamış araçlarla haber üretimini deniyorsanız bunu mutlaka kontrollü bir ortamda yapmalı ve sonuçları ayrıntılı biçimde gözden geçirmelisiniz
Kıdemli bir editörün mutlaka sürece dahil olması gerekir; ayrıca daha az tartışmalı yazılarla başlamak daha iyi olur
Ayrıca muhabir hasta olduğu için yazı yazamayacak durumdayken şirket kültürü ya da hastalık izni politikası nedeniyle kendini zorladıysa, Ars’ın bunu kurum içinde sorgulaması gerekir
Benj Edwards, Bluesky’de yayımladığı özür metniyle sorumluluğu kabul etti
Bazı koşulları anlattı ama bunun tamamen kendi sorumluluğu olduğunu söyledi. Bunun tek seferlik olup olmadığını görmek gerekecek
İlgili yorumda da söylendiği gibi, yapay zeka konusunda şüpheci bir yayın olsanız bile araçların sınırlarını doğrudan deneyimlemek gerekli
Son dönemde bununla ilgili HN başlıklarından bir derleme
Bazı abonelerin, Ars’ın hatayı yakalayıp dürüstçe geri çekmesini aşırı övmesi tuhaf geldi.
Aslında bu temel gazetecilik etiği; üstelik bu olayda durum, konunun muhatabı kişi doğrudan yorumlarda işaret ettiği için ortaya çıktı
Ars ve muhabirin sorumluluğu kabul etmesi iyi ama geri çekme notundaki ifade yetersizdi
“Standartlarımızı karşılamadı” demek yerine, “AI tarafından üretilmiş uydurma alıntılar yayımladık” diye açıkça yazılmalıydı.
Ancak böylece haberi daha önce okuyanlar yanlış bilgiyi düzeltebilir
Hangi kısımların uydurma olduğunu kontrol ettim. Başlardaki GitHub alıntıları gerçekti ama son bölümdeki alıntıların tamamı sahtiydi
Bunlar Shambaugh’un blogundan alınmış gibi görünüyordu ama gerçekte var olmayan cümlelerdi
Orijinal metin arşiv bağlantısından görülebilir
Geri çekilen habere bağlantı verilmemesi garipti
İlgili tartışma Ars forumunda sürüyor
Haberin aslı web arşivinde görülebilir
Bundan sonra ne tür tekrarını önleme önlemleri alınacağını merak ediyorum.
LLM kullanımının neden açıklanmadığı ve başka haberlerde de benzer örnekler olup olmadığı soru işareti
Bu olayda alıntılar sahte olduğu için fark edildi ama öyle olmasaydı belki hiç anlaşılmayacaktı
Ars’ın uzun süredir AI’a aşırı bağımlılığın riskleri konusunda uyarıda bulunduğu düşünülürse, bu olay özellikle sarsıcı
Alıntı uydurmanın kurum içi politikalara aykırı olduğu söyleniyor ve güveni yeniden kazanmak kolay olmayacak
Neyse ki alıntı yapılan kişi LLM erişimini engellediği için AI halüsinasyonu (hallucination) ortaya çıktı