- Yapay zeka araçlarıyla üretilen sahte alıntılar içeren bir haber tartışmasının ardından muhabir Benj Edwards işten çıkarıldı
- Sorunlu haber, yapay zekanın insan mühendis Scott Shambaugh hakkında eleştirel bir yazı yayımladığı olayı ele alıyordu; daha sonra haberde sahte alıntılar bulunduğu ortaya çıkınca geri çekildi
- Edwards, Claude Code tabanlı bir yapay zeka aracı kullanırken bir hata oluştuğunu, sorunu anlamak için ChatGPT kullanmaya çalışırken yanlış alıntıları habere dahil ettiğini açıkladı
- Ars Technica olayı “ciddi bir standart ihlali” olarak tanımladı, iç incelemeyi tamamladı ve ileride yapay zeka kullanım yönergelerini yayımlayacağını duyurdu
- Bu olay, medyada yapay zeka kullanımı ile etik standartların çatıştığı mevcut dönemde, yapay zeka uzmanlarının bile insani hatalara ve teknik sınırlara açık olabileceğini gösteriyor
Ars Technica muhabirinin işten çıkarılması olayına genel bakış
- Ars Technica, yapay zekanın ürettiği sahte alıntıları içeren bir haber tartışmasının ardından muhabir Benj Edwards ile yollarını ayırdı
- Söz konusu yayın Condé Nast'a ait
- Sorunlu haber, 13 Şubat'ta yayımlanan yapay zeka bağlantılı bir olay haberiydi; konu, bir yapay zeka ajanının insan mühendis Scott Shambaugh'ı eleştiren bir yazı yayımlamasıydı
- Shambaugh, haberde kendisinin hiç söylemediği alıntıların yer aldığını belirtince, genel yayın yönetmeni Ken Fisher bir özür metni yayımlayıp haberi geri çekti
Genel yayın yönetmeninin özrü ve iç önlemler
- Fisher, özür metninde söz konusu haberde “yapay zeka aracının ürettiği sahte alıntılar” bulunduğunu kabul etti ve bunu “ciddi bir standart ihlali” olarak niteledi
- Bunun “izole bir vaka” gibi göründüğünü de ekledi; ardından Ars Technica iç incelemeyi tamamladığını duyurdu
- Kreatif direktör Aurich Lawson, okur yorum dizisini kapatırken “uygun iç önlemlerin tamamlandığını” söyledi
- Ayrıca gelecekte yapay zekanın nasıl kullanıldığı ve nasıl kullanılmadığına dair okur rehberi yayımlamayı planladıklarını da belirtti
Benj Edwards'ın açıklaması
- Edwards, Bluesky paylaşımında “yapay zeka aracı kullanırken yanlışlıkla sahte alıntıları habere dahil ettiğini” söyleyerek tüm sorumluluğu üstlendi
- O sırada hastalık izninde olduğunu ve alıntıları düzenlemek için Claude Code tabanlı deneysel bir yapay zeka aracı kullandığını, bu sırada hata oluştuğunu anlattı
- Daha sonra sorunun nedenini anlamak için ChatGPT kullanırken, gerçek ifadeler yerine parafraz edilmiş cümleleri habere dahil ettiğini söyledi
- “Haberi insan yazdı, yapay zekanın yazdığı bir haber yok” vurgusunu yaptı ve ortak yazar Kyle Orland'ın hatayla ilgisi olmadığını özellikle belirtti
Okur tepkileri ve sonraki değişiklikler
- Ars Technica okurları, haberin yorum dizisinde yoğun hayal kırıklığı ve öfke dile getirdi
- 28 Şubat itibarıyla Edwards'ın Ars Technica profilindeki ifadeler geçmiş zamana çevrildi; bununla artık kurumda muhabir olarak çalışmadığı doğrulandı
- Futurism, Ars Technica, Condé Nast ve Edwards'a istihdam durumunu sordu; yayın ve sahibi yanıt vermezken Edwards “yorum yapamayacağını” söyledi
Medyada yapay zeka kullanımı tartışması ve bağlamı
- Bu olay, CNET, Sports Illustrated gibi yayınlarda yaşanan yapay zeka tartışmalarının ardından gelen bir başka örnek olarak anılıyor
- Haberde, medya kuruluşlarının bugün yapay zeka kullanımını teşvik ederken net etik standartlardan yoksun olduğuna dikkat çekiliyor
- Yapay zekanın benimsenmesini çevreleyen ortamda telif hakkı anlaşmazlıkları, yapay zeka üretimi içeriklerin yayılması ve Google'ın AI Overviews özelliği nedeniyle trafikte yaşanan düşüş gibi etkenler iç içe geçiyor
- Bu bağlamda Ars Technica olayı, yapay zeka teknolojisi ile insan hatasının kesişim noktasını ortaya koyan bir örnek
- Edwards, “Yapay zeka halüsinasyonuna yakalanan yapay zeka muhabiri olmanın ironisini hissediyorum” diyerek “doğruluğa önem verdiğini ama bunun acı verici bir başarısızlık olduğunu” söyledi
1 yorum
Hacker News görüşleri
Gazeteciler ve blog yazarları sık sık başkalarının hatalarını ve özür metinlerini analiz ederek samimiyetlerini tartışır
Benji muhabirle yaşanmış kişisel bir deneyim paylaşılıyor
Kurumumuz, yapay zekanın ürettiği hukuki alıntıları doğrulamak için otomatik bir engelleyici kullanıyor
Muhabirin kişisel olarak işten çıkarılmasından daha büyük sorun, editoryal yapının çökmesi
Ars Technica'ya saygı duyuyor ve destekliyorum, ancak bu olay editörlerin sorumluluğu
Önceki tartışmanın bağlamı özetlenerek ilgili yapay zeka haber tartışmasının zaman çizelgesi paylaşılıyor
Büyük medya kuruluşları zaten LLM kullanımını zorunlu tutuyor
Haber başlığında muhabirin işten çıkarıldığından söz edilse de, gerçekte doğrulanmış olgu az
Ars'a yönelik eleştiriler sert olsa da, muhabir zaten bedelini ödedi
Google AI Overview'in doğruluk artışı şaşırtıcı düzeyde