- 2017’de yayımlanan CheXNet gibi yapay zeka modelleri, zatürre teşhisinde insan radyologlardan daha doğru performans göstermiş olsa da, gerçek sağlık hizmeti ortamında bu başarıyı yeniden üretemiyor
- Son dönemde yüzlerce radyoloji yapay zeka modeli FDA onayı almış olmasına rağmen, ABD’de radyolog pozisyonları ve maaşları tersine tarihî zirveye ulaşmış durumda
- Tıbbi yapay zekanın sınırları arasında veri eksikliği, gerçek ortamla eğitim verisi arasındaki fark, düzenleyici ve sigorta engelleri ile insan radyologların teşhis dışında birçok rol üstlenmesi yer alıyor
- Tam otomasyon yerine, insan ve yapay zekanın birlikte çalıştığı sistem sağlık sektöründe standart hâline geldi; yapay zeka ilerlese de radyolog emeğine olan ihtiyaç azalmıyor
- Tıbbi yapay zekanın yaygınlaşmasının ilk 10 yılı, yapay zekanın verimlilik artışı potansiyeli yüksek olsa da pratikte daha fazla insan emeği talebi doğuran bir paradoks yarattığını gösteriyor
Giriş: Yapay zekanın devreye alınması ve beklentiler
- 2017’de ortaya çıkan CheXNet gibi yapay zeka modelleri, 100 binden fazla göğüs röntgeni verisiyle eğitildi ve zatürre yorumlamasında insan uzmanlardan daha üstün sonuçlar sundu
- Annalise.ai, Lunit, Aidoc, Qure.ai gibi birçok şirket, yüzlerce hastalığı tespit edebilen yapay zeka sistemleri piyasaya sürdü; bunlar hastane kayıt sistemlerine de entegre edilebiliyor
- FDA onayı almış 700’den fazla radyoloji yapay zeka modeli bulunuyor ve bu sayı tüm tıbbi yapay zeka cihazlarının %75’ine karşılık geliyor
- Radyoloji, dijital girdi, örüntü tanıma ve açık performans ölçümü açısından yapay zeka tarafından ikame edilmeye en uygun alanlardan biri olarak görülüyordu
- Ancak gerçekte, radyolog yetiştirme talebi tüm zamanların en yüksek seviyesine ulaşmış durumda; ücretler de 2015’e kıyasla %48 artarak insan iş gücüne olan talebin yükseldiğini gösteriyor
Yapay zeka tabanlı radyoloji teşhis sistemlerinin sınırları
Gerçek ortam ile eğitim verisi arasındaki fark
- Radyoloji yapay zeka modelleri standartlaştırılmış veriler ve belirli koşullar altında mükemmel performans gösterse de, gerçek hastane ortamında hastaneden hastaneye veri farkı, teşhis cihazlarının özellikleri ve çeşitlilik eksikliği nedeniyle performans düşüyor
- Modellerin çoğu yalnızca belirli bir hastalıkta veya tek bir görüntü türünde yüksek doğruluk sağlıyor; farklı vakalarda ise birden fazla modeli sırayla uygulama gibi pratik olmayan durumlar ortaya çıkıyor
- FDA onayı almış algoritmalar bile gerçek görüntü yorumlama iş akışının yalnızca bir kısmını kapsıyor ve çoğunlukla felç, meme kanseri, akciğer kanseri gibi az sayıdaki kritik hastalığa odaklanıyor
- Çocuklar, kadınlar ve azınlık etnik gruplara ait verilerin yetersiz olması; ayrıca hastalığın belirsiz biçimde ortaya çıkması ya da başka hastalıklarla iç içe geçmesi durumunda tahmin gücü de düşüyor
Benchmark ile klinik uygulama arasındaki fark
- Benchmark testlerinde yapay zeka yüksek nicel metrikler kaydetse de, gerçek klinik ortamda insan radyologlar ile destek sistemleri beklenen kadar iyi sonuç veremiyor
- Örneğin mamografi alanında yardımcı yapay zeka sistemleri yorumlama duyarlılığını artırdı, ancak sadece gereksiz ek test ve doku biyopsisi oranını yükseltti; kanser tespit oranını ise artırmadı
- Bir veya iki insan yorumlayıcının birlikte yaptığı çift okuma, yapay zeka desteğine kıyasla kanser bulmada daha yüksek başarı ve gereksiz yeniden inceleme oranında daha düşük sonuç verdi
Hukuki ve kurumsal düzenlemeler otomasyon hızını sınırlıyor
- FDA, radyoloji yazılımlarını yardımcı/sınıflandırma araçları ve tam otomasyon araçları olarak ayırıyor
- Tam otomasyon nadir görülüyor ve IDx-DR örneğinde olduğu gibi yalnızca bazı özel koşullarda uygulanıyor
- Yapay zekanın yorumlamakta zorlandığı görüntülerde yazılımın kendi kendini durdurup vakayı sağlık personeline aktarması gerekiyor
- Düzenleyici gereklilikler yüksek ve model her yeniden eğitildiğinde veya değiştirildiğinde yeni onay alınması gerekiyor
- Sigorta şirketleri, otomasyon araçlarında hata olması hâlinde toplu zarar olasılığının yüksek olduğunu düşünüyor; bu yüzden yalnızca yapay zeka ile konulan teşhislerin sigorta ödemesine daha isteksiz yaklaşıyorlar
- Hukuken, sigorta kapsamına alınan standart yaklaşımın doktorun doğrudan yorumlayıp imzaladığı raporlar olması yaygın kabul görüyor
İnsan radyologların rolünün değişmesi
- Gerçekte radyologlar zamanlarının yalnızca %36’sını görüntü yorumlamaya ayırıyor; geri kalan zamanı hasta ve meslektaş danışmanlığı, tetkik gözetimi, eğitim, reçete değişikliği gibi çeşitli işlere harcıyor
- Görüntü yorumlama süresi azalsa bile gereksiz işten çıkarmalar yaşanmadı; tersine yeni görevler arttı ve toplam görüntü yorumlama hacmi genel olarak yükseldi
- Örneğin film tabanlı sistemlerden dijitale geçişte de görüntü yorumlama verimliliği ciddi biçimde arttı, ancak sağlık çalışanı sayısı azaltılmadı; aksine toplam görüntüleme tetkikleri %60’tan fazla arttı
- Görüntü işleme hızındaki artış, test bekleme sürelerinin azalması ve acil durumlara müdahale kapasitesinin yükselmesi gibi sağlık sistemi içinde daha çeşitli kullanım alanları yarattı
Gelecek görünümü: Yapay zekanın yaygınlaşmasının ilk 10 yılından çıkarılan dersler
- Son 10 yılda günlük klinik kullanıma geçiş, yapay zeka modellerinin teknik seviyesindeki ilerlemeden çok daha yavaş oldu
- Düzenleme, sigorta, hasta danışmanlığı ve hekim özerkliği gibi teknik olmayan faktörler, tam ikamenin önündeki engeller olarak işliyor
- Yapay zekanın iş gücünü ikame etmesinden ziyade insanla iş birliği yoluyla verimliliği güçlendirmesi, temel model hâline geldi
- Büyük platformlarda (ör. Facebook) yapay zeka ile otomasyon olasılığı yüksek olsa da, bilgi işleri farklı görevlerden oluştukça yazılımın devreye alınması insan emeğini azaltmak yerine artırma eğilimi gösteriyor
- Radyoloji alanındaki deneyim, yapay zekanın insan işini hemen ikame etmekten çok; toplumsal, kurumsal ve davranışsal değişimlerle birlikte insan iş gücüne olan talebi koruyan veya büyüten paradoksal bir sonuç doğurduğunu gösteriyor
1 yorum
Hacker News görüşü
Ben girişimsel radyoloji doktoruyum ve bilgisayar bilimi yüksek lisans derecem var; radyoloji dışındakilerin, yapay zekanın neden hâlâ radyolojinin yerini alamadığını tam kavrayamadığını düşünüyorum. Açıklamak gerekirse, yapay zeka görüntü yorumlamayı insan radyologlardan daha iyi yapabilir mi sorusunun cevabı neredeyse "evet" ya da yakında öyle olacak. Ama radyolojinin yerinin alınıp alınmayacağı sorusunun cevabı neredeyse kesin olarak "hayır". Bunun nedeni tıbbi-hukuki risk. Mevcut yasa değişmediği sürece, radyoloğun tüm raporları nihai olarak imzalaması gerekiyor. Dolayısıyla yapay zeka görüntüleri okuyup kusursuz bir rapor yazsa bile, en sonunda radyoloğun son onayı darboğaz oluyor. Şu anda radyologlar günde en az 60-100 farklı tetkiki hızla okuyor ve bu, insanın kaldırabileceği sınırın eşiğine yakın. Yapay zeka bütün raporları yazsa bile, bunların hepsini inceleyip imzalamak zorundasın; zaman farkı neredeyse yok. Elbette sadece imza atan sorumsuz bir doktor bulunabilir ama buna dava açmaya hazır bir avukat da bulunur
Tesla 2016'da "sürücü yalnızca hukuki nedenlerle orada oturuyor, hiçbir şey yapmıyor; arabayı kendi kendine sürüyor" diyerek tam otonom sürüş demo videosunu yayımladığında, bunun kamyonculuk sektörünü sonsuza dek değiştireceğini düşünmüş ve sektöre girmeyi yeniden değerlendirmiştim. Ama 2025 kapıdayken bile değişimlerin çoğu ya çok yavaş ilerledi ya da neredeyse hiç olmadı. Teknolojinin dünyayı kökten değiştireceğine dair büyük bir iyimserlik var ama gerçekte değişim çoğu zaman çok yavaş ya da duraklamış oluyor
Makine öğrenimi ve radyolojiyle ilgili en iyi anekdotlardan biri, herkesin COVID enfeksiyonu olan akciğer X-ray görüntülerini yapay zekayla saptamaya çalıştığı dönemdi. Bir araştırma grubu oldukça iyi sonuçlar elde etmişti ama sonra modelin, COVID enfeksiyonunu değil, veri setindeki farklı hastanelerin görüntü filigranlarındaki yazı tipi farklarını öğrendiği ortaya çıktı. İlgili makale: Nature Machine Intelligence makalesi Arama ifadesi: “AI for radiographic COVID-19 detection selects shortcuts over signal” Açık erişimli sürümünü de bulabilirsiniz
Makalenin özü şu üç nokta: 1) modellere daha fazla iş devretmeye çalışırsanız yasal düzenlemeye takılırsınız 2) düzenleyiciler ve sigortacılar otonom modelleri onaylamıyor ya da geri ödeme kapsamına almıyor 3) radyoloğun işinde tanı koyma kısmının payı küçük; hasta ve sağlık çalışanlarıyla iletişim gibi başka işler daha büyük yer tutuyor. Makine öğrenimi modelleri kusursuz ve bedava tanı koysa bile, radyologlar hemen "ikame" edilebilecek bir yapıda değil
Daha bugün bir kadın hastayı radyolojiye core biyopsi için sevk ettim; bir erkek hastayı lomber enjeksiyon için, başka bir hastayı omuz enjeksiyonu için gönderdim; bir ay önce de başka bir kadın hastayı endometriozis embolizasyonu için sevk ettim. Yakında nefrektomi sonrası idrar kaçağı embolizasyonu için de sevk yapacağım. Bunları bir LLM yapabilir mi? Yapay zeka bir beceriyi yaygınlaştırdığında, uzmanlar başka becerilere yönelir ve metalaşan işi devreder. Örneğin ECG yorumlama cihazlara otomatikleştirilince geri ödeme ücretleri çok düştü; ben de bilinçli olarak bu beceriyi geri plana itip beyin ve hareket bozuklukları alanına odaklandım. Bu yüzden bir hastanın ECG yorumu gerekiyorsa onu doğrudan kardiyolojiye gönderiyor, çeşitli ek testler istiyorum. Bu hasta ve sağlık sistemi için ekstra maliyet ve zaman demek ama yapacak bir şey yok. İleride, tıpkı "medical desert" gibi, yapay zeka uzmanlarının çalışmak istemediği alanlar ortaya çıkabilir; özellikle yaşlılar, kırsal bölgeler ve psikiyatri gibi
2016'da Prof. Geoffrey Hinton "artık radyoloji eğitimi durdurulmalı" demişti. Eğer yapay zeka savunucularının bütün iddialarına inansaydık, dünya şimdiye kadar çoktan çökmüş olurdu
Ben hem doktorum hem full-stack mühendisim; bu yüzden radyoloji ya da ek uzmanlık eğitimi yapmak istemiyorum. Yapay zeka önce radyolojiyi güçlendirecek, sonra da bazı işleri kısmen ikame etmeye başlayacak. Mevcut radyologlar da doğal olarak girişimsel radyoloji gibi yeni alanlara kayacak
Bu yıl mayısta New York Times da "yapay zeka radyologların yerini almıyor" temalı benzer bir haber yayımladı: NYT yazısına bakın Doktorların ve Hinton'un sözleri ilginçti. "Yapay zeka yardımcı olacak, nicelleştirecek ama tekniğin yorumlayıcı sonucunu üstlenmeyecek" "5 yıl sonra yapay zeka kullanmamak tıbbi hata sayılabilir" "Ama sonuçta insan ve yapay zeka birlikte gidecek" Hinton da sonradan e-postayla, fazla genelleme yaptığını; yalnızca görüntü yorumlamadan söz ettiğini, yön konusunda haklı olsa da zamanlama tahmininde yanıldığını kabul etti
Radyolojide yapay zeka dönüşümü zorunlu olmalı. Radyoloji bölümleri her gün belli bir oranın üzerinde yapay zeka kullanmalı, üretkenliği iki katına çıkarmalı ve bunu yapmayanlar işten çıkarılmalı. CEO'ların dediği gibi yapay zeka gördüğümüz en dönüştürücü teknoloji, dolayısıyla kaygı duysak da mutlaka benimsemeliyiz. Bunun dışındaki her şey kabul edilemez
Yapay zeka yorum sonuçlarını radyolog olmayan doktora yorumlatmaya güvenmem. Yapay zeka benchmark'larda ne kadar iyi görünürse görünsün, doğrudan analiz edecek altyapı bilginiz yoksa bu, 20 sayfalık bir makaleyi okuyup güvenilir olup olmadığına karar verememeye benzer