Büyük teknoloji, hastalıkları teşhis etmenize, ilaç yazmanıza ve tıbbi geçmişinizi takip etmenize yardımcı olacak uygulamaları hızla piyasaya sürüyor; ancak bir algoritma doktorunuzun yerini alabilir mi?
MILES KLEE, 18 Nisan 2024
Yapay zeka teknolojisi her sektöre sızdı ve sağlık hizmetleri de bir istisna değil. Artık tıbbi geçmişinizi izleyen, bir selfie ile kan basıncınızı ölçmeyi ve sesinizden depresyon veya anksiyete belirtilerini tespit etmeyi amaçlayan bir uygulama olan Together by Renee’ye sahibiz . Oxford Üniversitesi’nde geliştirilen DrugGPT , doktorların ilaçları reçete etmelerine ve hastaları ne aldıkları konusunda bilgilendirmelerine yardımcı olmak için tasarlanmış bir araçtır. “Biyolojik yaşı azaltmayı” vaat eden üretken bir yapay zeka “sağlık koçu” olan Humanity’i indirebilirsiniz ve Google, bir hastaya öksürük sesine dayanarak potansiyel olarak teşhis koyabilecek bir makine öğrenimi modeli üzerinde çalışıyor .
Ancak bu uygulamaların potansiyel sonuçları , bir şarkı oluşturmak için yapay zekayı kullandığınızda olabileceklerden biraz farklıdır. En net ifadeyle söylemek gerekirse: Hayatlar risk altında. Sağlık ve teknoloji alanlarındaki uzmanlar da, bu yeniliklerin kamu yararına hizmet edip edemeyeceği konusunda gerçek şüpheleri olduğunu söylüyor.
Avustralya Gizlilik Vakfı’nın sağlık komitesi başkanı olarak görev yapan deneyimli sistem mühendisi Bernard Robertson-Dunn’a göre önemli sorunlardan biri, geliştiricilerin hasta bilgilerini en başından beri tamamen yanlış ele almış olmalarıdır. Onlarca yıl önce tıbbi kayıtların dijitalleştirilmesine yönelik “büyük bir baskı” olduğunu ancak teknoloji uzmanlarının bu verilerin “finansal işlem verileri gibi” olduğunu düşünmesi nedeniyle bu devrimin vaatlerinin suya düştüğünü söylüyor.
Robertson-Dunn, “Değiller” diyor. “Finansal işlem verileri gerçektir ve mevcut bir işlemin anlamı zamanla değişmez. Eğer banka hesabınıza baktığınızda ortada hiçbir sebep yokken değişmediğini görürsünüz.” Bu arada sağlık verileri “sizin ve nedenini bilmeden günden güne değişebilir. Bugün Kovid’e , HIV’e, soğuk algınlığına yakalanabilir veya kalp krizi geçirebilirsiniz; bu da dün kaydedilen sağlık kayıt verilerinizin çoğunu geçersiz kılar” diyor Robertson-Dunn. Ona göre, elektronik sağlık kayıtlarına yönelik eski çılgınlık, “çok daha büyük bir sorun olan” yapay zeka patlamasına da taşındı.
New York Üniversitesi Sorumlu Yapay Zeka Merkezi’ni yöneten bilgisayar bilimcisi Julia Stoyanovich, “Asla teknolojinin zararlı olduğunu ya da onu kullanmamamız gerektiğini söylemeyeceğim” diyor. “Fakat bu özel durumda şüpheci olduğumu söylemeliyim, çünkü gördüğümüz şey insanların üretken yapay zekayı her türlü uygulama için kullanmak için acele ettiği, çünkü bu var ve harika görünüyor ve rakipler bunu kullanıyor.” Yapay zekanın “insanların imkansızı başaracak bir şeyin var olduğuna gerçekten inanmak istedikleri abartılı ve büyülü düşünceden” ortaya çıktığını görüyor.
Stoyanovich ve Robertson-Dunn, yapay zekalı sağlık araçlarının şu anda bir tıbbi cihazı piyasaya sürmek için gerekli olan klinik deneylerden ve düzenlemelerden kaçtığını belirtiyor. Stoyanovich bunu mümkün kılan bir “boşluk”tan bahsediyor.
“Aslında size ilaç yazacak olan algoritma (araç) değildir. İşte bu nedenle bu algoritmalar tıbbi alanda olması beklenen bir incelemeden kaçıyor.”
“Ama yine de sorunlu, değil mi?” Stoyanovich ekliyor. “Çünkü insanların (doktorların da istisna olmadığını) bu araçlara çok fazla güveneceğini biliyoruz. Çünkü bir araç size kesin görünen bir yanıt verirse, o zaman bir insan şöyle diyecektir: ‘Peki, ben kimim ki bunu sorgulayacağım?’” Daha da kötüsü, bir botun Science veya the Science gibi bir dergideki bir makaleden alıntı yapabileceğini söylüyor. Lancet, araştırma doğrudan çelişse bile bu sonucu destekleyecektir.
Boston Üniversitesi Halk Sağlığı Okulu’nda teknolojinin sağlık eşitliğini nasıl geliştirebileceğini araştıran veri bilimci Elaine O. Nsoesie, bir hastanın semptomlarını değerlendirirken teşhis amaçlı bir yapay zeka modelinin eksik olabileceğini açıklıyor. Bu araçlar “temel olarak tüm bu bilgileri öğreniyor ve sonra bunları size geri veriyorlar; içerikten ve nüanslardan yoksun” diyor.
Nsoesie’ye göre yapay zeka aynı zamanda kadınları, beyaz olmayan insanları, LGBTQ hastalarını ve diğer dezavantajlı grupları olumsuz yönde etkileyen sistemik sağlık eşitsizliklerini çoğaltabilir veya şiddetlendirebilir . “Algoritmaların yapmanız gerekeni yapmadığını gördüğünüzde sorun genellikle verilerde başlıyor” diyor. “Verilere baktığınızda ya belli grupların temsil edilmediğini ya da adil bir şekilde temsil edilmediğini görmeye başlıyorsunuz. Yani önyargılar var, belki [modellere] bağlı stereotipler var, ırkçılık ya da cinsiyetçilik var.”
Yine de Nsoesie ve diğerleri, yapay zekanın halk sağlığına fayda sağlayabileceği konusunda temkinli bir iyimserlik içindeler; ancak belki de şirketlerin şu anda takip ettiği şekillerde değil. Yapay Zeka Güvenliği Merkezi’nden Nate Sharadin, “Doğrudan hasta bakımı için çeşitli yapay zeka türlerinin kullanılması söz konusu olduğunda uygulamanın ayrıntıları çok önemli olacak” diyor. “Doktorların çeşitli yapay zeka araçlarını hastalarıyla yüz yüze geçirmek için zaman ayıracak şekilde kullandığını hayal etmek kolaydır. Transkripsiyon akla geliyor, ancak tıbbi kayıtların özetlenmesi ve ilk alım da aynı şekilde. Doktorlar, hastalarıyla anlamlı zaman geçirememenin onlarca yıldır bir sorun olduğunu ve bunun meslek genelinde tükenmişliğe yol açtığını, bunun da elbette Covid-19 tarafından daha da kötüleştirildiğini belirtiyorlar.”
Ancak Sharadin, “kâr amaçlı özel uzun vadeli bakım tesislerinin yapay zeka ile işleri otomatikleştirmeye çalışarak personelin yükünü hafifletmesi” veya “yararsız takviyelerin yapay zeka eşdeğerini satan şarlatanlar” gibi potansiyel riskleri de görüyor. Bir örnek olarak Together uygulamasını tanımlıyor. “SpO2’yi [kandaki oksijen seviyelerini] bir selfie ile doğru bir şekilde tespit etmelerinin kesinlikle hiçbir yolu yok” diyor. “Eminim onlar ve diğer işletmeler, ürünlerinin herhangi bir hastalığı teşhis etme veya tedavi etme amacı taşımadığını belirtmek konusunda dikkatli olacaklardır. Bu, insanların aslında ihtiyaç duymadığı ve aslında işe yaramayan bir şeyi satmak için kullanılan tipik FDA uyumlu etikettir.”
Stoyanovich, bu teknolojiden tam olarak ne istediğimiz veya “bu araçların tıp alanında hangi boşluğu dolduracağını umduğumuz” konusunda iyice düşünmemiz gerektiği konusunda Sharadin ile aynı fikirde. “Bunlar oyun değil. Bu, insanların sağlığı ve insanların tıbbi sisteme olan güvenidir.” Bu açıdan en büyük güvenlik açığı sağlık verilerinizin gizliliğidir. Stoyanovich, Google’ın öksürük analiz aracı gibi yapay zeka modellerinin güvenilir bir şekilde çalışıp çalışmadığını, bunların “bizden çok fazla bilgi emdiğini” ve tıbbi verilerin özellikle hassas olduğunu söylüyor. Sağlık sigortası şirketlerinin, bu tür uygulamalar tarafından elde edilen bilgilere dayanarak müşteriler için primleri sistematik olarak artıracağı bir gelecek hayal ediyor. Stoyanovich, durumu işe alım ve istihdamda yapay zekanın “sorumsuz” ve “keyfi” kullanımıyla karşılaştırarak, “Bu verileri daha sonra insanların tıbbi bakıma erişimini etkileyecek kararlar vermek için kullanacaklar” diye öngörüyor. “Tarihsel olarak dezavantajlı durumda olan insanları dezavantajlı hale getiriyor.”
Stoyanovich, birkaç umut verici sonuç nedeniyle klinik ortamda yapay zeka modellerinin etkinliğini abartmanın bizi tehlikeli bir yola sürükleyeceğinden de endişe ediyor. Stoyanovich, “Diyelim ki ChatGPT’nin birçok doktorun gözden kaçırdığı ve doğru teşhis koyamadığı bir durumu teşhis edebildiğine dair belirli vakaların bildirilmesinden büyük bir heyecan gördük” diyor. “Bu da artık ChatGPT’nin bir doktor olduğuna inanmamızı sağlıyor. Ancak birinin iyi bir doktor olup olmadığına karar verdiğimizde, kaç vakasının doğru olduğuna bakmayız. Kaç vakada hata yaptıklarına bakıyoruz . En azından bu makineleri benzer bir standartta tutmalıyız, ancak belirli bir zor vakayı teşhis eden bir doktordan etkilenmek aptalca. Aslında her durumda işe yarayan sağlam bir değerlendirmeye ihtiyacımız var.”
Rolling Stone’a konuşan teknoloji ve sağlık uzmanları, tıp uzmanlarının yapay zeka modellerinin çıktılarını iki kez kontrol etmesinin sağlık hizmetlerine bir sıkıcılık ve verimsizlik kattığı konusunda büyük ölçüde hemfikir. Robertson-Dunn, X-ışınlarının veya MRI taramalarının okunmasını içeren patoloji testleri durumunda, “nitelikli bir doktorun her birinin teşhisini değerlendirebileceğini, ancak bunun yüksek vasıflı bir pratisyenin işini çok zorlu bir iş haline getirdiğini” söylüyor. sıkıcı, ruhu yok eden, mekanik bir rutin.”
Ve Nsoesie’nin gözlemlediği gibi belki de yapay zekanın sağlık hizmetlerinde ortaya çıkardığı fırsatı tamamen yeniden çerçeveleyebiliriz. Bireylerin biyolojik niteliklerini makinelerle ölçmeye çalışmak yerine, bu modelleri tüm bölgeler ve topluluklar hakkında bir şeyler öğrenmek için kullanabiliriz. Nsoesie, Afrika’daki yapay zeka hareketinin, sağlığı etkileyen hava kirliliğini izlemek için yapay zekayı kullanmayı da içeren umut verici çözümler bulduğunu söylüyor. “Bu verileri toplayıp işleyebilmek ve politika oluşturmak için kullanabilmek oldukça önemli” diyor.
Nsoesie, halk sağlığı söz konusu olduğunda odak noktasının “sadece semptomlarını düzeltmek yerine hastalıkların ve sağlıkta eşitsizliklerin temel nedenlerini ele almak” olması gerektiğini söylüyor. Ona göre, bu koşullara sahip insanları hedef alan bir uygulama tasarlamak yerine, neden “diyabet veya kanser oranlarının daha yüksek olduğu belirli popülasyonlara” sahip olduğumuza dair soruları yanıtlamak için yapay zeka teknolojisinden yararlanmak daha iyi olacaktır. İdeal çözümlerin, hastalarla ve onlara hizmet veren klinisyenlerle konuşmayı, onların gerçekten neye ihtiyaç duyduklarını bulmayı ve onların girdilerinin gelişim sürecine rehberlik etmesine izin vermeyi gerektirdiğini ekliyor. Nsoesie, uygulama geliştiricilerinin genellikle bu araştırmayı yapmadığını veya geri bildirim istemediğini söylüyor.
“Bu sadece daha etkili” diye bitiriyor. “Fakat bu aslında para yerine insanlara öncelik vermenizi gerektiriyor.”
Not: Bu makalenin tercümesi DeepL algoritması ile yapılmış ve daha sonra revize edilmiştir.