Kadija Ferryman , 1, 2, ∗ Nina Cesare , 3 Melissa Creary , 4 ve Elaine O. Nsoesie 5
Sağlık hizmeti YZ’nın ırksal önyargıya karşı savunmasız olduğuna dair artan bir ilgi ve kanıt var. Amerika Birleşik Devletleri’nde ırkçılığa yeniden dikkat çekilmesine rağmen, ırkçılık genellikle etik YZ literatüründen kopuktur. Irkçılığın etik bir sorun olarak ele alınması, güvenilir ve sorumlu sağlık hizmeti YZ’nın geliştirilmesini kolaylaştıracaktır.
Yapay zeka (YZ) araçları sağlık hizmetlerinde giderek daha yaygın bir şekilde kullanılıyor. Bunlar hem randevu takip etme gibi idari görevler hem de tıbbi görüntülerde kanserli dokuyu tanımlama veya sepsis başlangıcını tahmin etme gibi klinik görevler için kullanılıyor. YZ’nin birçok faydalı kullanımı olmasına rağmen, YZ’nin sağlık hizmetlerinde kullanılmasının ırksal önyargı ve cinsiyet önyargısı gibi diğer alanlarda gözlemlenen sorunlara karşı savunmasız olduğuna dair artan bir ilgi ve kanıt var.
YZ’deki önyargı, kavramsallaştırma, tasarım, veri toplama ve işleme, eğitim ve uygulama dahil olmak üzere geliştirme ve uygulama sürecinin farklı aşamalarında ortaya çıkabilir ve genellikle zaten marjinalleştirilmiş gruplar üzerinde zararlı etkilere sahip olabilir.
Bu sorunlara yanıt olarak, yalnızca YZ’nın katkıda bulunduğu sorunlu senaryoları belirlemeye değil, aynı zamanda sağlık hizmetlerinde etik YZ’nın ne olabileceğini tanımlamaya da odaklanıldı. Hem sağlık hizmetlerinde hem de diğer sektörlerde etik YZ’ya olan ilgi, Amerika Birleşik Devletleri’nde ırkçılığa, özellikle de siyahi karşıtı ırkçılığa olan ilginin artmasıyla eş zamanlı olarak gelişti. Ancak, etik YZ’ya olan bu paralel odaklanmaya ve Amerika Birleşik Devletleri’nde ırkçılığa olan yenilenen ilgiye rağmen, sağlık hizmetlerinde ırkçılığı ele almak ve etik YZ geliştirmek büyük ölçüde bağlantısız çabalardır.
Birincisi, bunun kısmen, ırkçılığın biyoetik ve diğer etik söylemlerinde genellikle etik bir sorun olarak çerçevelenmemesinden kaynaklandığını iddia ediyoruz.
İkinci olarak, sağlık hizmetlerinde ırkçılığa etik bir sorun olarak daha fazla dikkat edilmesinin ve tanınmasının, ırkçılığın etik, sorumlu ve güvenilir sağlık YZ’sının geliştirilmesiyle bağlantısını kolaylaştıracağını iddia ediliyor.
Üçüncüsü, ırkçılığı etik bir sorun olarak görmenin, sağlık hizmeti YZ’nın tüm geliştirme yaşam döngüsü boyunca zararlarını en aza indirme ve faydalarını artırma çabalarını daha etkili hale getirebileceğine inanıyoruz.
Irkçılığın değerlendirilmesi sağlık yapay zeka etiğinin merkezinde olmalıdır çünkü ırkçılık bir adaletsizliktir ve adalet genel olarak ahlaki felsefede ve özel olarak biyoetikte merkezi bir konudur.
Son zamanlarda, ABD’de kolluk kuvvetleri tarafından siyahi bireylerin öldürülmesine artan ilgiye yanıt olarak, biyoetik bilim insanları ırkçılığa bir adalet ve biyoetik sorunu olarak daha fazla odaklanılması çağrısında bulundular, çünkü ırkçılığın siyahi insanların ve diğer ırksal olarak ezilen insanların sağlığı ve refahı üzerinde derin etkileri vardır. ABD’deki Siyah ve Kahverengi topluluklarda orantısız COVID-19 insidansı, komplikasyonları ve ölüm oranları, Hastalık Kontrol ve Önleme Merkezlerini ırkçılığı halk sağlığı için bir tehdit olarak adlandırmaya yöneltti, ancak bilim insanları bunu yıllardır savunuyor. Obermeyer’in ek sağlık kaynakları için daha hasta Siyah hastalar yerine daha sağlıklı Beyaz hastaları tercih eden bir sağlık algoritmasına ilişkin yaygın olarak alıntılanan örneği, algoritmik önyargının bir örneği olarak gösterildi.
Ancak ırkçılık etik bir sorun olarak görüldüğünde, bu aynı örnek sadece “önyargı”dan daha fazlasıdır, aynı zamanda ırksal adaletsizlik vakasıdır. Bu sağlık algoritmasının verileri, Siyah hastaların daha kötü sağlık durumlarına rağmen daha düşük sağlık harcamalarının adaletsizliğine maruz kaldığını ve ardından algoritmanın sağlık kaynağı ihtiyaçlarını önceliksizleştirerek bunu daha da kötüleştirdiğini göstermektedir.
Ek olarak, ırkçılık gizlilik ve rıza gibi diğer daha bilindik etik konularla birlikte ele alındığında, güvenilir veya sorumlu yapay zeka hakkındaki tartışmalarda dikkate alınması gereken ek boyutlar ekler.
Örneğin, sağlık yapay zekasını daha güvenilir ve sorumlu hale getirme konusundaki artan ilgi nedeniyle, şeffaflık, gizlilik ve güvenlik gibi konuların dikkate alınması önemlidir. Ancak, ırkçılığın güvenilirlikle birlikte ele alınması, yapısal ırkçılığın ve/veya kişilerarası ırkçılığın algoritmaları daha güvenilir hale getirme çabalarını nasıl etkileyebileceği konusunda ek sorgulamalara yol açacaktır. Örneğin, etik, güvenilir ve sorumlu yapay zekanın gelişimini şekillendirmeye yardımcı olmak için çeşitli paydaşları bir araya getirmenin önemi hakkında bazı literatürler bulunmaktadır.
Yapay zekanın, sağlık hizmetlerinde kullanıldığında da dahil olmak üzere, zararlarına dikkat çekmek önemlidir. Ancak, önyargılı sağlık hizmetlerinin tehlikelerine odaklanmak, genellikle daha iyi veriler elde edilerek çözülebilecek büyük ölçüde teknik bir sorun olarak çerçevelenir. Ancak, yapay zeka önyargısı sosyoteknik süreçlerin bir sonucudur ve tamamen teknik düzeltmeler yeterli olmayacaktır. “Irkçılığın sıradanlığını” tanımak önemlidir. ” Yani, ırkçılığın yokluğu değil, her yerde bulunması, toplumun normal durumunu karakterize eder ve her zaman algılanabilir değildir.
Bu sıradanlık, yapay zeka gibi bir teknolojinin içine yerleştirilmiştir. Son zamanlarda, Beyaz Saray’ın Bilim ve Teknoloji Politikası Ofisi, algoritmik ayrımcılığı, basitçe yapay zeka önyargısı yerine, ele alınması gereken temel sorun olarak adlandıran bir Yapay Zeka Hakları Bildirgesi için Plan’ı yayınladı. Bu dikkat çekicidir çünkü algoritmik ayrımcılık terimi, algoritmik önyargıdan kaynaklanan sosyal zararlara dikkatimizi çeker. Genellikle bu zararlar, ırkçılık gibi halihazırda var olan sosyal dışlanma ve marjinalleşme biçimleriyle paraleldir. Sağlık AI’daki etiğe odaklanan birçok yayın önyargıya odaklansa da, özellikle teknik uzmanlığa ayrıcalık tanıyan ve matematiksel adalet çözümlerinin ihtiyaç duyulan tek şey olduğu anlamına gelen ırkçılıktan nadiren bahsederler. Irkçılığın sağlık YZ’da etik bir sorun olarak görülmesi gerektiğine inanıyoruz çünkü ırkçılığı özellikle ortaya çıkarmak ve ona odaklanmak, ırkçılığın sadece algoritmik önyargıyı değil, etik sağlık YZ’nın diğer yönlerini nasıl etkileyebileceğini gösterme fırsatı sunar. YZ’daki ırkçılığı ortaya çıkarmak, önyargılı verileri etkileyen sağlık hizmetlerine erişim, tarama, test ve tedavi farklılıkları gibi tarihi ve güncel ırksal sağlık eşitsizliklerine odaklanabilir. YZ’daki ırkçılığa etik bir sorun olarak odaklanmak, değerlendirme çerçevesine ek ve önemli faktörler getirir ve tıbbi YZ çalışmalarını ilerletmekle ilgilenen sağlayıcıları, fon sağlayıcıları ve diğer analitik olmayan uzmanları sohbete dahil etme fırsatları açar.
Yapay zeka sağlık etiği üzerine yazmanın yalnızca “ırkçılık” terimini içermesiyle başlamasını önermiyoruz. Bunun yerine, sağlık yapay zekası ve etiği üzerine yapılan araştırmaların eğitim verilerinin nasıl önyargılı hale geldiğine dair açıklamalar içermesini istiyoruz. Başka bir deyişle, araştırma ırkçılığın sosyal dünyamızda ve özellikle sağlık hizmetlerinde nasıl gerçekleştiğini ve bu uygulamaların sağlık yapay zekası için kullanılan verilere nasıl yansıdığını açıklamalıdır. Örneğin, ırkçılık sağlık ve kamu sağlığı sistemlerine farklı şekillerde yerleşmiştir; ırk temelli klinik algoritmalardan klinik etkileşimlere kadar, sağlık ortamlarında kaydedilen verileri etkiler. Bu tür bir araştırma, yapay zeka geliştirme kararlarına her zaman dahil olmayan sosyal bilimciler, biyoetikçiler ve tarihçiler de dahil olmak üzere çeşitli bilim insanlarından uzmanlık gerektirir. Bu tür bir araştırma geliştirmek, ırkçılık karşıtlığı, eşitlik ve adalet çerçevelerine dayalı yeni ampirik yaklaşımlar ve uygulamalar da gerektirebilir. Daha eşitlikçi sağlık yapay zekası algoritmaları oluşturmakla ilgilenen fon sağlayıcılar, yapay zeka geliştirme sürecindeki ırksal önyargıyı anlamaya ve düzeltmeye odaklanan disiplinler arası girişimlere de yatırım yapmalıdır.
Sağlık YZ etiği literatüründe ırkçılık hakkında daha ayrıntılı tartışmalar, ırkçılığın klinik bakımı etkileme biçimleri hakkında daha fazla ayrıntı da içerecektir. Ayrıca, sağlık YZ etiğinin yapısal ırkçılık ile bireysel ırkçı uygulamalar ve/veya inançlar arasında daha net ayrımlar içermesini ve bunların yaşam döngüsü boyunca sağlık YZ’yı nasıl etkileyebileceğini (veri kümesi oluşturmadan tasarıma ve geliştirmeye ve uygulamaya) savunuyoruz. Ayrıca, ırkçılığın gruplar arasında nasıl farklı işlediğine dair sağlık YZ literatüründe daha derinlemesine tartışmalar yapılmasını savunuyoruz, örneğin, siyahi karşıtı ırkçılığın diğer ırkçılık türlerinden nasıl farklı olabileceğini tartışarak ve kesişimselliğin nüansını anlayarak.
Son olarak, yakın tarihli bir yorumda, meslektaşlarımız bilişim alanının kurumsal, sistemik ve yapısal ırkçılığı tanıması gereken farklı yolları ele aldılar ve dijital biçimlerdeki ırkçılığı azaltmak ve ortadan kaldırmak için Halk Sağlığı Kritik Irk Uygulaması’nın (PHCRP) kullanımını önerdiler. Bu argümanı, sağlık hizmeti YZetiği alanının aynı zamanda ırkçılık karşıtlığı tartışmalarıyla da zenginleştirileceğini belirterek genişletiyoruz. Bilinçli ırkçılık karşıtı çabalar, sağlık hizmeti AI gelişimi ve yönetimi için yeni sosyoteknik uygulamaları hızlandırabilir. Irkçılık karşıtlığı, “kurumsal ve sosyal olduğu kadar tutumsal ve davranışsal boyutları da olan ırkçılığı ortadan kaldırmaya yönelik bir taahhüt” olarak tanımlanmaktadır. Irkçılık karşıtlığına odaklanarak, sağlık hizmetlerinde AI’yı ele alan literatür, tıbbi bakımda ırkçı fikirleri ve eylemleri sürdüren politikaları ve uygulamaları bağlamlandırmaya ve daha derin bir anlayış sağlamaya yardımcı olabilir. Hızla gelişen yapay zeka uygulaması, bilişimcilere, akademisyenlere ve araştırmacılara etik ve ırkçılık karşıtlığına yönelik kesişimsel bir yaklaşımı anlamlı bir şekilde benimseyen ve alan normlarını ve standartlarını eleştirel bir şekilde yansıtan çerçeveler oluşturma fırsatı sunuyor. Bu konuşmalar, ırkçı teşhislerin veya klinik etkileşimlerin tanınmasıyla ortaya çıkan sorular için ileriye yönelik yönlendirmeler sağlıyor ve tıpta yapay zekanın eşit kullanımını iyileştirmek için yapısal değişiklikler hakkında konuşmayı hızlandırabilir. Ek olarak, geliştiricilerin, fon sağlayıcıların ve tıbbi yapay zekayı ilerletmeye kendini adamış diğerlerinin, ırkçılığın çalışmalarının kaynaklarını ve sonuçlarını nasıl şekillendirebileceğini ele almada şeffaf olmalarını sağlayan prosedürel standartlar için temel oluşturabilirler.
Gelecekteki yapay zeka sağlık etiği çerçevelerinin (1) sistemik ve bireysel ırkçılığın önyargılı veri ve algoritmalar yarattığını açıkça tartışmasını, (2) etkili olduğu kanıtlanmış yaklaşımlara dayanan ırksal önyargıyı ele alan çözümleri tartışmasını, (3) önerilen etik çerçevelerin ırksal eşitsizliklerden etkilenen topluluklara veya bireylere nasıl fayda sağlayabileceğini tartışmasını ve (4) kasıtlı olarak ırkçılık karşıtı etik önerilerde bulunmasını öneriyoruz.
1 Johns Hopkins Berman Biyoetik Enstitüsü, Johns Hopkins Üniversitesi, Baltimore, MD, ABD
2 Sağlık Politikası ve Yönetimi Departmanı, Johns Hopkins Bloomberg Halk Sağlığı Okulu, Johns Hopkins Üniversitesi, Baltimore, MD 21205, ABD
3 Biyoistatistik ve Epidemiyoloji Analitik Merkezi, Boston Üniversitesi Halk Sağlığı Okulu, Boston, MA, ABD
4 Sağlık Yönetimi ve Politikası Bölümü, Halk Sağlığı Okulu, Michigan Üniversitesi, Ann Arbor, MI, ABD
5 Küresel Sağlık Departmanı, Boston Üniversitesi Halk Sağlığı Okulu, Boston, MA, ABD
Not 1: Yazıya ilişkin referanslar orijinal metinden elde edilebilir.
Not 2: Bu yazı DeepL algoritması ile tercüme edilip daha sonra revize edilmiştir.
Yapay Zeka Hakları Bildirgesi için Plana ulaşmak için aşağıdaki linki tıklayınız.
https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf