Önyargılı AI sağlığınız için kötü olabilir

 


Yapay zeka, doktorların doğru teşhis ve tedavi kararları vermesine yardımcı olarak insan sağlığını iyileştirme konusunda büyük umut vaat ediyor. Ayrıca azınlıklara, kadınlara ve ekonomik açıdan dezavantajlı insanlara zarar verebilecek ayrımcılığa da yol açabilir.


Önyargılı AI sağlığınız için kötü olabilir



Soru şu ki, sağlık hizmeti algoritmaları ayrımcılık yaptığında, insanların ne gibi bir başvuruları var?


Bu tür ayrımcılığın öne çıkan bir örneği, kronik hastalığı olan hastaları yüksek riskli hastalara bakan programlara yönlendirmek için kullanılan bir algoritmadır. 2019'da yapılan bir araştırma, bu faydalı hizmetler için hasta seçiminde algoritmanın beyazları daha hasta Afrikalı Amerikalılara tercih ettiğini buldu. Bunun nedeni , tıbbi ihtiyaçlar için bir vekil olarak geçmiş tıbbi harcamaları kullanmasıdır .


Yoksulluk ve sağlık hizmetlerine erişimdeki güçlükler, genellikle Afrikalı Amerikalıların sağlık hizmetlerine diğerleri kadar para harcamasını engellemektedir. Algoritma, düşük harcamalarını sağlıklı olduklarını belirterek yanlış yorumladı ve onları kritik olarak ihtiyaç duyulan destekten mahrum etti.


Bir hukuk ve biyoetik profesörü olarak , bu sorunu analiz ettim ve çözmenin yollarını belirledim.


Algoritmalar nasıl ayrımcılık yapar?


Algoritmik önyargıyı ne açıklar? Tarihsel ayrımcılık bazen eğitim verilerine gömülüdür ve algoritmalar mevcut ayrımcılığı sürdürmeyi öğrenir.


Örneğin, doktorlar genellikle erkeklerin kadınlardan daha sık yaşadığı semptomlara dayanarak anjina ve kalp krizlerini teşhis eder . Sonuç olarak, kadınlara kalp hastalığı teşhisi konulmamaktadır. Doktorların kardiyak rahatsızlıkları tespit etmelerine yardımcı olmak için tasarlanmış ve tarihsel teşhis verileriyle eğitilmiş bir algoritma, kadınlara değil, erkeklere ait semptomlara odaklanmayı öğrenebilir ve bu da kadınların yetersiz teşhis edilmesi sorununu şiddetlendirebilir.


Ayrıca, AI ayrımcılığı, yüksek riskli bakım programı algoritmasında olduğu gibi hatalı varsayımlardan kaynaklanabilir .


Başka bir örnekte, elektronik sağlık kayıtları yazılım şirketi Epic , tıp ofislerinin randevuları kaçırması muhtemel hastaları belirlemesine yardımcı olmak için yapay zeka tabanlı bir araç geliştirdi . Klinisyenlerin, gelir kaybından kaçınmak için potansiyel kullanılmayan ziyaretleri iki kez rezerve etmelerini sağladı. Randevuya gelmeme olasılığını değerlendirmek için birincil değişken önceki kaçırılan randevular olduğundan, AI orantısız bir şekilde ekonomik olarak dezavantajlı insanları belirledi.


Bunlar genellikle ulaşım, çocuk bakımı ve işten izin alma ile ilgili sorunlar yaşayan kişilerdir. Randevulara vardıklarında, doktorların çifte rezervasyon nedeniyle onlarla daha az zamanları vardı.


Bazı algoritmalar açıkça yarışa göre ayarlanır . Geliştiricileri klinik verileri gözden geçirdi ve genel olarak, Afrikalı Amerikalıların diğerlerinden farklı sağlık riskleri ve sonuçları olduğu sonucuna vardı, bu nedenle algoritmaları daha doğru hale getirmek amacıyla algoritmalarda ayarlamalar yaptılar.


Ancak bu ayarlamaların dayandığı veriler genellikle güncelliğini yitirmiş, şüpheli veya taraflıdır . Bu algoritmalar, doktorların siyahi hastalara yanlış teşhis koymasına ve kaynakları onlardan uzaklaştırmasına neden olabilir.


Örneğin, 0 ile 100 arasında değişen Amerikan Kalp Derneği kalp yetmezliği risk skoru, Siyahi olmayanlar için 3 puan ekler. Bu nedenle, siyahi olmayan hastaları kalp hastalığından ölme olasılığı daha yüksek olarak tanımlar. Benzer şekilde, bir böbrek taşı algoritması, Siyah olmayanlara 13 puandan 3'ünü ekler ve böylece onların böbrek taşı olma olasılığının daha yüksek olduğunu değerlendirir. Ancak her iki durumda da varsayımlar yanlıştı . Bunlar, AI sistemlerine dahil edilmesi gerekmeyen basit algoritmalar olsa da, AI geliştiricileri bazen algoritmalarını geliştirirken benzer varsayımlarda bulunurlar.


Irk için ayarlanan algoritmalar yanlış genellemelere dayanabilir ve doktorları yanlış yönlendirebilir. Ten rengi tek başına farklı sağlık risklerini veya sonuçlarını açıklamaz. Bunun yerine, farklılıklar genellikle genetik veya sosyoekonomik faktörlere atfedilebilir , bu da algoritmaların ayarlanması gereken şeydir.


Ayrıca, nüfusun yaklaşık %7'si karışık soydan gelmektedir. Algoritmalar Afrikalı Amerikalılar ve Siyahi olmayanlar için farklı tedaviler öneriyorsa, doktorlar çok ırklı hastaları nasıl tedavi etmelidir?


Algoritmik adaleti teşvik etmek


Algoritmik önyargıyı ele almanın birkaç yolu vardır: dava, düzenleme, mevzuat ve en iyi uygulamalar.


Farklı etki davaları: Algoritmik önyargı, kasıtlı ayrımcılık teşkil etmez. AI geliştiricileri ve AI kullanan doktorlar muhtemelen hastalara zarar vermek anlamına gelmez. Bunun yerine yapay zeka , azınlıklar veya kadınlar üzerinde farklı bir etki yaratarak onları istemeden ayrımcılık yapmaya yönlendirebilir . İstihdam ve barınma alanlarında, ayrımcılığa maruz kaldığını hisseden kişiler, farklı etki ayrımcılığı için dava açabilir. Ancak mahkemeler, özel tarafların sağlık hizmetlerinde farklı etkiler için dava açamayacağını belirledi. AI çağında, bu yaklaşım pek mantıklı değil. Davacıların kasıtsız ayrımcılığa yol açan tıbbi uygulamalar için dava açmasına izin verilmelidir.


FDA düzenlemesi: Gıda ve İlaç İdaresi, sağlıkla ilgili yapay zekanın nasıl düzenleneceğini araştırıyor. Şu anda bazı AI biçimlerini düzenlemektedir, diğerlerini düzenlememektedir. FDA'nın AI'yı denetlediği ölçüde, AI sistemleri onay almadan önce önyargı ve ayrımcılık sorunlarının tespit edilmesini ve ele alınmasını sağlamalıdır.


Algoritmik Sorumluluk Yasası: 2019'da Senatörler Cory Booker ve Ron Wyden ve Temsilci Yvette D. Clarke, Algoritmik Sorumluluk Yasasını uygulamaya koydu . Kısmen, şirketlerin kullandıkları algoritmaları incelemelerini, önyargıları belirlemelerini ve keşfettikleri sorunları düzeltmelerini gerektirecekti. Tasarı yasalaşmadı, ancak daha başarılı olabilecek gelecekteki yasaların yolunu açtı.


Daha adil AI'lar yapın: Tıbbi AI geliştiricileri ve kullanıcıları, algoritmik adalete öncelik verebilir. Tıbbi yapay zeka sistemlerinin tasarlanması, doğrulanması ve uygulanmasında kilit bir unsur olmalı ve sağlık hizmeti sağlayıcıları bu sistemleri seçerken ve kullanırken bunu akılda tutmalıdır.


AI sağlık hizmetlerinde daha yaygın hale geliyor. AI ayrımcılığı, birçok hastaya zarar verebilecek ciddi bir sorundur ve bunu tanımak ve ele almak teknoloji ve sağlık alanlarındaki kişilerin sorumluluğundadır.


Yorum Gönder

Daha yeni Daha eski