Sağlık Hizmeti Yapay Zekasının Eşitlik Sorunu

Nov 16 2021
Veri Eşitliği Neden Adaletten Daha Fazlasıdır?
Şu anda bazılarının yapay zekanın “vahşi batısı” dediği şeyin ortasındayız. Sağlık bakımı en sıkı şekilde düzenlenen sektörlerden biri olmasına rağmen, bu alandaki yapay zekanın düzenlenmesi hala emekleme aşamasındadır.
Unsplash'ta Todd'dan görüntü

Şu anda bazılarının yapay zekanın “vahşi batısı” dediği şeyin ortasındayız. Sağlık bakımı en sıkı şekilde düzenlenen sektörlerden biri olmasına rağmen, bu alandaki yapay zekanın düzenlenmesi hala emekleme aşamasındadır. Biz konuşurken kurallar yazılıyor . Bu teknolojilerin sunduğu avantajlardan nasıl yararlanacağımızı öğrenirken, zaten dağıtıldıktan sonra olası zararları en aza indirmeyi öğrenerek yakalama oynuyoruz .

Sağlık hizmetlerindeki yapay zeka sistemleri mevcut eşitsizlikleri şiddetlendiriyor. Bunun Amerikan adalet sistemindeki ırksal önyargılardan ve kredi puanlamasından özgeçmiş tarama uygulamalarındaki cinsiyet önyargısına kadar gerçek dünyadaki sonuçlara yansıdığını gördük . Makine 'nesnelliğini' ve sistemlerimize kolaylık getirmek için tasarlanmış programlar, hiçbir şekilde hesap verebilirlik olmaksızın önyargıları yeniden üretir ve destekler.

Algoritmanın kendisi nadiren problemdir. Endişelenmeyi hak eden, genellikle teknolojiyi programlamak için kullanılan verilerdir. Ancak bu, etik ve adaletten çok daha fazlasıdır. Sağlık hizmetinin tüm resmini dikkate alan yapay zeka araçları oluşturmak, işe yarayan çözümler yaratmanın temelidir.

Algoritma Sadece Veri Kadar İyidir

Kendi insan sistemlerimizin doğası gereği, veri kümeleri neredeyse her zaman kısmidir ve nadiren adildir. Linda Nordling'in bir Nature makalesinde yorumladığı gibi, Sağlık alanında yapay zeka için daha adil bir yol , "bu devrim, bu araçların öğrenebileceği mevcut verilere bağlıdır ve bu veriler bugün gördüğümüz eşitsiz sağlık sistemini yansıtmaktadır."

Örneğin, ABD acil servislerindeki Siyahların ağrı kesici ilaç alma olasılığının beyaz insanlara göre %40, Hispanik hastaların ise %25 daha az olduğu bulgusunu ele alalım . Şimdi, bu bulguların dayandığı veri setinin, hemşirelerin ağrı kesici ilaç uygulamalarının gerekip gerekmediğini belirlemelerine yardımcı olacak bir AI aracı için bir algoritma eğitmek için kullanıldığını hayal edin. Bu ırksal farklılıklar yeniden üretilecek ve onları destekleyen örtük önyargılar sorgulanmadan kalacak ve daha da kötüsü otomatik hale gelecekti.

Eğitimde önyargıya neden olduğuna inandığımız verileri kaldırarak bu önyargıları iyileştirmeye çalışabiliriz, ancak yine de demografik verilerle ilişkili gizli kalıplar olacaktır . Bir algoritma tam resmin nüanslarını alamaz. Yalnızca kendisine sunulan verilerdeki kalıplardan öğrenebilir.

Önyargı Sürünmesi

Veri yanlılığı sağlık hizmetlerine beklenmedik şekillerde sızıyor. Yeni ağrı kesici ilaçları keşfetmek ve test etmek için dünya çapındaki laboratuvarlarda kullanılan hayvan modellerinin neredeyse tamamen erkek olduğu gerçeğini göz önünde bulundurun . Sonuç olarak, ağrı kesici ilaçlar da dahil olmak üzere birçok ilaç, kadınlar için optimize edilmemiştir. Bu nedenle, ibuprofen ve naproksen gibi yaygın ağrı kesici ilaçların bile erkeklerde kadınlardan daha etkili olduğunun kanıtlanması ve kadınların ağrı kesici ilaçlardan erkeklerden daha kötü yan etkiler yaşama eğiliminde olmaları mantıklıdır .

Gerçekte, erkek kemirgenler de mükemmel test denekleri değildir. Araştırmalar ayrıca hem dişi hem de erkek kemirgenlerin ağrı seviyelerine tepkilerinin, mevcut insan araştırmacının cinsiyetine bağlı olarak farklılık gösterdiğini göstermiştir. Tek bir erkek araştırmacının koku alma varlığına kemirgenlerde ortaya çıkan stres tepkisi, onların ağrıya tepkilerini değiştirmek için yeterlidir .

Bu örnek yapay zekadan ayrılıyor gibi görünse de, aslında derinden bağlantılıdır - erişimimiz olan mevcut tedavi seçenekleri, tedaviler klinik deneylere girmeden önce dolaylı olarak önyargılıydı. AI eşitliğinin zorluğu tamamen teknik bir sorun değil, bilim adamları olarak yaptığımız seçimlerle başlayan çok insani bir sorundur.

Eşitsiz Veriler Eşitsiz Faydalara Yol Açar

Tüm toplumun AI sistemlerinin sağlık hizmetlerine getirebileceği birçok faydadan yararlanabilmesi için, bu sistemleri eğitmek için kullanılan verilerde tüm toplumun eşit olarak temsil edilmesi gerekir. Bu basit gibi görünse de, doldurulması uzun bir emirdir.

Bazı popülasyonlardan gelen veriler, onu her zaman eğitim veri kümelerine dönüştürmez. Bu birkaç nedenden dolayı olabilir. Bazı veriler, dijital teknolojiye erişim eksikliği veya basitçe önemsiz olarak görülmesi gibi mevcut sistemik zorluklar nedeniyle erişilebilir olmayabilir veya hatta hiç toplanamayabilir. Tahmini modeller, verileri anlamlı bir şekilde kategorilere ayırarak oluşturulur. Ancak genellikle daha az olduğundan, “azınlık” verileri veri kümelerinde aykırı değer olma eğilimindedir ve daha temiz bir model oluşturmak için genellikle sahte olarak silinir.

Veri kaynağı önemlidir, çünkü bu ayrıntı sağlık hizmeti modellerinin sonucunu ve yorumunu tartışmasız bir şekilde etkiler. Sahra altı Afrika'da, genç kadınlara meme kanseri teşhisi çok daha yüksek oranda konuyor . Bu, yalnızca Küresel Kuzey'den mamogramlar üzerinde eğitilen meme kanserini tespit etmek için kullanılan AI araçlarının aksine, bu demografik gruba uyarlanmış AI araçlarına ve sağlık hizmetleri modellerine olan ihtiyacı ortaya koymaktadır. Benzer şekilde, giderek artan bir çalışma grubu, cilt kanserini saptamak için kullanılan algoritmaların , çoğunlukla açık tenli hastaların görüntüleri üzerinde eğitildikleri için Siyah hastalar için daha az doğru olma eğiliminde olduğunu öne sürüyor . Liste devam ediyor.

Sağlık sektöründe devrim yapma potansiyeline sahip araçlar ve sistemler yaratıyoruz, ancak bu gelişmelerin faydaları yalnızca verilerde temsil edilenlere ulaşacak.

Peki, Ne Yapılabilir?

Verilerden yanlılık elde etmedeki zorluğun bir kısmı, yüksek hacimli, çeşitli ve temsili veri kümelerine erişimin kolay olmamasıdır. Herkese açık olan eğitim veri kümeleri son derece dar, düşük hacimli ve homojen olma eğilimindedir - toplumun yalnızca kısmi bir resmini yakalarlar. Aynı zamanda, çeşitli sağlık veri zenginliği olan pek çok sağlık tesisinde her gün yakalanan, ancak veri gizliliği yasaları zor bu daha hacimli ve farklı veri setlerini erişim olun.

Veri koruması elbette çok önemlidir. Büyük Teknoloji ve hükümetler , verilerin sorumlu kullanımı söz konusu olduğunda en iyi sicile sahip değiller. Bununla birlikte, tıbbi verilerin paylaşımına yönelik şeffaflık, eğitim ve rıza daha amaca yönelik olarak düzenlenirse, çok daha çeşitli ve yüksek hacimli veri kümeleri, AI sistemlerinde daha adil temsile katkıda bulunabilir ve AI güdümlü sağlık hizmetleri için daha iyi, daha doğru sonuçlar sağlayabilir. aletler.

Ancak veri paylaşımı ve erişim, sağlık hizmetlerinin yapay zeka sorununa tam bir çözüm değil. AI aracılığıyla daha iyi ve kişiselleştirilmiş sağlık hizmeti, bir bilim insanı ve mühendis ordusunu alacak olan oldukça zorlu bir sorundur. Algoritmalarımıza iyi seçimler yapmayı öğretmek istiyoruz, ancak hala kendimiz için iyi seçimlerin nasıl olması gerektiğini anlamaya çalışıyoruz.

AI, sağlık hizmetlerine daha fazla kişiselleştirme getirme fırsatı sunar, ancak eşit olarak mevcut eşitsizlikleri güçlendirme riskini de sunar. Önümüzde, daha eksiksiz ve daha adil bir resim sağlayacak ve sağlık hizmetlerinde yapay zeka için sonraki adımları mümkün kılacak veri toplama, düzenleme ve kullanım konusunda düşünülmüş bir yaklaşım benimseme fırsatımız var.