نابرابری های مراقبت های بهداشتی و نابرابری در مراقبت ها در شکاف های اجتماعی-اقتصادی، نژادی و جنسیتی فراگیر است. ما به عنوان یک جامعه، مسئولیت اخلاقی، اخلاقی و اقتصادی داریم که این شکافها را ببندیم و دسترسی همگانی به مراقبتهای بهداشتی را تضمین کنیم.
هوش مصنوعی (AI) به رفع این نابرابری ها کمک می کند، اما همچنین یک شمشیر دولبه است. مطمئناً هوش مصنوعی در حال حاضر به سادهسازی ارائه مراقبتها، فعال کردن پزشکی شخصیشده در مقیاس و حمایت از اکتشافات پیشرفت کمک میکند. با این حال، تعصب ذاتی در دادهها، الگوریتمها و کاربران میتواند مشکل را بدتر کند اگر مراقب نباشیم.
این بدان معناست که کسانی از ما که راهحلهای مراقبتهای بهداشتی مبتنی بر هوش مصنوعی را توسعه میدهند و به کار میبرند، باید مراقب باشیم تا از افزایش ناخواسته شکافهای موجود توسط هوش مصنوعی جلوگیری کنیم، و نهادهای حاکم و انجمنهای حرفهای باید نقش فعالی در ایجاد نردههای محافظ برای جلوگیری یا کاهش تعصب داشته باشند.
در اینجا آمده است که چگونه استفاده از هوش مصنوعی میتواند شکافهای نابرابری را به جای افزایش آنها پر کند.
دستیابی به برابری در آزمایشات بالینی
بسیاری از کارآزماییهای دارویی و درمانی جدید از لحاظ تاریخی در طراحی خود، چه عمدی یا غیرعمدی، مغرضانه بودهاند. به عنوان مثال، آن تا سال 1993 که زنان مورد نیاز بودند طبق قانون باید در تحقیقات بالینی با بودجه NIH گنجانده شود. اخیراً، واکسنهای کووید هرگز عمداً روی زنان باردار آزمایش نشدند– فقط به این دلیل بود که برخی از شرکت کنندگان در کارآزمایی به طور ناآگاهانه در زمان واکسیناسیون باردار بودند که ما می دانستیم که این واکسن بی خطر است.
یک چالش با تحقیق این است که ما چیزهایی را که نمی دانیم نمی دانیم. با این حال، هوش مصنوعی با تجزیه و تحلیل دادههای جمعیت و علامتگذاری نمایش نامتناسب یا شکافهای پوشش جمعیتی به کشف مجموعههای دادههای مغرضانه کمک میکند. با اطمینان از ارائه متنوع و آموزش مدلهای هوش مصنوعی بر روی دادههایی که به طور دقیق جمعیتهای هدف را نشان میدهند، هوش مصنوعی به اطمینان از فراگیری، کاهش آسیب و بهینهسازی نتایج کمک میکند.
از رفتارهای عادلانه اطمینان حاصل کنید
این است به خوبی تثبیت شده است مادران باردار سیاه پوستی که درد و عوارضی را در حین زایمان تجربه میکنند اغلب نادیده گرفته میشوند که منجر به مرگ و میر مادران میشود. 3 برابر بیشتر برای زنان سیاه پوست نسبت به زنان سفیدپوست غیر اسپانیایی صرف نظر از درآمد یا تحصیلات. این مشکل تا حد زیادی توسط سوگیری ذاتی تداوم یافته است: یک تصور غلط فراگیر در میان متخصصان پزشکی وجود دارد که افراد سیاه پوست تحمل درد بیشتری دارند نسبت به سفیدپوستان
تعصب در الگوریتمهای هوش مصنوعی میتواند مشکل را بدتر کند: محققان هاروارد کشف کردند که یک الگوریتم رایج پیشبینی میکند که زنان سیاهپوست و لاتین کمتر احتمال دارد که بعد از سزارین (VBAC) زایمان طبیعی موفقیتآمیزی داشته باشند، که ممکن است پزشکان را وادار به انجام C- بیشتر کند. بخش هایی در مورد زنان رنگین پوست با این حال، محققان دریافتند که «ارتباط است توسط قابل قبول بودن بیولوژیکی پشتیبانی نمی شود“، نشان می دهد که نژاد “پراکسی برای سایر متغیرهایی است که تاثیر آن را منعکس می کند نژادپرستی در مورد سلامتی.» این الگوریتم متعاقباً برای حذف نژاد یا قومیت هنگام محاسبه ریسک به روز شد.
این یک برنامه عالی برای هوش مصنوعی برای ریشهکن کردن سوگیری ضمنی و پیشنهاد (با شواهد) مسیرهای مراقبتی است که ممکن است قبلا نادیده گرفته شده باشند. به جای ادامه تمرین «مراقبت استاندارد»، میتوانیم از هوش مصنوعی برای تعیین اینکه آیا این بهترین شیوهها مبتنی بر تجربه همه زنان است یا فقط زنان سفیدپوست، استفاده کنیم. هوش مصنوعی کمک می کند تا اطمینان حاصل شود که پایه های داده ما شامل بیمارانی می شود که بیشترین سود را از پیشرفت های مراقبت های بهداشتی و فناوری دارند.
در حالی که ممکن است شرایطی وجود داشته باشد که نژاد و قومیت میتوانند عوامل تأثیرگذار باشند، اما باید مراقب باشیم که بدانیم چگونه و چه زمانی باید در نظر گرفته شوند و چه زمانی برای اطلاعرسانی به برداشتها و الگوریتمهای هوش مصنوعی خود صرفاً سوگیری تاریخی را پیشفرض میکنیم.
ارائه راهبردهای پیشگیری عادلانه
راهحلهای هوش مصنوعی میتوانند به راحتی شرایط خاصی را در جوامع به حاشیه رانده شده بدون در نظر گرفتن دقیق سوگیری احتمالی نادیده بگیرند. به عنوان مثال، اداره کهنه سربازان در حال کار بر روی چندین الگوریتم برای پیش بینی و تشخیص علائم بیماری قلبی و حملات قلبی است. این پتانسیل فوق العاده ای برای نجات جان دارد، اما اکثر مطالعات از لحاظ تاریخی بسیاری از زنان را شامل نشده است، که بیماری های قلبی عروقی علت شماره یک مرگ و میر برای آنهاست. بنابراین، مشخص نیست که آیا این مدلها برای زنان که اغلب با علائم بسیار متفاوتی نسبت به مردان ظاهر میشوند، به همان اندازه مؤثر هستند.
گنجاندن تعداد متناسبی از زنان در این مجموعه داده می تواند به جلوگیری از برخی از این موارد کمک کند 3.2 میلیون حمله قلبی و سالانه نیم میلیون مرگ ناشی از بیماری قلبی در زنان از طریق تشخیص و مداخله به موقع. به طور مشابه، ابزارهای جدید هوش مصنوعی در حال حذف آن هستند الگوریتمهای مبتنی بر نژاد در غربالگری بیماری کلیویکه از لحاظ تاریخی سیاهپوستان، اسپانیاییتبار و بومیان آمریکایی را کنار گذاشتهاند، که منجر به تأخیر در مراقبت و نتایج بالینی ضعیف میشود.
به جای حذف افراد به حاشیه رانده شده، هوش مصنوعی میتواند در واقع به پیشبینی خطرات سلامتی برای جمعیتهای محروم کمک کند و ارزیابیهای ریسک شخصیشده را برای مداخلات هدفمندتر امکانپذیر کند. داده ها ممکن است قبلاً وجود داشته باشد. صرفاً موضوع «تنظیم» مدلها برای تعیین اینکه چگونه نژاد، جنسیت، و سایر عوامل جمعیتشناختی بر نتایج تأثیر میگذارند – در صورتی که اصلاً تأثیرگذار باشند – است.
ساده کردن وظایف اداری
گذشته از تأثیر مستقیم بر نتایج بیمار، هوش مصنوعی پتانسیل باورنکردنی برای تسریع گردش کار در پشت صحنه برای کاهش نابرابری ها دارد. برای مثال، شرکتها و ارائهدهندگان در حال حاضر از هوش مصنوعی برای پر کردن شکافهای مربوط به کدگذاری و قضاوت ادعاها، اعتبارسنجی کدهای تشخیص در برابر یادداشتهای پزشک، و خودکارسازی فرآیندهای پیش مجوز برای روشهای تشخیصی رایج استفاده میکنند.
با سادهسازی این عملکردها، میتوانیم هزینههای عملیاتی را به شدت کاهش دهیم، به دفاتر ارائهدهنده کمک کنیم تا کارآمدتر کار کنند و به کارکنان زمان بیشتری برای گذراندن با بیماران بدهیم، بنابراین مراقبتها را بهطور تصاعدی مقرونبهصرفهتر و در دسترستر کنیم.
هر کدام از ما نقش مهمی داریم
این واقعیت که ما این ابزارهای باورنکردنی را در اختیار داریم، استفاده از آنها را برای ریشهیابی و غلبه بر تعصبات مراقبتهای بهداشتی ضروریتر میکند. متأسفانه، هیچ نهاد گواهیدهندهای در ایالات متحده وجود ندارد که تلاشها برای استفاده از هوش مصنوعی را برای «بیطرفانگاری» ارائه مراقبتهای بهداشتی تنظیم کند، و حتی برای سازمانهایی که دستورالعملهایی را ارائه کردهاند، هیچ انگیزه نظارتی برای پیروی از آنها وجود ندارد.
بنابراین، وظیفه ما به عنوان متخصصان هوش مصنوعی، دانشمندان داده، خالقان الگوریتم و کاربران است تا یک استراتژی آگاهانه برای اطمینان از جامعیت، تنوع داده ها و استفاده عادلانه از این ابزارها و بینش ها ایجاد کنیم.
برای انجام این کار، یکپارچگی دقیق و قابلیت همکاری ضروری است. با منابع بسیار زیاد داده – از ابزارهای پوشیدنی و آزمایشگاههای شخص ثالث و ارائهدهندگان تصویربرداری گرفته تا مراقبتهای اولیه، تبادل اطلاعات سلامت، و سوابق بستری – ما باید همه این دادهها را به گونهای ادغام کنیم که بخشهای کلیدی بدون در نظر گرفتن قالببندی منبع ما گنجانده شوند. صنعت به نرمالسازی دادهها، استانداردسازی و تطبیق هویت نیاز دارد تا مطمئن شود دادههای ضروری بیمار گنجانده شده است، حتی با املای نامهای متفاوت یا قراردادهای نامگذاری بر اساس فرهنگها و زبانهای مختلف.
ما همچنین باید ارزیابیهای تنوع را در فرآیند توسعه هوش مصنوعی خود ایجاد کنیم و در طول زمان برای “انحراف” در معیارهای خود نظارت کنیم. متخصصان هوش مصنوعی وظیفه دارند عملکرد مدل را در میان زیر گروههای جمعیتی آزمایش کنند، ممیزیهای جانبداری را انجام دهند و بفهمند مدل چگونه تصمیم میگیرد. ممکن است مجبور شویم از فرضیات مبتنی بر نژاد فراتر برویم تا اطمینان حاصل کنیم که تجزیه و تحلیل ما نشان دهنده جمعیتی است که آن را برای آن می سازیم. به عنوان مثال، اعضای قبیله هندی پیما افرادی که در منطقه حفاظت شده رودخانه گیلا در آریزونا زندگی می کنند، دارای نرخ بسیار بالایی از چاقی و دیابت نوع 2 هستند، در حالی که اعضای همان قبیله که درست در آن سوی مرز در کوه های سیرا مادره مکزیک زندگی می کنند، نرخ چاقی و دیابت بسیار پایین تری دارند که ثابت می کند که ژنتیک تنها عامل نیست.
در نهایت، ما به سازمان هایی مانند انجمن پزشکی آمریکا، دفتر هماهنگ کننده ملی فناوری اطلاعات سلامت، و سازمان های تخصصی مانند کالج آمریکایی زنان و زایمان، آکادمی آمریکایی اطفال، کالج آمریکایی قلب و عروق و بسیاری دیگر نیاز داریم تا با یکدیگر همکاری کنند. تعیین استانداردها و چارچوب هایی برای تبادل داده ها و دقت برای محافظت در برابر سوگیری.
با استاندارد کردن به اشتراک گذاری داده های سلامت و گسترش آن HTI-1 و HTI-2 برای اینکه توسعه دهندگان را ملزم به همکاری با نهادهای اعتباربخشی کنیم، به اطمینان از انطباق و تصحیح اشتباهات گذشته نابرابری کمک می کنیم. علاوه بر این، با دموکراتیک کردن دسترسی به دادههای کامل و دقیق بیمار، میتوانیم پردههایی را که باعث تداوم تعصب شدهاند حذف کنیم و از هوش مصنوعی برای رفع نابرابریهای مراقبتی از طریق بینشهای جامعتر و عینیتر استفاده کنیم.