هوش مصنوعی می تواند دوست یا دشمن در بهبود عدالت سلامت باشد. در اینجا نحوه اطمینان از اینکه به شما کمک می کند، نه آسیب می رساند، آورده شده است


نابرابری های مراقبت های بهداشتی و نابرابری در مراقبت ها در شکاف های اجتماعی-اقتصادی، نژادی و جنسیتی فراگیر است. ما به عنوان یک جامعه، مسئولیت اخلاقی، اخلاقی و اقتصادی داریم که این شکاف‌ها را ببندیم و دسترسی همگانی به مراقبت‌های بهداشتی را تضمین کنیم.

هوش مصنوعی (AI) به رفع این نابرابری ها کمک می کند، اما همچنین یک شمشیر دولبه است. مطمئناً هوش مصنوعی در حال حاضر به ساده‌سازی ارائه مراقبت‌ها، فعال کردن پزشکی شخصی‌شده در مقیاس و حمایت از اکتشافات پیشرفت کمک می‌کند. با این حال، تعصب ذاتی در داده‌ها، الگوریتم‌ها و کاربران می‌تواند مشکل را بدتر کند اگر مراقب نباشیم.

این بدان معناست که کسانی از ما که راه‌حل‌های مراقبت‌های بهداشتی مبتنی بر هوش مصنوعی را توسعه می‌دهند و به کار می‌برند، باید مراقب باشیم تا از افزایش ناخواسته شکاف‌های موجود توسط هوش مصنوعی جلوگیری کنیم، و نهادهای حاکم و انجمن‌های حرفه‌ای باید نقش فعالی در ایجاد نرده‌های محافظ برای جلوگیری یا کاهش تعصب داشته باشند.

در اینجا آمده است که چگونه استفاده از هوش مصنوعی می‌تواند شکاف‌های نابرابری را به جای افزایش آن‌ها پر کند.

دستیابی به برابری در آزمایشات بالینی

بسیاری از کارآزمایی‌های دارویی و درمانی جدید از لحاظ تاریخی در طراحی خود، چه عمدی یا غیرعمدی، مغرضانه بوده‌اند. به عنوان مثال، آن تا سال 1993 که زنان مورد نیاز بودند طبق قانون باید در تحقیقات بالینی با بودجه NIH گنجانده شود. اخیراً، واکسن‌های کووید هرگز عمداً روی زنان باردار آزمایش نشدند– فقط به این دلیل بود که برخی از شرکت کنندگان در کارآزمایی به طور ناآگاهانه در زمان واکسیناسیون باردار بودند که ما می دانستیم که این واکسن بی خطر است.

یک چالش با تحقیق این است که ما چیزهایی را که نمی دانیم نمی دانیم. با این حال، هوش مصنوعی با تجزیه و تحلیل داده‌های جمعیت و علامت‌گذاری نمایش نامتناسب یا شکاف‌های پوشش جمعیتی به کشف مجموعه‌های داده‌های مغرضانه کمک می‌کند. با اطمینان از ارائه متنوع و آموزش مدل‌های هوش مصنوعی بر روی داده‌هایی که به طور دقیق جمعیت‌های هدف را نشان می‌دهند، هوش مصنوعی به اطمینان از فراگیری، کاهش آسیب و بهینه‌سازی نتایج کمک می‌کند.

از رفتارهای عادلانه اطمینان حاصل کنید

این است به خوبی تثبیت شده است مادران باردار سیاه پوستی که درد و عوارضی را در حین زایمان تجربه می‌کنند اغلب نادیده گرفته می‌شوند که منجر به مرگ و میر مادران می‌شود. 3 برابر بیشتر برای زنان سیاه پوست نسبت به زنان سفیدپوست غیر اسپانیایی صرف نظر از درآمد یا تحصیلات. این مشکل تا حد زیادی توسط سوگیری ذاتی تداوم یافته است: یک تصور غلط فراگیر در میان متخصصان پزشکی وجود دارد که افراد سیاه پوست تحمل درد بیشتری دارند نسبت به سفیدپوستان

تعصب در الگوریتم‌های هوش مصنوعی می‌تواند مشکل را بدتر کند: محققان هاروارد کشف کردند که یک الگوریتم رایج پیش‌بینی می‌کند که زنان سیاه‌پوست و لاتین کمتر احتمال دارد که بعد از سزارین (VBAC) زایمان طبیعی موفقیت‌آمیزی داشته باشند، که ممکن است پزشکان را وادار به انجام C- بیشتر کند. بخش هایی در مورد زنان رنگین پوست با این حال، محققان دریافتند که «ارتباط است توسط قابل قبول بودن بیولوژیکی پشتیبانی نمی شود“، نشان می دهد که نژاد “پراکسی برای سایر متغیرهایی است که تاثیر آن را منعکس می کند نژادپرستی در مورد سلامتی.» این الگوریتم متعاقباً برای حذف نژاد یا قومیت هنگام محاسبه ریسک به روز شد.

این یک برنامه عالی برای هوش مصنوعی برای ریشه‌کن کردن سوگیری ضمنی و پیشنهاد (با شواهد) مسیرهای مراقبتی است که ممکن است قبلا نادیده گرفته شده باشند. به جای ادامه تمرین «مراقبت استاندارد»، می‌توانیم از هوش مصنوعی برای تعیین اینکه آیا این بهترین شیوه‌ها مبتنی بر تجربه همه زنان است یا فقط زنان سفیدپوست، استفاده کنیم. هوش مصنوعی کمک می کند تا اطمینان حاصل شود که پایه های داده ما شامل بیمارانی می شود که بیشترین سود را از پیشرفت های مراقبت های بهداشتی و فناوری دارند.

در حالی که ممکن است شرایطی وجود داشته باشد که نژاد و قومیت می‌توانند عوامل تأثیرگذار باشند، اما باید مراقب باشیم که بدانیم چگونه و چه زمانی باید در نظر گرفته شوند و چه زمانی برای اطلاع‌رسانی به برداشت‌ها و الگوریتم‌های هوش مصنوعی خود صرفاً سوگیری تاریخی را پیش‌فرض می‌کنیم.

ارائه راهبردهای پیشگیری عادلانه

راه‌حل‌های هوش مصنوعی می‌توانند به راحتی شرایط خاصی را در جوامع به حاشیه رانده شده بدون در نظر گرفتن دقیق سوگیری احتمالی نادیده بگیرند. به عنوان مثال، اداره کهنه سربازان در حال کار بر روی چندین الگوریتم برای پیش بینی و تشخیص علائم بیماری قلبی و حملات قلبی است. این پتانسیل فوق العاده ای برای نجات جان دارد، اما اکثر مطالعات از لحاظ تاریخی بسیاری از زنان را شامل نشده است، که بیماری های قلبی عروقی علت شماره یک مرگ و میر برای آنهاست. بنابراین، مشخص نیست که آیا این مدل‌ها برای زنان که اغلب با علائم بسیار متفاوتی نسبت به مردان ظاهر می‌شوند، به همان اندازه مؤثر هستند.

گنجاندن تعداد متناسبی از زنان در این مجموعه داده می تواند به جلوگیری از برخی از این موارد کمک کند 3.2 میلیون حمله قلبی و سالانه نیم میلیون مرگ ناشی از بیماری قلبی در زنان از طریق تشخیص و مداخله به موقع. به طور مشابه، ابزارهای جدید هوش مصنوعی در حال حذف آن هستند الگوریتم‌های مبتنی بر نژاد در غربالگری بیماری کلیویکه از لحاظ تاریخی سیاه‌پوستان، اسپانیایی‌تبار و بومیان آمریکایی را کنار گذاشته‌اند، که منجر به تأخیر در مراقبت و نتایج بالینی ضعیف می‌شود.

به جای حذف افراد به حاشیه رانده شده، هوش مصنوعی می‌تواند در واقع به پیش‌بینی خطرات سلامتی برای جمعیت‌های محروم کمک کند و ارزیابی‌های ریسک شخصی‌شده را برای مداخلات هدفمندتر امکان‌پذیر کند. داده ها ممکن است قبلاً وجود داشته باشد. صرفاً موضوع «تنظیم» مدل‌ها برای تعیین اینکه چگونه نژاد، جنسیت، و سایر عوامل جمعیت‌شناختی بر نتایج تأثیر می‌گذارند – در صورتی که اصلاً تأثیرگذار باشند – است.

ساده کردن وظایف اداری

گذشته از تأثیر مستقیم بر نتایج بیمار، هوش مصنوعی پتانسیل باورنکردنی برای تسریع گردش کار در پشت صحنه برای کاهش نابرابری ها دارد. برای مثال، شرکت‌ها و ارائه‌دهندگان در حال حاضر از هوش مصنوعی برای پر کردن شکاف‌های مربوط به کدگذاری و قضاوت ادعاها، اعتبارسنجی کدهای تشخیص در برابر یادداشت‌های پزشک، و خودکارسازی فرآیندهای پیش مجوز برای روش‌های تشخیصی رایج استفاده می‌کنند.

با ساده‌سازی این عملکردها، می‌توانیم هزینه‌های عملیاتی را به شدت کاهش دهیم، به دفاتر ارائه‌دهنده کمک کنیم تا کارآمدتر کار کنند و به کارکنان زمان بیشتری برای گذراندن با بیماران بدهیم، بنابراین مراقبت‌ها را به‌طور تصاعدی مقرون‌به‌صرفه‌تر و در دسترس‌تر کنیم.

هر کدام از ما نقش مهمی داریم

این واقعیت که ما این ابزارهای باورنکردنی را در اختیار داریم، استفاده از آنها را برای ریشه‌یابی و غلبه بر تعصبات مراقبت‌های بهداشتی ضروری‌تر می‌کند. متأسفانه، هیچ نهاد گواهی‌دهنده‌ای در ایالات متحده وجود ندارد که تلاش‌ها برای استفاده از هوش مصنوعی را برای «بی‌طرف‌انگاری» ارائه مراقبت‌های بهداشتی تنظیم کند، و حتی برای سازمان‌هایی که دستورالعمل‌هایی را ارائه کرده‌اند، هیچ انگیزه نظارتی برای پیروی از آنها وجود ندارد.

بنابراین، وظیفه ما به عنوان متخصصان هوش مصنوعی، دانشمندان داده، خالقان الگوریتم و کاربران است تا یک استراتژی آگاهانه برای اطمینان از جامعیت، تنوع داده ها و استفاده عادلانه از این ابزارها و بینش ها ایجاد کنیم.

برای انجام این کار، یکپارچگی دقیق و قابلیت همکاری ضروری است. با منابع بسیار زیاد داده – از ابزارهای پوشیدنی و آزمایشگاه‌های شخص ثالث و ارائه‌دهندگان تصویربرداری گرفته تا مراقبت‌های اولیه، تبادل اطلاعات سلامت، و سوابق بستری – ما باید همه این داده‌ها را به گونه‌ای ادغام کنیم که بخش‌های کلیدی بدون در نظر گرفتن قالب‌بندی منبع ما گنجانده شوند. صنعت به نرمال‌سازی داده‌ها، استانداردسازی و تطبیق هویت نیاز دارد تا مطمئن شود داده‌های ضروری بیمار گنجانده شده است، حتی با املای نام‌های متفاوت یا قراردادهای نام‌گذاری بر اساس فرهنگ‌ها و زبان‌های مختلف.

ما همچنین باید ارزیابی‌های تنوع را در فرآیند توسعه هوش مصنوعی خود ایجاد کنیم و در طول زمان برای “انحراف” در معیارهای خود نظارت کنیم. متخصصان هوش مصنوعی وظیفه دارند عملکرد مدل را در میان زیر گروه‌های جمعیتی آزمایش کنند، ممیزی‌های جانبداری را انجام دهند و بفهمند مدل چگونه تصمیم می‌گیرد. ممکن است مجبور شویم از فرضیات مبتنی بر نژاد فراتر برویم تا اطمینان حاصل کنیم که تجزیه و تحلیل ما نشان دهنده جمعیتی است که آن را برای آن می سازیم. به عنوان مثال، اعضای قبیله هندی پیما افرادی که در منطقه حفاظت شده رودخانه گیلا در آریزونا زندگی می کنند، دارای نرخ بسیار بالایی از چاقی و دیابت نوع 2 هستند، در حالی که اعضای همان قبیله که درست در آن سوی مرز در کوه های سیرا مادره مکزیک زندگی می کنند، نرخ چاقی و دیابت بسیار پایین تری دارند که ثابت می کند که ژنتیک تنها عامل نیست.

در نهایت، ما به سازمان هایی مانند انجمن پزشکی آمریکا، دفتر هماهنگ کننده ملی فناوری اطلاعات سلامت، و سازمان های تخصصی مانند کالج آمریکایی زنان و زایمان، آکادمی آمریکایی اطفال، کالج آمریکایی قلب و عروق و بسیاری دیگر نیاز داریم تا با یکدیگر همکاری کنند. تعیین استانداردها و چارچوب هایی برای تبادل داده ها و دقت برای محافظت در برابر سوگیری.

با استاندارد کردن به اشتراک گذاری داده های سلامت و گسترش آن HTI-1 و HTI-2 برای اینکه توسعه دهندگان را ملزم به همکاری با نهادهای اعتباربخشی کنیم، به اطمینان از انطباق و تصحیح اشتباهات گذشته نابرابری کمک می کنیم. علاوه بر این، با دموکراتیک کردن دسترسی به داده‌های کامل و دقیق بیمار، می‌توانیم پرده‌هایی را که باعث تداوم تعصب شده‌اند حذف کنیم و از هوش مصنوعی برای رفع نابرابری‌های مراقبتی از طریق بینش‌های جامع‌تر و عینی‌تر استفاده کنیم.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *