نیاز به عوامل هوش مصنوعی در مراقبت های بهداشتی ضروری است. در سراسر صنعت ، تیم های بیش از حد با کارهای فشرده زمان که مراقبت از بیمار را حفظ می کنند ، غرق می شوند. پزشکان نازک کشیده شده اند ، مراکز تماس پرداخت کننده غرق شده اند و بیماران منتظر پاسخ به نگرانی های فوری هستند.
عوامل هوش مصنوعی می تواند با پر کردن شکاف های عمیق ، گسترش دسترسی و در دسترس بودن کارکنان بالینی و اداری و کاهش فرسودگی شغلی کارکنان بهداشت و بیماران کمک کند. اما قبل از اینکه بتوانیم این کار را انجام دهیم ، برای ایجاد اعتماد به مأمورین هوش مصنوعی به یک پایه قوی نیاز داریم. این اعتماد از لحن گرم صدا یا تسلط مکالمه ناشی نمی شود. این از مهندسی است.
حتی به عنوان علاقه به عوامل هوش مصنوعی Skyrockets و عناوین ترومپت وعده AI عامل ، رهبران مراقبت های بهداشتی – پاسخگو به بیماران و جوامع خود – در استقرار این فناوری در مقیاس مردد هستند. استارتاپ ها از قابلیت های عامل استفاده می کنند که از خودکار کردن وظایف دنیوی مانند برنامه ریزی قرار ملاقات گرفته تا ارتباطات و مراقبت های بیمار با لمس بالا متغیر است. با این حال ، اکثر آنها هنوز اثبات این مشارکت ها بی خطر نیستند.
بسیاری از آنها هرگز چنین نخواهند کرد.
واقعیت این است ، هر کسی می تواند چرخش کند نماینده صدا با استفاده از یک مدل بزرگ زبان (LLM) ، به آن یک لحن دلسوزانه می دهید و مکالمه ای را که قانع کننده به نظر می رسد ، اسکریپت کنید. سیستم عامل های زیادی مانند این شاهین در هر صنعت وجود دارد. مأمورین آنها ممکن است متفاوت به نظر برسند و به نظر برسند ، اما همه آنها یکسان رفتار می کنند – مستعد توهم ، قادر به تأیید حقایق مهم و مکانیسم های گمشده که پاسخگویی را تضمین می کند.
این رویکرد-ایجاد یک بسته بندی بیش از حد نازک در اطراف یک LLM بنیادی-ممکن است در صنایعی مانند خرده فروشی یا مهمان نوازی کار کند ، اما در مراقبت های بهداشتی شکست خواهد خورد. مدل های بنیادی ابزارهای خارق العاده ای هستند ، اما آنها عمدتاً با هدف کلی هستند. آنها به طور خاص در مورد پروتکل های بالینی ، سیاست های پرداخت کننده یا استانداردهای نظارتی آموزش دیده نبودند. حتی فصاحت ترین عوامل ساخته شده بر روی این مدل ها می توانند به داخل قلمرو توهم آور حرکت کنند و به سؤالاتی که نباید ، اختراع حقایق یا عدم تشخیص اینکه انسان نیاز به ورود به حلقه دارد ، پاسخ می دهند.
عواقب این رفتارها نظری نیست. آنها می توانند بیماران را اشتباه بگیرند ، در مراقبت دخالت کنند و منجر به کار مجدد پر هزینه انسان شوند. این یک مشکل اطلاعاتی نیست. این یک مشکل زیرساختی است.
برای کار با ایمن ، مؤثر و با اطمینان در مراقبت های بهداشتی ، عوامل هوش مصنوعی باید بیش از صداهای خودمختار در انتهای دیگر تلفن باشند. آنها باید توسط سیستم هایی که به طور خاص برای کنترل ، زمینه و پاسخگویی طراحی شده اند ، اداره شوند. از تجربه من در ساخت این سیستم ها ، در اینجا به نظر می رسد که در عمل به نظر می رسد.
کنترل پاسخ می تواند توهم را غیر وجود داشته باشد
عوامل هوش مصنوعی در مراقبت های بهداشتی فقط نمی توانند پاسخ های قابل قبول ایجاد کنند. آنها باید هر بار موارد صحیح را تحویل دهند. این امر به یک “فضای عمل” قابل کنترل نیاز دارد – مکانیسمی که به هوش مصنوعی اجازه می دهد تا مکالمه طبیعی را درک و تسهیل کند ، اما تضمین می کند که هر پاسخ ممکن با منطق از پیش تعریف شده و تأیید شده محدود می شود.
با پارامترهای کنترل پاسخ ساخته شده ، عوامل فقط می توانند پروتکل های تأیید شده ، روشهای عملیاتی از پیش تعریف شده و استانداردهای نظارتی را ارجاع دهند. خلاقیت این مدل برای هدایت تعامل به جای بداهه سازی حقایق ، مهار شده است. اینگونه است که رهبران مراقبت های بهداشتی می توانند خطر ابتلا به آن را تضمین کنند توهین به طور کامل از بین می رود – نه با آزمایش در یک خلبان یا یک گروه متمرکز ، بلکه با طراحی خطر در طبقه همکف.
نمودارهای تخصصی دانش می توانند مبادلات قابل اعتماد را تضمین کنند
زمینه هر مکالمه مراقبت های بهداشتی بسیار شخصی است. دو فرد مبتلا به دیابت نوع 2 ممکن است در همان محله زندگی کنند و از همان ریسک برخوردار باشند. واجد شرایط بودن آنها برای یک داروی خاص بر اساس سابقه پزشکی ، دستورالعمل درمانی پزشک ، برنامه بیمه آنها و قوانین فرمول متفاوت خواهد بود.
عوامل هوش مصنوعی نه تنها به دسترسی به این زمینه نیاز دارند بلکه باید در زمان واقعی بتوانند با آن استدلال کنند. یک تخصصی نمودار دانش این توانایی را فراهم می کند. این یک روش ساختاری برای ارائه اطلاعات از منابع معتبر متعدد است که به نمایندگان اجازه می دهد تا آنچه را که می شنوند تأیید کنند و از اطلاعاتی که می دهند اطمینان حاصل کنند ، هم دقیق و هم شخصی است. مأمورین بدون این لایه ممکن است به نظر برسند ، اما آنها واقعاً فقط به دنبال گردش کار سفت و سخت و پر کردن خالی ها هستند.
سیستم های بررسی قوی می توانند دقت را ارزیابی کنند
ممکن است یک بیمار با یک عامل هوش مصنوعی آویزان شود و احساس رضایت کند ، اما کار برای عامل به پایان رسیده است. سازمان های بهداشت و درمان نیاز به اطمینان دارند که نماینده نه تنها اطلاعات صحیحی را تولید کرده است ، بلکه تعامل را درک و مستند کرده است. این جایی است که سیستم های خودکار پس از پردازش وارد می شوند.
یک سیستم بررسی قوی باید هر مکالمه را با همان سطح دقیق و دقیق و دقیق از نظارت یک سرپرست انسانی با تمام وقت در جهان ارزیابی کند. باید بتواند مشخص کند که آیا پاسخ دقیق است ، اطمینان حاصل کنید که اطلاعات صحیح ضبط شده است و تعیین می کند که آیا پیگیری لازم است یا خیر. اگر چیزی درست نباشد ، مأمور باید بتواند به یک انسان تشدید شود ، اما اگر همه چیز بررسی شود ، می توان با اطمینان از لیست کارها خارج شد.
فراتر از این سه عنصر بنیادی مورد نیاز برای مهندسی اعتماد ، هر زیرساخت هوش مصنوعی عامل نیاز به یک چارچوب امنیتی و انطباق قوی دارد که از داده های بیمار محافظت می کند و تضمین می کند که نمایندگان در مرزهای تنظیم شده فعالیت می کنند. این چارچوب باید شامل پیروی دقیق از استانداردهای صنعت مشترک مانند SOC 2 و HIPAA باشد ، اما همچنین باید فرایندهایی را برای آزمایش تعصب ، محافظت از اطلاعات بهداشتی محافظت شده و حفظ داده ها انجام دهد.
این حفاظت های امنیتی فقط جعبه های انطباق را بررسی نمی کنند. آنها ستون فقرات یک سیستم قابل اعتماد را تشکیل می دهند که می تواند اطمینان حاصل کند که هر تعامل در سطح بیماران و ارائه دهندگان انتظار دارند.
صنعت مراقبت های بهداشتی نیازی به اعتیاد به هوش مصنوعی بیشتری ندارد. به زیرساخت های AI قابل اعتماد نیاز دارد. در مورد عامل AI ، اعتماد به همان اندازه که مهندسی می شود ، به دست نمی آید.