اولویت بندی اعتماد به AI – unite.ai


تکیه جامعه به برنامه های هوش مصنوعی (AI) و یادگیری ماشین (ML) همچنان در حال رشد است و چگونگی مصرف اطلاعات را تعریف می کند. از Chatbots با قدرت هوش مصنوعی گرفته تا سنتز اطلاعات تولید شده از مدل های بزرگ زبان (LLMS) ، جامعه به اطلاعات بیشتر و بینش های عمیق تر از گذشته دسترسی دارد. با این حال ، هنگامی که شرکت های فناوری برای اجرای هوش مصنوعی در زنجیره ارزش خود مسابقه می دهند ، یک سوال مهم از بین می رود. آیا واقعاً می توانیم به خروجی راه حل های AI اعتماد کنیم؟

آیا واقعاً می توانیم به خروجی های هوش مصنوعی بدون کمیت عدم اطمینان اعتماد کنیم

برای یک ورودی معین ، یک مدل ممکن است بسیاری از خروجی های به همان اندازه قابل قبول را ایجاد کند. این می تواند به دلیل داده های آموزش کافی ، تغییرات در داده های آموزش یا دلایل دیگر باشد. هنگام استقرار مدل ها ، سازمان ها می توانند از آن استفاده کنند کمیت عدم اطمینان برای ارائه درک واضح تر به کاربران نهایی خود از چقدر باید به خروجی یک مدل AI/ML اعتماد کنند. کمیت عدم اطمینان ، فرآیند تخمین آنچه می تواند سایر خروجی ها باشد.

یک مدل را تصور کنید که دمای بالای فردا را پیش بینی می کند. این مدل ممکن است خروجی 21 درجه سانتیگراد را تولید کند ، اما کمیت عدم قطعیت اعمال شده برای آن خروجی ممکن است نشان دهد که این مدل می تواند به همین ترتیب خروجی های 12 درجه سانتیگراد ، 15 درجه سانتیگراد یا 16 درجه سانتیگراد را تولید کند. با دانستن این موضوع ، اکنون چقدر به پیش بینی ساده 20 درجه سانتیگراد اعتماد داریم؟ با وجود پتانسیل خود برای ایجاد اعتماد یا مشاوره ، بسیاری از سازمان ها به دلیل کار اضافی که برای اجرای آن باید انجام دهند ، و همچنین به دلیل خواسته های آن در مورد منابع محاسباتی و سرعت استنتاج ، از کمیت عدم اطمینان استفاده می کنند.

بافای سیستم ها مانند تشخیص پزشکی و سیستم های پیش آگهی ، انسان را به عنوان بخشی از روند تصمیم گیری درگیر می کنند. با اعتماد به کورکورانه به داده های راه حل های بهداشتی و درمانی AI/ML ، متخصصان مراقبت های بهداشتی خطر تشخیص نادرست یک بیمار را به خطر می اندازند ، که به طور بالقوه منجر به نتایج سلامت فرعی یا بدتر می شود. کمیت عدم اطمینان می تواند به متخصصان مراقبت های بهداشتی اجازه دهد تا از نظر کمی ، وقتی می توانند اعتماد بیشتری به خروجی های هوش مصنوعی داشته باشند و چه زمانی باید با احتیاط پیش بینی های خاص را مشاهده کنند ، ببینند. به طور مشابه ، در یک سیستم کاملاً خودکار مانند خودروی خودران ، خروجی یک مدل برای برآورد فاصله یک مانع می تواند منجر به تصادف شود که در غیر این صورت ممکن است در حضور کمیت عدم اطمینان در برآورد فاصله از آن جلوگیری شود.

چالش استفاده از روشهای مونت کارلو برای ایجاد اعتماد به مدل های AI/ML

روشهای مونت کارلو، توسعه یافته در طول پروژه منهتن ، روشی قوی برای انجام کمیت عدم اطمینان است. آنها الگوریتم های دوباره در حال اجرا را به طور مکرر با ورودی های کمی متفاوت درگیر می کنند تا اینکه تکرار بیشتر اطلاعات بیشتری در خروجی ها ارائه نمی دهد. وقتی این روند به چنین وضعیتی می رسد ، گفته می شود که همگرا شده است. یکی از مضرات روشهای مونت کارلو این است که آنها به طور معمول آهسته و محاسبه هستند و نیاز به تکرار بسیاری از محاسبات تشکیل دهنده خود برای به دست آوردن یک خروجی همگرا دارند و دارای تنوع ذاتی در این خروجی ها هستند. از آنجا که روشهای مونت کارلو از خروجی های ژنراتورهای شماره تصادفی به عنوان یکی از بلوک های اصلی ساختمانی خود استفاده می کنند ، حتی وقتی مونت کارلو را با بسیاری از تکرارهای داخلی اجرا می کنید ، هنگامی که روند را با پارامترهای یکسان تکرار می کنید ، نتایج به دست می آورید.

مسیر پیش رو به اعتماد به نفس در مدل های AI/ML

برخلاف سرورهای سنتی و شتاب دهنده های خاص هوش مصنوعی ، نژاد جدیدی از سکوهای محاسباتی برای پردازش مستقیم توزیع احتمال تجربی به همان روشی که سیستم عامل های محاسباتی سنتی عدد صحیح و مقادیر نقطه شناور را پردازش می کنند ، توسعه می یابند. با استفاده از مدل های هوش مصنوعی خود بر روی این سیستم عامل ها ، سازمان ها می توانند اجرای کمیت عدم اطمینان را در مدل های از پیش آموزش خود خودکار کنند و همچنین می توانند انواع دیگر کارهای محاسباتی را که به طور سنتی از روشهای مونت کارلو استفاده کرده اند ، سرعت بخشند. محاسبات var در امور مالیبشر به طور خاص ، برای سناریوی VAR ، این نژاد جدید از سیستم عامل ها به سازمانها اجازه می دهد تا با توزیع های تجربی که مستقیماً از داده های بازار واقعی ساخته شده اند ، به جای تقریب این توزیع ها با نمونه های تولید شده توسط ژنراتورهای شماره تصادفی ، برای تجزیه و تحلیل دقیق تر و نتایج سریعتر کار کنند.

پیشرفت های اخیر در محاسبات به طور قابل توجهی موانع کمیت عدم اطمینان را کاهش داده است. مقاله تحقیقاتی اخیر که توسط همکاران و من منتشر شده است یادگیری ماشین با کارگاه جدید پارادایم های محاسباتی در Neurips 2024، برجسته می کند که چگونه یک بستر محاسباتی نسل بعدی که ما توسعه دادیم ، تجزیه و تحلیل کمیت عدم اطمینان را برای اجرای بیش از 100 برابر سریعتر در مقایسه با اجرای تجزیه و تحلیل های سنتی مونت کارلو مبتنی بر یک سرور مبتنی بر Intel-Xeon انجام دادیم. پیشرفت هایی مانند این اجازه می دهد تا سازمانهایی که راه حل های هوش مصنوعی را برای اجرای کمیت عدم اطمینان با سهولت انجام می دهند و چنین اندازه گیری عدم اطمینان را با هزینه های کم انجام می دهند.

آینده اعتماد به نفس AI/ML به محاسبات پیشرفته نسل بعدی بستگی دارد

از آنجا که سازمان ها راه حل های هوش مصنوعی بیشتری را در جامعه ادغام می کنند ، اعتماد به نفس در هوش مصنوعی/ML به یک اولویت اصلی تبدیل می شود. بنگاهها دیگر نمی توانند از امکانات پیاده سازی در استقرار مدل هوش مصنوعی خود صرف نظر کنند تا مصرف کنندگان بدانند که چه موقع می توانند خروجی های مدل خاص AI را با شک و تردید درمان کنند. تقاضا برای چنین توضیح و کمیت عدم اطمینان ، تقریباً مشخص است سه نفر از چهار نفر که نشان می دهند در صورت وجود مکانیسم های تضمین مناسب ، آنها مایل به اعتماد به یک سیستم هوش مصنوعی خواهند بود.

فن آوری های محاسبات جدید اجرای و استقرار کمیت عدم اطمینان را آسان تر می کنند. در حالی که صنعت و نهادهای نظارتی با سایر چالش های مرتبط با استقرار هوش مصنوعی در جامعه روبرو هستند ، حداقل فرصتی برای ایجاد اعتماد به نفس انسان ها وجود دارد ، با ایجاد کمیت عدم اطمینان در استقرار هوش مصنوعی.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *