چگونه AI قابل توضیح اعتماد و پاسخگویی را ایجاد می کند


مشاغل قبلاً سرگردان را به سمت پذیرش هوش مصنوعی ، مسابقه برای استقرار چت بابات ، ژنراتورهای محتوا و ابزارهای حامی تصمیم گیری در طول عملیات خود فرو بردند. به گفته مک کینزی، 78 ٪ از شرکت ها حداقل در یک عملکرد تجاری از AI استفاده می کنند.

دیوانگی اجرای قابل درک است – همه ارزش بالقوه را می بینند. اما در این عجله ، بسیاری از سازمان ها از این واقعیت غافل می شوند که تمام فن آوری های مبتنی بر شبکه عصبی ، از جمله هر سیستم LLM و AI تولیدی که امروزه در حال استفاده هستند و برای آینده ای قابل پیش بینی ، دارای نقص قابل توجهی هستند: آنها غیرقابل پیش بینی و در نهایت غیرقابل کنترل هستند.

همانطور که برخی آموخته اند ، در نتیجه می توان سقوط واقعی داشت. در یکی از نمایندگی های شورولت که یک چت بابات را به وب سایت خود اعزام کرده بود ، مشتری ربات با نیروی چتپپ را متقاعد کرد که 58،195 دلار Chevy Tahoe را فقط با 1 دلار بفروشدبشر مشتری دیگری همان Chatbot را وادار کرد که یک اسکریپت پایتون را برای معادلات پیچیده دینامیک سیال بنویسد ، که با خوشحالی انجام داد. نمایندگی ها پس از ویروسی این حوادث به سرعت رباتها را غیرفعال کردند.

سال گذشته ، ایر کانادا در دادگاه ادعاهای کوچک از دست داد هنگامی که استدلال می کرد که چت بابات آن ، که به مسافر اطلاعات نادرست در مورد تخفیف دلهره می بخشد ، “یک شخص حقوقی جداگانه است که مسئولیت اقدامات خود را بر عهده دارد.”

این غیرقابل پیش بینی بودن ناشی از معماری اساسی LLMS است. آنها آنقدر بزرگ و پیچیده هستند که درک چگونگی رسیدن به پاسخ های خاص یا پیش بینی آنچه تولید می کنند تا زمان تولید یک خروجی غیرممکن است. اکثر سازمان ها بدون اینکه کاملاً آن را تشخیص دهند ، به این مسئله قابلیت اطمینان پاسخ می دهند.

راه حل متداول بررسی نتایج هوش مصنوعی با دست است که کار می کند اما پتانسیل فناوری را به شدت محدود می کند. هنگامی که هوش مصنوعی به عنوان دستیار شخصی به دست می آید – تهیه متن ، گرفتن دقایقی از جلسات ، جمع بندی اسناد و کمک به برنامه نویسی – این امر سود متوسطی را ارائه می دهد. برای انقلابی در اقتصاد کافی نیست.

مزایای واقعی هوش مصنوعی هنگامی که ما از استفاده از آن برای کمک به مشاغل موجود متوقف می شویم و در عوض کل فرآیندها ، سیستم ها و شرکت ها را برای استفاده از هوش مصنوعی بدون درگیری انسان در هر مرحله بازگرداند. پردازش وام را در نظر بگیرید: اگر یک بانک دستیار هوش مصنوعی را به افسران وام می دهد تا برنامه ها را خلاصه کند ، ممکن است سریعتر 20-30 ٪ کار کنند. اما استقرار هوش مصنوعی برای رسیدگی به کل فرایند تصمیم گیری (با ضمانت های مناسب) می تواند بیش از 90 ٪ هزینه ها را کاهش داده و تقریباً تمام زمان پردازش را از بین ببرد. این تفاوت بین بهبود افزایشی و تحول است.

مسیر اجرای AI قابل اعتماد

استفاده از پتانسیل کامل هوش مصنوعی بدون تسلیم شدن در غیرقابل پیش بینی بودن آن ، نیاز به ترکیبی پیچیده از رویکردهای فنی و تفکر استراتژیک دارد. در حالی که چندین روش فعلی راه حل های جزئی ارائه می دهد ، هر کدام محدودیت های قابل توجهی دارند.

برخی از سازمان ها سعی می کنند مسائل مربوط به قابلیت اطمینان را از طریق برهنگی سیستم کاهش دهند – به طور ظریف رفتار هوش مصنوعی را در جهات دلخواه هدایت می کنند ، بنابراین به روش های خاصی به ورودی های خاص پاسخ می دهد. محققان انسان شناسی شکنندگی را نشان دادند از این رویکرد با شناسایی “ویژگی پل گلدن گیت” در شبکه عصبی کلود و با تقویت مصنوعی ، باعث شد که کلود بحران هویت را توسعه دهد. کلود وقتی در مورد شکل فیزیکی آن سؤال شد ، به جای اینکه تصدیق کند که هیچ کدام را ندارد. بودن خود پل گلدن گیت. این آزمایش نشان داد که چگونه می توان عملکرد اصلی یک مدل را به راحتی تغییر داد و هر گنگ نشان دهنده یک تجارت است ، به طور بالقوه یک جنبه عملکرد را در حالی که دیگران را تحقیر می کند ، بهبود می بخشد.

رویکرد دیگر این است که هوش مصنوعی دیگر را کنترل کنید. در حالی که این رویکرد لایه بندی شده می تواند برخی از خطاها را به خود جلب کند ، پیچیدگی اضافی را معرفی می کند و هنوز هم از قابلیت اطمینان جامع برخوردار نیست. نگهبان های کدگذاری شده سخت یک مداخله مستقیم تر هستند ، مانند مسدود کردن پاسخ های حاوی کلمات کلیدی یا الگوهای خاص ، مانند مواد پیش ساز برای سلاح. در حالی که در برابر موضوعات شناخته شده مؤثر است ، این نگهبانان نمی توانند خروجی های مشکل ساز جدید را که از این سیستم های پیچیده پدیدار می شوند ، پیش بینی کنند.

یک رویکرد مؤثرتر ساختن فرآیندهای محور هوش مصنوعی است که می توانند به صورت مستقل کار کنند ، با نظارت انسانی از لحاظ استراتژیک برای دستیابی به مشکلات قابلیت اطمینان قبل از ایجاد مشکلات در دنیای واقعی. شما نمی خواهید AI مستقیماً برنامه های وام را تأیید یا انکار کند ، اما هوش مصنوعی می تواند ارزیابی اولیه را برای بررسی اپراتورهای انسانی انجام دهد. این می تواند مؤثر باشد ، اما به هوشیاری انسان متکی است تا اشتباهات هوش مصنوعی را بدست آورد و سودهای بالقوه را از استفاده از هوش مصنوعی تضعیف کند.

ساختمان برای آینده

این راه حل های جزئی به سمت یک رویکرد جامع تر اشاره می کنند. سازمانهایی که اساساً تجدید نظر می کنند که چگونه کارشان به جای تقویت فرآیندهای موجود با کمک هوش مصنوعی انجام می شود ، بیشترین مزیت را به دست می آورند. اما هوش مصنوعی هرگز نباید آخرین مرحله در یک فرآیند یا تصمیم بالا باشد ، بنابراین بهترین مسیر رو به جلو چیست؟

اول ، هوش مصنوعی یک فرآیند قابل تکرار را ایجاد می کند که با اطمینان و شفاف نتایج مداوم را ارائه می دهد. دوم ، انسان این روند را بررسی می کند تا اطمینان حاصل کند که آنها چگونه کار می کنند و ورودی ها مناسب هستند. سرانجام ، این فرایند به طور خودمختار – با استفاده از AI – با بررسی دوره ای از نتایج انسانی انجام می شود.

صنعت بیمه را در نظر بگیرید. رویکرد متعارف ممکن است دستیاران هوش مصنوعی را برای کمک به ادعای پردازنده ها به کارآمدتر اضافه کند. یک رویکرد انقلابی تر از AI برای توسعه ابزارهای جدید – مانند بینایی رایانه ای که عکس های آسیب دیده یا مدل های تشخیص کلاهبرداری را که الگوهای مشکوک را شناسایی می کنند ، تجزیه و تحلیل می کند و سپس این ابزارها را با سیستم های خودکار که توسط قوانین واضح و قابل درک اداره می شوند ، ترکیب می کنند. انسان به جای پردازش ادعاهای فردی ، این سیستم ها را طراحی و نظارت می کند.

این رویکرد نظارت انسان را در محل بحرانی که بیشترین اهمیت را دارد ، حفظ می کند: طراحی و اعتبار سنجی سیستم. این امر باعث می شود تا در حالی که خطر عدم پیش بینی بودن هوش مصنوعی منجر به نتایج مضر در موارد فردی می شود ، بهره وری نمایی را از بین ببرد.

به عنوان مثال ، یک هوش مصنوعی ممکن است شاخص های بالقوه توانایی بازپرداخت وام را در داده های معامله شناسایی کند. سپس کارشناسان انسانی می توانند این شاخص ها را برای انصاف ارزیابی کرده و مدل های صریح و قابل فهم را برای تأیید قدرت پیش بینی خود بسازند.

این رویکرد در مورد هوش مصنوعی قابل توضیح ، شکاف واضح تری بین سازمانهایی ایجاد می کند که از AI سطحی استفاده می کنند و مواردی که عملیات خود را در اطراف آن تغییر می دهد. دومی به طور فزاینده ای در صنایع خود پیش می رود و قادر به ارائه محصولات و خدمات در نقاط قیمت آنها نیست که رقبای آنها نمی توانند مطابقت داشته باشند.

بر خلاف AI Black-Box AI ، سیستم های AI قابل توضیح اطمینان می دهند که انسان نظارت معنادار بر کاربرد فناوری را حفظ می کند ، آینده ای را ایجاد می کند که هوش مصنوعی پتانسیل های انسانی را به جای اینکه فقط جایگزین کار انسان شود ، افزایش می دهد.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *