پنهان کردن سوگیری در هوش مصنوعی: چالش ها و راه حل ها


پیشرفت اخیر هوش مصنوعی مولد شاهد رونق همراه در برنامه های سازمانی در سراسر صنایع، از جمله مالی، مراقبت های بهداشتی، حمل و نقل بوده است. توسعه این فناوری همچنین منجر به فناوری‌های نوظهور دیگری مانند فناوری‌های دفاعی امنیت سایبری، پیشرفت‌های محاسباتی کوانتومی و تکنیک‌های ارتباطی بی‌سیم خواهد شد. با این حال، این انفجار فناوری های نسل بعدی با مجموعه ای از چالش ها همراه است.

برای مثال، پذیرش هوش مصنوعی ممکن است به دلیل افزایش قدرت محاسباتی و نگرانی‌های اخلاقی ناشی از تعصبات ارائه شده توسط مدل‌های هوش مصنوعی، حملات سایبری پیچیده‌تر، گلوگاه‌های حافظه و ذخیره‌سازی را امکان پذیر کند. خبر خوب این است که تحقیقات NTT راهی برای غلبه بر تعصب در شبکه‌های عصبی عمیق (DNN) ارائه کرده است که نوعی هوش مصنوعی است.

با توجه به اینکه مدل‌های هوش مصنوعی غیر مغرضانه زمانی که تحت تأثیر ویژگی‌هایی مانند نژاد، جنسیت نباشند، به استخدام، سیستم عدالت کیفری و مراقبت‌های بهداشتی کمک می‌کنند، این تحقیق یک پیشرفت مهم است. در آینده تبعیض با استفاده از این نوع سیستم‌های خودکار از بین می‌رود و در نتیجه ابتکارات تجاری DE&I در صنعت را بهبود می‌بخشد. در نهایت، مدل‌های هوش مصنوعی با نتایج غیر مغرضانه، بهره‌وری را بهبود می‌بخشند و زمان انجام این وظایف را کاهش می‌دهند. با این حال، تعداد کمی از کسب و کارها مجبور شده اند برنامه های تولید شده توسط هوش مصنوعی خود را به دلیل راه حل های مغرضانه این فناوری متوقف کنند.

به عنوان مثال، آمازون وقتی متوجه شد که این الگوریتم برای متقاضیانی که بیشتر از کلماتی مانند «اجرا شده» یا «گرفته شده» استفاده می‌کنند، که در رزومه‌های مردانه رایج‌تر بود، ترجیح می‌دهد، استفاده از الگوریتم استخدام را متوقف کرد. یکی دیگر از نمونه های بارز تعصب از جوی بولاموینی می آید، یکی از تاثیرگذارترین افراد در هوش مصنوعی در سال 2023. TIMEبا همکاری تیمنیت گبرو در MIT، نشان داد که فناوری‌های آنالیز چهره نرخ خطای بالاتری را هنگام ارزیابی اقلیت‌ها، به‌ویژه زنان اقلیت، به‌طور بالقوه به دلیل داده‌های آموزشی ناکافی نشان می‌دهند.

اخیراً DNNها در علم، مهندسی و تجارت و حتی در برنامه‌های کاربردی رایج فراگیر شده‌اند، اما گاهی اوقات به ویژگی‌های جعلی متکی هستند که ممکن است سوگیری را منتقل کنند. با توجه به یک مطالعه MIT در چند سال گذشته، دانشمندان شبکه های عصبی عمیقی را توسعه داده اند که قادر به تجزیه و تحلیل مقادیر زیادی از ورودی ها، از جمله صداها و تصاویر هستند. این شبکه‌ها می‌توانند ویژگی‌های مشترک را شناسایی کرده و آنها را قادر می‌سازد تا کلمات یا اشیاء هدف را طبقه‌بندی کنند. در حال حاضر، این مدل‌ها به عنوان مدل‌های اولیه برای همانندسازی سیستم‌های حسی بیولوژیکی در خط مقدم میدان قرار دارند.

هیدنوری تاناکا، دانشمند ارشد و دانشمند ارشد تحقیقات NTT در مرکز علوم مغز دانشگاه هاروارد و سه دانشمند دیگر، غلبه بر محدودیت‌های تنظیم دقیق ساده، روش موجود برای کاهش خطاهای DNN یا “از دست دادن”، با الگوریتم جدیدی که کاهش می‌دهد، پیشنهاد کردند. اتکای یک مدل به ویژگی های مستعد تعصب

آنها مناظر تلفات شبکه عصبی را از طریق لنز اتصال حالت مورد مطالعه قرار دادند، این مشاهدات که حداقل سازهای شبکه های عصبی بازیابی شده از طریق آموزش روی یک مجموعه داده از طریق مسیرهای ساده با تلفات کم به هم متصل می شوند. به طور خاص، آنها این سوال را مطرح کردند: آیا مینیینه‌کننده‌هایی که به مکانیسم‌های مختلفی برای پیش‌بینی‌های خود متکی هستند، از طریق مسیرهای ساده با تلفات کم به هم متصل هستند؟

آنها دریافتند که تنظیم دقیق ساده‌ای نمی‌تواند اساساً مکانیسم تصمیم‌گیری یک مدل را تغییر دهد، زیرا نیاز به حرکت به دره‌ای متفاوت در چشم‌انداز از دست دادن دارد. درعوض، باید مدل را از روی موانعی که «سینک‌ها» یا «دره‌های» کم تلفات را از هم جدا می‌کنند، هدایت کنید. نویسندگان این الگوریتم اصلاحی را تنظیم دقیق مبتنی بر اتصال (CBFT) می نامند.

قبل از این توسعه، یک DNN که تصاویری مانند ماهی را طبقه بندی می کند (تصویر مورد استفاده در این مطالعه) از شکل شی و پس زمینه به عنوان پارامترهای ورودی برای پیش بینی استفاده می کرد. بنابراین، مسیرهای کاهش تلفات آن در حالت‌های مکانیکی متفاوت عمل می‌کنند: یکی با تکیه بر ویژگی مشروع شکل، و دیگری بر ویژگی جعلی رنگ پس‌زمینه. به این ترتیب، این حالت ها فاقد اتصال خطی یا یک مسیر ساده با تلفات کم هستند.

تیم تحقیقاتی با در نظر گرفتن دو مجموعه از پارامترهایی که با استفاده از پس‌زمینه و اشکال شیء به‌عنوان ویژگی‌های ورودی برای پیش‌بینی، تلفات را به حداقل می‌رسانند، اتصال لنزهای مکانیکی در حالت را درک می‌کنند. و سپس از خود پرسیدند، آیا چنین مینیمینه سازهای مکانیکی متفاوتی از طریق مسیرهایی با تلفات کم در چشم انداز متصل می شوند؟ آیا عدم تشابه این مکانیسم ها بر سادگی مسیرهای اتصال آنها تأثیر می گذارد؟ آیا می‌توانیم از این اتصال برای جابه‌جایی بین حداقل‌سازهایی که از مکانیسم‌های مورد نظر ما استفاده می‌کنند استفاده کنیم؟

به عبارت دیگر، شبکه‌های عصبی عمیق، بسته به آنچه که در طول آموزش روی یک مجموعه داده خاص دریافت کرده‌اند، زمانی که آنها را روی مجموعه داده دیگری آزمایش می‌کنید، می‌توانند بسیار متفاوت رفتار کنند. پیشنهاد تیم به مفهوم شباهت های مشترک خلاصه می شد. این بر اساس ایده قبلی اتصال حالت است، اما با یک پیچ – نحوه عملکرد مکانیسم های مشابه را در نظر می گیرد. تحقیقات آنها به اکتشافات خیره کننده زیر منجر شد:

  • حداقل سازهایی که مکانیسم های متفاوتی دارند می توانند به روشی نسبتاً پیچیده و غیر خطی متصل شوند
  • وقتی دو مینیمینه ساز به صورت خطی به هم متصل می شوند، این موضوع به شدت به شباهت مدل های آنها از نظر مکانیزم بستگی دارد.
  • تنظیم دقیق ساده ممکن است برای خلاص شدن از شر ویژگی های ناخواسته ای که در طول آموزش قبلی انتخاب شده اند کافی نباشد
  • اگر مناطقی را بیابید که به صورت خطی در چشم انداز قطع شده اند، می توانید تغییرات موثری در عملکرد داخلی یک مدل ایجاد کنید.

در حالی که این تحقیق گام بزرگی در استفاده از پتانسیل کامل هوش مصنوعی است، نگرانی های اخلاقی در مورد هوش مصنوعی ممکن است همچنان یک نبرد صعودی باشد. فن‌آوران و محققان در تلاشند تا با دیگر ضعف‌های اخلاقی در هوش مصنوعی و دیگر مدل‌های زبان بزرگ مانند حریم خصوصی، استقلال، مسئولیت مبارزه کنند.

از هوش مصنوعی می توان برای جمع آوری و پردازش مقادیر زیادی از داده های شخصی استفاده کرد. استفاده غیرمجاز یا غیراخلاقی از این داده ها می تواند حریم خصوصی افراد را به خطر بیندازد و منجر به نگرانی در مورد نظارت، نقض داده ها و سرقت هویت شود. هوش مصنوعی همچنین می تواند تهدیدی برای مسئولیت برنامه های خودران آنها مانند اتومبیل های خودران باشد. ایجاد چارچوب های قانونی و استانداردهای اخلاقی برای پاسخگویی و مسئولیت در سال های آینده ضروری خواهد بود.

در نتیجه، رشد سریع فناوری هوش مصنوعی مولد برای صنایع مختلف، از امور مالی و مراقبت های بهداشتی گرفته تا حمل و نقل، نویدبخش است. علیرغم این پیشرفت‌های امیدوارکننده، نگرانی‌های اخلاقی پیرامون هوش مصنوعی همچنان قابل توجه است. همانطور که ما در این دوره تحول‌آفرین هوش مصنوعی حرکت می‌کنیم، برای فن‌آوران، محققان و سیاست‌گذاران برای ایجاد چارچوب‌های قانونی و استانداردهای اخلاقی که استفاده مسئولانه و سودمند از فناوری هوش مصنوعی را در سال‌های آینده تضمین می‌کند، حیاتی است. دانشمندان در NTT Research و دانشگاه میشیگان با پیشنهاد خود برای الگوریتمی که به طور بالقوه می تواند سوگیری ها را در هوش مصنوعی حذف کند، یک قدم جلوتر از بازی هستند.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *