پیشرفت اخیر هوش مصنوعی مولد شاهد رونق همراه در برنامه های سازمانی در سراسر صنایع، از جمله مالی، مراقبت های بهداشتی، حمل و نقل بوده است. توسعه این فناوری همچنین منجر به فناوریهای نوظهور دیگری مانند فناوریهای دفاعی امنیت سایبری، پیشرفتهای محاسباتی کوانتومی و تکنیکهای ارتباطی بیسیم خواهد شد. با این حال، این انفجار فناوری های نسل بعدی با مجموعه ای از چالش ها همراه است.
برای مثال، پذیرش هوش مصنوعی ممکن است به دلیل افزایش قدرت محاسباتی و نگرانیهای اخلاقی ناشی از تعصبات ارائه شده توسط مدلهای هوش مصنوعی، حملات سایبری پیچیدهتر، گلوگاههای حافظه و ذخیرهسازی را امکان پذیر کند. خبر خوب این است که تحقیقات NTT راهی برای غلبه بر تعصب در شبکههای عصبی عمیق (DNN) ارائه کرده است که نوعی هوش مصنوعی است.
با توجه به اینکه مدلهای هوش مصنوعی غیر مغرضانه زمانی که تحت تأثیر ویژگیهایی مانند نژاد، جنسیت نباشند، به استخدام، سیستم عدالت کیفری و مراقبتهای بهداشتی کمک میکنند، این تحقیق یک پیشرفت مهم است. در آینده تبعیض با استفاده از این نوع سیستمهای خودکار از بین میرود و در نتیجه ابتکارات تجاری DE&I در صنعت را بهبود میبخشد. در نهایت، مدلهای هوش مصنوعی با نتایج غیر مغرضانه، بهرهوری را بهبود میبخشند و زمان انجام این وظایف را کاهش میدهند. با این حال، تعداد کمی از کسب و کارها مجبور شده اند برنامه های تولید شده توسط هوش مصنوعی خود را به دلیل راه حل های مغرضانه این فناوری متوقف کنند.
به عنوان مثال، آمازون وقتی متوجه شد که این الگوریتم برای متقاضیانی که بیشتر از کلماتی مانند «اجرا شده» یا «گرفته شده» استفاده میکنند، که در رزومههای مردانه رایجتر بود، ترجیح میدهد، استفاده از الگوریتم استخدام را متوقف کرد. یکی دیگر از نمونه های بارز تعصب از جوی بولاموینی می آید، یکی از تاثیرگذارترین افراد در هوش مصنوعی در سال 2023. TIMEبا همکاری تیمنیت گبرو در MIT، نشان داد که فناوریهای آنالیز چهره نرخ خطای بالاتری را هنگام ارزیابی اقلیتها، بهویژه زنان اقلیت، بهطور بالقوه به دلیل دادههای آموزشی ناکافی نشان میدهند.
اخیراً DNNها در علم، مهندسی و تجارت و حتی در برنامههای کاربردی رایج فراگیر شدهاند، اما گاهی اوقات به ویژگیهای جعلی متکی هستند که ممکن است سوگیری را منتقل کنند. با توجه به یک مطالعه MIT در چند سال گذشته، دانشمندان شبکه های عصبی عمیقی را توسعه داده اند که قادر به تجزیه و تحلیل مقادیر زیادی از ورودی ها، از جمله صداها و تصاویر هستند. این شبکهها میتوانند ویژگیهای مشترک را شناسایی کرده و آنها را قادر میسازد تا کلمات یا اشیاء هدف را طبقهبندی کنند. در حال حاضر، این مدلها به عنوان مدلهای اولیه برای همانندسازی سیستمهای حسی بیولوژیکی در خط مقدم میدان قرار دارند.
هیدنوری تاناکا، دانشمند ارشد و دانشمند ارشد تحقیقات NTT در مرکز علوم مغز دانشگاه هاروارد و سه دانشمند دیگر، غلبه بر محدودیتهای تنظیم دقیق ساده، روش موجود برای کاهش خطاهای DNN یا “از دست دادن”، با الگوریتم جدیدی که کاهش میدهد، پیشنهاد کردند. اتکای یک مدل به ویژگی های مستعد تعصب
آنها مناظر تلفات شبکه عصبی را از طریق لنز اتصال حالت مورد مطالعه قرار دادند، این مشاهدات که حداقل سازهای شبکه های عصبی بازیابی شده از طریق آموزش روی یک مجموعه داده از طریق مسیرهای ساده با تلفات کم به هم متصل می شوند. به طور خاص، آنها این سوال را مطرح کردند: آیا مینیینهکنندههایی که به مکانیسمهای مختلفی برای پیشبینیهای خود متکی هستند، از طریق مسیرهای ساده با تلفات کم به هم متصل هستند؟
آنها دریافتند که تنظیم دقیق سادهای نمیتواند اساساً مکانیسم تصمیمگیری یک مدل را تغییر دهد، زیرا نیاز به حرکت به درهای متفاوت در چشمانداز از دست دادن دارد. درعوض، باید مدل را از روی موانعی که «سینکها» یا «درههای» کم تلفات را از هم جدا میکنند، هدایت کنید. نویسندگان این الگوریتم اصلاحی را تنظیم دقیق مبتنی بر اتصال (CBFT) می نامند.
قبل از این توسعه، یک DNN که تصاویری مانند ماهی را طبقه بندی می کند (تصویر مورد استفاده در این مطالعه) از شکل شی و پس زمینه به عنوان پارامترهای ورودی برای پیش بینی استفاده می کرد. بنابراین، مسیرهای کاهش تلفات آن در حالتهای مکانیکی متفاوت عمل میکنند: یکی با تکیه بر ویژگی مشروع شکل، و دیگری بر ویژگی جعلی رنگ پسزمینه. به این ترتیب، این حالت ها فاقد اتصال خطی یا یک مسیر ساده با تلفات کم هستند.
تیم تحقیقاتی با در نظر گرفتن دو مجموعه از پارامترهایی که با استفاده از پسزمینه و اشکال شیء بهعنوان ویژگیهای ورودی برای پیشبینی، تلفات را به حداقل میرسانند، اتصال لنزهای مکانیکی در حالت را درک میکنند. و سپس از خود پرسیدند، آیا چنین مینیمینه سازهای مکانیکی متفاوتی از طریق مسیرهایی با تلفات کم در چشم انداز متصل می شوند؟ آیا عدم تشابه این مکانیسم ها بر سادگی مسیرهای اتصال آنها تأثیر می گذارد؟ آیا میتوانیم از این اتصال برای جابهجایی بین حداقلسازهایی که از مکانیسمهای مورد نظر ما استفاده میکنند استفاده کنیم؟
به عبارت دیگر، شبکههای عصبی عمیق، بسته به آنچه که در طول آموزش روی یک مجموعه داده خاص دریافت کردهاند، زمانی که آنها را روی مجموعه داده دیگری آزمایش میکنید، میتوانند بسیار متفاوت رفتار کنند. پیشنهاد تیم به مفهوم شباهت های مشترک خلاصه می شد. این بر اساس ایده قبلی اتصال حالت است، اما با یک پیچ – نحوه عملکرد مکانیسم های مشابه را در نظر می گیرد. تحقیقات آنها به اکتشافات خیره کننده زیر منجر شد:
- حداقل سازهایی که مکانیسم های متفاوتی دارند می توانند به روشی نسبتاً پیچیده و غیر خطی متصل شوند
- وقتی دو مینیمینه ساز به صورت خطی به هم متصل می شوند، این موضوع به شدت به شباهت مدل های آنها از نظر مکانیزم بستگی دارد.
- تنظیم دقیق ساده ممکن است برای خلاص شدن از شر ویژگی های ناخواسته ای که در طول آموزش قبلی انتخاب شده اند کافی نباشد
- اگر مناطقی را بیابید که به صورت خطی در چشم انداز قطع شده اند، می توانید تغییرات موثری در عملکرد داخلی یک مدل ایجاد کنید.
در حالی که این تحقیق گام بزرگی در استفاده از پتانسیل کامل هوش مصنوعی است، نگرانی های اخلاقی در مورد هوش مصنوعی ممکن است همچنان یک نبرد صعودی باشد. فنآوران و محققان در تلاشند تا با دیگر ضعفهای اخلاقی در هوش مصنوعی و دیگر مدلهای زبان بزرگ مانند حریم خصوصی، استقلال، مسئولیت مبارزه کنند.
از هوش مصنوعی می توان برای جمع آوری و پردازش مقادیر زیادی از داده های شخصی استفاده کرد. استفاده غیرمجاز یا غیراخلاقی از این داده ها می تواند حریم خصوصی افراد را به خطر بیندازد و منجر به نگرانی در مورد نظارت، نقض داده ها و سرقت هویت شود. هوش مصنوعی همچنین می تواند تهدیدی برای مسئولیت برنامه های خودران آنها مانند اتومبیل های خودران باشد. ایجاد چارچوب های قانونی و استانداردهای اخلاقی برای پاسخگویی و مسئولیت در سال های آینده ضروری خواهد بود.
در نتیجه، رشد سریع فناوری هوش مصنوعی مولد برای صنایع مختلف، از امور مالی و مراقبت های بهداشتی گرفته تا حمل و نقل، نویدبخش است. علیرغم این پیشرفتهای امیدوارکننده، نگرانیهای اخلاقی پیرامون هوش مصنوعی همچنان قابل توجه است. همانطور که ما در این دوره تحولآفرین هوش مصنوعی حرکت میکنیم، برای فنآوران، محققان و سیاستگذاران برای ایجاد چارچوبهای قانونی و استانداردهای اخلاقی که استفاده مسئولانه و سودمند از فناوری هوش مصنوعی را در سالهای آینده تضمین میکند، حیاتی است. دانشمندان در NTT Research و دانشگاه میشیگان با پیشنهاد خود برای الگوریتمی که به طور بالقوه می تواند سوگیری ها را در هوش مصنوعی حذف کند، یک قدم جلوتر از بازی هستند.