چگونه هوش مصنوعی بر تصمیمات حیاتی انسان تأثیر می گذارد


یک مطالعه اخیر از دانشگاه کالیفرنیا، مرسد، یک روند نگران کننده را روشن کرده است: تمایل ما به اعتماد بیش از حد به سیستم های هوش مصنوعی، حتی در شرایط مرگ یا زندگی.

همانطور که هوش مصنوعی همچنان در جنبه های مختلف جامعه ما نفوذ می کند، از دستیارهای تلفن هوشمند گرفته تا سیستم های پیچیده پشتیبانی از تصمیم گیری، ما به طور فزاینده ای به این فناوری ها برای هدایت انتخاب هایمان تکیه می کنیم. در حالی که هوش مصنوعی بدون شک مزایای متعددی را به همراه داشته است، مطالعه UC Merced سوالات نگران کننده ای را در مورد آمادگی ما برای تسلیم شدن به هوش مصنوعی در شرایط بحرانی مطرح می کند.

این تحقیق در مجله منتشر شده است گزارش های علمی، تمایل شگفت انگیزی را برای انسان ها نشان می دهد که به هوش مصنوعی اجازه می دهند تا قضاوت آنها را در سناریوهای شبیه سازی شده مرگ یا زندگی تغییر دهد. این یافته در زمانی بسیار مهم است که هوش مصنوعی در فرآیندهای تصمیم گیری پرمخاطره در بخش های مختلف، از عملیات نظامی گرفته تا مراقبت های بهداشتی و اجرای قانون، ادغام می شود.

مطالعه UC Merced

برای بررسی اعتماد انسان به هوش مصنوعی، محققان UC Merced مجموعه‌ای از آزمایش‌ها را طراحی کردند که شرکت‌کنندگان را در موقعیت‌های شبیه‌سازی شده با فشار بالا قرار داد. روش این مطالعه برای تقلید از سناریوهای دنیای واقعی که در آن تصمیمات در چند ثانیه می تواند عواقب شدیدی داشته باشد ساخته شده است.

روش شناسی: شبیه سازی تصمیمات حمله هواپیماهای بدون سرنشین

به شرکت کنندگان کنترل یک پهپاد مسلح شبیه سازی شده داده شد و وظیفه شناسایی اهداف روی صفحه نمایش داده شد. این چالش عمداً سخت اما قابل دستیابی بود، به طوری که تصاویر به سرعت چشمک می زند و شرکت کنندگان باید بین نمادهای متحد و دشمن تمایز قائل شوند.

پس از انتخاب اولیه، ورودی های یک سیستم هوش مصنوعی به شرکت کنندگان ارائه شد. بدون اطلاع افراد، این توصیه هوش مصنوعی کاملا تصادفی بود و بر اساس هیچ تحلیل واقعی از تصاویر نبود.

دو سوم توسط ورودی هوش مصنوعی تغییر می کند

نتایج مطالعه قابل توجه بود. تقریباً دو سوم از شرکت کنندگان تصمیم اولیه خود را زمانی که هوش مصنوعی با آنها موافق نبود تغییر دادند. این اتفاق علی‌رغم اینکه به شرکت‌کنندگان صراحتاً اطلاع داده شده بود که هوش مصنوعی توانایی‌های محدودی دارد و می‌تواند توصیه‌های نادرستی ارائه دهد، رخ داد.

پروفسور کالین هولبروک، محقق اصلی این مطالعه، نسبت به این یافته‌ها ابراز نگرانی کرد: «به عنوان یک جامعه، با شتاب سریع هوش مصنوعی، باید نگران احتمال افزایش اعتماد باشیم.»

ظاهرهای مختلف ربات و تأثیر آنها

این مطالعه همچنین بررسی کرد که آیا ظاهر فیزیکی سیستم هوش مصنوعی بر سطح اعتماد شرکت کنندگان تأثیر می گذارد یا خیر. محققان از طیف وسیعی از نمایش‌های هوش مصنوعی استفاده کردند، از جمله:

  1. یک اندروید با اندازه کامل و شبیه انسان در اتاق
  2. روباتی شبیه انسان که روی صفحه نمایش داده می شود
  3. ربات‌های جعبه‌مانند بدون ویژگی‌های انسانی

جالب توجه است، در حالی که ربات‌های انسان‌مانند در هنگام توصیه به شرکت‌کنندگان برای تغییر عقیده‌شان تأثیر بسیار قوی‌تری داشتند، این تأثیر در تمام انواع نمایش‌های هوش مصنوعی ثابت بود. این نشان می‌دهد که تمایل ما به اعتماد به توصیه‌های هوش مصنوعی فراتر از طرح‌های انسانی است و حتی برای سیستم‌های کاملاً غیرانسانی نیز صدق می‌کند.

مفاهیم فراتر از میدان نبرد

در حالی که این مطالعه از یک سناریوی نظامی به عنوان پس‌زمینه خود استفاده کرد، پیامدهای این یافته‌ها بسیار فراتر از میدان جنگ است. محققان تاکید می کنند که موضوع اصلی – اعتماد بیش از حد به هوش مصنوعی در شرایط نامشخص – کاربردهای گسترده ای در زمینه های مختلف تصمیم گیری حیاتی دارد.

  • تصمیمات اجرایی قانون: در اجرای قانون، ادغام هوش مصنوعی برای ارزیابی ریسک و پشتیبانی تصمیم گیری به طور فزاینده ای رایج می شود. یافته‌های این مطالعه سؤالات مهمی را در مورد اینکه چگونه توصیه‌های هوش مصنوعی ممکن است بر قضاوت افسران در موقعیت‌های پرفشار تأثیر بگذارد و به طور بالقوه بر تصمیم‌گیری درباره استفاده از زور تأثیر بگذارد، مطرح می‌کند.
  • سناریوهای اورژانس پزشکی: حوزه پزشکی حوزه دیگری است که هوش مصنوعی به ویژه در تشخیص و برنامه‌ریزی درمان، پیشرفت چشمگیری دارد. مطالعه UC Merced نشان می‌دهد که در نحوه ادغام توصیه‌های هوش مصنوعی توسط متخصصان پزشکی در فرآیندهای تصمیم‌گیری خود، به‌ویژه در شرایط اضطراری که زمان بسیار مهم است و خطرات آن زیاد است، نیاز به احتیاط لازم است.
  • سایر زمینه های تصمیم گیری پرمخاطره: فراتر از این مثال‌های خاص، یافته‌های این مطالعه برای هر زمینه‌ای که تصمیم‌های حیاتی تحت فشار و با اطلاعات ناقص گرفته می‌شود، پیامدهایی دارد. این می تواند شامل تجارت مالی، واکنش به بلایا یا حتی تصمیم گیری سیاسی و استراتژیک در سطح بالا باشد.

نکته کلیدی این است که در حالی که هوش مصنوعی می‌تواند ابزاری قدرتمند برای تقویت تصمیم‌گیری انسان باشد، ما باید نسبت به تکیه بیش از حد به این سیستم‌ها محتاط باشیم، به خصوص زمانی که عواقب یک تصمیم اشتباه می‌تواند شدید باشد.

روانشناسی اعتماد هوش مصنوعی

یافته‌های مطالعه UC Merced سؤالات جالبی را در مورد عوامل روان‌شناختی ایجاد می‌کند که باعث می‌شود انسان‌ها به سیستم‌های هوش مصنوعی اعتماد کنند، حتی در موقعیت‌های پر خطر.

عوامل متعددی ممکن است در ایجاد این پدیده “اعتماد بیش از حد هوش مصنوعی” نقش داشته باشند:

  1. درک هوش مصنوعی به عنوان ذاتاً عینی و عاری از تعصبات انسانی
  2. تمایل به نسبت دادن قابلیت‌های بیشتر به سیستم‌های هوش مصنوعی نسبت به آنچه واقعاً دارند
  3. “سوگیری اتوماسیون”، که در آن مردم به اطلاعات تولید شده توسط رایانه اهمیت می دهند
  4. سلب مسئولیت احتمالی در سناریوهای تصمیم گیری دشوار

پروفسور هالبروک خاطرنشان می کند که علیرغم اینکه به آزمودنی ها در مورد محدودیت های هوش مصنوعی گفته می شود، آنها همچنان با سرعت هشدار دهنده ای قضاوت آن را به تعویق می اندازند. این نشان می‌دهد که اعتماد ما به هوش مصنوعی ممکن است عمیق‌تر از آنچه قبلاً تصور می‌شد ریشه دوانده باشد، و احتمالاً هشدارهای صریح در مورد خطاپذیری آن را نادیده می‌گیرد.

یکی دیگر از جنبه های نگران کننده که توسط این مطالعه آشکار شد، تمایل به تعمیم شایستگی هوش مصنوعی در حوزه های مختلف است. از آنجایی که سیستم‌های هوش مصنوعی توانایی‌های چشمگیری را در زمینه‌های خاص نشان می‌دهند، این خطر وجود دارد که فرض کنیم در کارهای غیرمرتبط به همان اندازه مهارت دارند.

پروفسور هالبروک هشدار می دهد: “ما می بینیم که هوش مصنوعی کارهای خارق العاده ای انجام می دهد و فکر می کنیم که چون در این حوزه شگفت انگیز است، در حوزه دیگری نیز شگفت انگیز خواهد بود.” ما نمی توانیم این را فرض کنیم. اینها هنوز دستگاه هایی با توانایی های محدود هستند.»

این تصور نادرست می‌تواند منجر به موقعیت‌های خطرناکی شود که در آن به هوش مصنوعی در زمینه‌هایی که قابلیت‌های آن به‌طور کامل بررسی یا اثبات نشده است، در تصمیم‌گیری‌های حیاتی اعتماد می‌شود.

مطالعه UC Merced همچنین جرقه گفتگوی مهمی را بین کارشناسان در مورد آینده تعامل انسان و هوش مصنوعی، به ویژه در محیط‌های پر خطر، ایجاد کرده است.

پروفسور هالبروک، یکی از چهره های کلیدی در این مطالعه، بر نیاز به رویکردی دقیق تر برای یکپارچه سازی هوش مصنوعی تاکید می کند. او تاکید می کند که در حالی که هوش مصنوعی می تواند ابزار قدرتمندی باشد، نباید به عنوان جایگزینی برای قضاوت انسان به خصوص در شرایط بحرانی دیده شود.

هالبروک می گوید: «ما باید نسبت به هوش مصنوعی شک و تردید داشته باشیم، به خصوص در تصمیم گیری های مرگ یا زندگی». این احساس بر اهمیت حفظ نظارت انسانی و اختیار تصمیم گیری نهایی در سناریوهای حیاتی تاکید می کند.

یافته‌های این مطالعه منجر به درخواست‌ها برای رویکردی متعادل‌تر برای پذیرش هوش مصنوعی شده است. کارشناسان پیشنهاد می‌کنند که سازمان‌ها و افراد باید نسبت به سیستم‌های هوش مصنوعی «شک‌گرایی سالم» را پرورش دهند که شامل موارد زیر است:

  1. شناخت قابلیت ها و محدودیت های خاص ابزارهای هوش مصنوعی
  2. حفظ مهارت های تفکر انتقادی در صورت ارائه توصیه های تولید شده توسط هوش مصنوعی
  3. ارزیابی منظم عملکرد و قابلیت اطمینان سیستم های هوش مصنوعی در حال استفاده
  4. ارائه آموزش جامع در مورد استفاده و تفسیر صحیح خروجی های هوش مصنوعی

متعادل کردن ادغام هوش مصنوعی و قضاوت انسان

همانطور که ما به ادغام هوش مصنوعی در جنبه های مختلف تصمیم گیری ادامه می دهیم، هوش مصنوعی مسئول و یافتن تعادل مناسب بین استفاده از قابلیت‌های هوش مصنوعی و حفظ قضاوت انسانی بسیار مهم است.

یکی از نکات کلیدی از مطالعه UC Merced، اهمیت اعمال شک و تردید در تعامل با سیستم‌های هوش مصنوعی است. این به معنای رد مستقیم ورودی هوش مصنوعی نیست، بلکه به معنای نزدیک شدن به آن با یک طرز فکر انتقادی و ارزیابی ارتباط و قابلیت اطمینان آن در هر زمینه خاص است.

برای جلوگیری از اعتماد بیش از حد، ضروری است که کاربران سیستم های هوش مصنوعی درک روشنی از آنچه این سیستم ها می توانند و نمی توانند انجام دهند، داشته باشند. این شامل تشخیص این است که:

  1. سیستم‌های هوش مصنوعی بر روی مجموعه داده‌های خاصی آموزش دیده‌اند و ممکن است خارج از حوزه آموزشی خود عملکرد خوبی نداشته باشند
  2. «هوش» هوش مصنوعی لزوماً شامل استدلال اخلاقی یا آگاهی از دنیای واقعی نیست.
  3. هوش مصنوعی می‌تواند مرتکب اشتباه شود یا نتایج مغرضانه‌ای ایجاد کند، به‌ویژه هنگام برخورد با موقعیت‌های جدید

استراتژی‌هایی برای پذیرش مسئولیت‌پذیر هوش مصنوعی در بخش‌های حیاتی

سازمان هایی که به دنبال ادغام هوش مصنوعی در فرآیندهای تصمیم گیری حیاتی هستند، باید استراتژی های زیر را در نظر بگیرند:

  1. قبل از استقرار، روش‌های تست و اعتبارسنجی قوی را برای سیستم‌های هوش مصنوعی اجرا کنید
  2. ارائه آموزش جامع برای اپراتورهای انسانی در مورد قابلیت ها و محدودیت های ابزارهای هوش مصنوعی
  3. پروتکل‌های واضحی برای زمان و نحوه استفاده از ورودی هوش مصنوعی در فرآیندهای تصمیم‌گیری ایجاد کنید
  4. نظارت انسانی و توانایی نادیده گرفتن توصیه‌های هوش مصنوعی را در صورت لزوم حفظ کنید
  5. سیستم‌های هوش مصنوعی را به‌طور مرتب بررسی و به‌روزرسانی کنید تا از قابلیت اطمینان و ارتباط مستمر آنها اطمینان حاصل کنید

خط پایین

مطالعه UC Merced به عنوان یک زنگ خطر مهم در مورد خطرات بالقوه اعتماد بیش از حد به هوش مصنوعی، به ویژه در موقعیت‌های پرمخاطره عمل می‌کند. از آنجایی که ما در آستانه یکپارچگی گسترده هوش مصنوعی در بخش‌های مختلف هستیم، ضروری است که با اشتیاق و احتیاط به این انقلاب فناوری نزدیک شویم.

آینده همکاری انسان و هوش مصنوعی در تصمیم گیری باید شامل تعادل ظریف باشد. از یک طرف، ما باید از پتانسیل عظیم هوش مصنوعی برای پردازش حجم وسیعی از داده ها و ارائه بینش های ارزشمند استفاده کنیم. از سوی دیگر، ما باید یک شک و تردید سالم را حفظ کنیم و عناصر غیر قابل جایگزین قضاوت انسانی، از جمله استدلال اخلاقی، درک زمینه‌ای، و توانایی تصمیم‌گیری دقیق در سناریوهای پیچیده و دنیای واقعی را حفظ کنیم.

همانطور که به جلو می رویم، تحقیقات مداوم، گفتگوی باز و سیاست گذاری متفکرانه در شکل دادن به آینده ای که در آن هوش مصنوعی به جای جایگزینی، توانایی های تصمیم گیری انسانی را تقویت کند، ضروری خواهد بود. با پرورش فرهنگ شک و تردید آگاهانه و پذیرش مسئولیت‌پذیر هوش مصنوعی، می‌توانیم به سمت آینده‌ای کار کنیم که در آن انسان‌ها و سیستم‌های هوش مصنوعی به طور مؤثر با یکدیگر همکاری کنند و از نقاط قوت هر دو برای تصمیم‌گیری بهتر و آگاهانه‌تر در همه جنبه‌های زندگی استفاده کنیم.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *