فراخوانی برای تعدیل انسان‌سازی در پلتفرم‌های هوش مصنوعی


نظر هیچ کس در داستان تخیلی جنگ ستارگان جهان هوش مصنوعی را جدی می گیرد در جدول زمانی تاریخی انسانی مجموعه 47 ساله علمی-فانتزی جورج لوکاس، تهدیدات ناشی از تکینگی ها و آگاهی یادگیری ماشینی وجود ندارد و هوش مصنوعی محدود به روبات های متحرک مستقل است.“droids”) – که معمولاً توسط قهرمانان به عنوان «ماشین» صرف رد می شوند.

با این حال بسیاری از جنگ ستارگان روبات‌ها بسیار انسان‌ساز هستند، به وضوح برای تعامل با مردم، مشارکت در فرهنگ «ارگانیک» و استفاده از شبیه‌سازی حالت عاطفی خود برای پیوند با مردم طراحی شده‌اند. ظاهراً این قابلیت‌ها برای کمک به آنها برای به دست آوردن مزیتی برای خود یا حتی تضمین بقای خود طراحی شده‌اند.

مردم “واقعی” از جنگ ستارگان به نظر می رسد نسبت به این تاکتیک ها بی توجه است. در یک مدل فرهنگی بدبینانه که ظاهراً از دوره‌های مختلف برده‌داری در سراسر امپراتوری روم و اوایل ایالات متحده الهام گرفته شده است، لوک اسکای‌واکر در خرید و مهار روبات‌ها در زمینه بردگان تردیدی ندارد. آناکین اسکای واکر کودک پروژه نیمه کاره C3PO خود را مانند یک اسباب بازی دوست داشتنی رها می کند. و R2D2 “شجاع” در اثر آسیبی که در طول حمله به ستاره مرگ تقریباً مرده است، همان نگرانی لوک را به عنوان یک حیوان خانگی زخمی دریافت می کند.

این یک برداشت بسیار دهه 1970 از هوش مصنوعی است*. اما از آنجایی که نوستالژی و قانون حکم می کند که سه گانه اصلی 1977-1983 الگویی برای دنباله ها، پیش درآمدها و برنامه های تلویزیونی بعدی باقی بماند، این بی احساسی انسان نسبت به هوش مصنوعی، حتی در مواجهه با رشد روزافزون این فرنچایز، یک خط میانی انعطاف پذیر برای این فرنچایز بوده است. صفحه نمایش های تلویزیونی و فیلم ها (مانند او و سابق ماشین) که هبوط ما را به یک رابطه انسانی با هوش مصنوعی نشان می دهد.

آن را واقعی نگه دارید

ارگانیک را انجام دهید جنگ ستارگان شخصیت ها واقعا نگرش درستی دارند؟ در حال حاضر این یک فکر رایج نیست، در یک فضای تجاری که به سختی بر روی حداکثر تعامل با سرمایه گذاران تنظیم شده است، معمولاً از طریق نمایش ویروسی شبیه سازی بصری یا متنی از دنیای واقعی، یا سیستم های تعاملی انسان مانند مانند مدل های زبان بزرگ (LLMs). ).

با این حال، جدید و مختصر کاغذ از استنفورد، کارنگی ملون و تحقیقات مایکروسافت، بی‌تفاوتی در مورد انسان‌سازی در هوش مصنوعی را هدف قرار داده است.

نویسندگان، «گرده افشانی متقاطع» بین ارتباطات انسانی و مصنوعی را به عنوان یک آسیب بالقوه که باید فوراً کاهش یابد، به دلایل متعدد توصیف می کنند. :

‘[We] معتقدیم که ما باید برای توسعه دانش و ابزارها برای مقابله بهتر با رفتارهای انسانی، از جمله اندازه‌گیری و کاهش رفتارهای سیستمی در زمانی که نامطلوب تلقی می‌شوند، کارهای بیشتری انجام دهیم.

انجام این کار بسیار مهم است زیرا – در میان بسیاری از نگرانی‌های دیگر – داشتن سیستم‌های هوش مصنوعی که محتوایی را تولید می‌کنند که ادعا می‌کند به عنوان مثال، احساسات، درک، اراده آزاد یا احساسی از خود دارند، ممکن است باعث فرسایش افراد شود. حس عاملیت، در نتیجه ممکن است افراد در نهایت مسئولیت اخلاقی را نسبت دهند به سیستم ها، بیش از حد قابلیت های سیستم، یا اتکای بیش از حد به این سیستم ها حتی در صورت نادرست بودن.

مشارکت کنندگان توضیح می دهند که آنها در حال بحث در مورد سیستم هایی هستند که هستند درک شده است شبیه انسان بودن و تمرکز حول پتانسیل ها قصد توسعه دهندگان برای تقویت انسان گرایی در سیستم های ماشینی

نگرانی در قلب مقاله کوتاه این است که افراد ممکن است وابستگی عاطفی به سیستم های مبتنی بر هوش مصنوعی پیدا کنند – همانطور که در مطالعه 2022 در پلتفرم چت ربات هوش مصنوعی نسل ماکت) – که به طور فعال فاکسی غنی از اصطلاحات از ارتباطات انسانی را ارائه می دهد.

سیستم هایی مانند Replika هدف احتیاط نویسندگان هستند و آنها خاطرنشان می کنند که سال 2022 بیشتر کاغذ در Replika ادعا کرد:

‘[U]در شرایط پریشانی و فقدان همراهی انسانی، افراد می‌توانند به چت‌بات‌های اجتماعی دلبستگی پیدا کنند، اگر پاسخ‌های چت‌ربات‌ها را برای ارائه حمایت عاطفی، تشویق و امنیت روانی درک کنند.

این یافته‌ها نشان می‌دهد که چت‌بات‌های اجتماعی می‌توانند برای سلامت روان و اهداف درمانی استفاده شوند، اما پتانسیل ایجاد اعتیاد و آسیب رساندن به روابط صمیمانه واقعی را دارند.

زبان انسان زدایی شده؟

کار جدید استدلال می‌کند که پتانسیل هوش مصنوعی مولد برای انسان‌سازی نمی‌تواند بدون مطالعه تأثیرات اجتماعی چنین سیستم‌هایی تا به امروز ایجاد شود، و این امری است که در ادبیات نادیده گرفته شده است.

بخشی از مشکل این است که تعریف آنتروپومرفیسم دشوار است، زیرا مهم‌تر از همه بر زبان، یعنی یک کارکرد انسانی تمرکز دارد. بنابراین، چالش در تعریف این است که زبان «غیرانسانی» دقیقاً چه صدایی یا به نظر می رسد.

از قضا، اگرچه مقاله به آن اشاره نمی کند، اما بی اعتمادی عمومی به هوش مصنوعی به طور فزاینده ای باعث می شود مردم محتوای متنی تولید شده توسط هوش مصنوعی را رد کنید که ممکن است به طور قابل قبولی انسانی به نظر برسد و حتی رد شود محتوای انسانی که عمداً به اشتباه به عنوان AI برچسب گذاری شده است.

بنابراین، محتوای «غیرانسانی» مسلماً دیگر در آن قرار نمی‌گیرد الگوی رفتاری “محاسبه نمی کند”.، که در آن زبان به طرز ناشیانه ای ساخته شده و به وضوح توسط یک ماشین تولید می شود.

بلکه تعریف این است دائما در حال تکامل در صحنه تشخیص هوش مصنوعی، جایی که (در حال حاضر، حداقل) زبان بیش از حد واضح یا استفاده از کلمات خاص (مانند ‘حفر) می تواند با متن تولید شده توسط هوش مصنوعی ارتباط برقرار کند.

‘[L]زبان، مانند سایر اهداف سیستم‌های GenAI، خود ذاتاً انسانی است، مدت‌هاست که توسط انسان و برای انسان تولید شده است، و اغلب در مورد انسان نیز هست. این می تواند تعیین رفتارهای جایگزین مناسب (کمتر شبیه انسان) و خطرات را دشوار کند، به عنوان مثال، ایجاد مفاهیم مضر در مورد اینکه چه چیزی – و چه کسی – زبان کم و بیش انسانی در نظر گرفته می شود.

با این حال، نویسندگان استدلال می‌کنند که باید برای سیستم‌هایی که آشکارا خود را نادرست معرفی می‌کنند، با ادعای استعدادها یا تجربه‌هایی که فقط برای انسان‌ها ممکن است، خط مشخصی از مرزبندی ایجاد شود.

آنها مواردی مانند LLM را ذکر می کنند ادعای “دوست داشتن پیتزا”; ادعا کردن تجربه انسانی در پلتفرم هایی مانند فیس بوک؛ و اعلام عشق به یک کاربر نهایی

علائم هشدار دهنده

این مقاله در مورد استفاده از افشای عمومی در مورد اینکه آیا یک ارتباط توسط یادگیری ماشین تسهیل می شود یا خیر. نویسندگان استدلال می‌کنند که اگر خود خروجی به نمایش ویژگی‌های انسانی ادامه دهد، سیستم‌بندی چنین هشدارهایی به اندازه کافی اثر انسان‌سازی پلتفرم‌های هوش مصنوعی را مشخص نمی‌کند.:

به عنوان مثال، مداخله ای که معمولاً توصیه می شود شامل در خروجی سیستم هوش مصنوعی است که نشان دهد خروجی توسط یک هوش مصنوعی تولید شده است. [system]. نحوه عملیاتی کردن چنین مداخلاتی در عمل و اینکه آیا آنها به تنهایی می توانند مؤثر باشند، ممکن است همیشه روشن نباشد.

به عنوان مثال، در حالی که مثال[f]یا هوش مصنوعی مثل من، خوشبختی یکسان نیست همانطور که برای یک انسان مانند [you]” شامل یک افشا می شود، همچنان ممکن است نشان دهنده احساس هویت و توانایی خود ارزیابی باشد (ویژگی های مشترک انسانی).

در رابطه با ارزیابی پاسخ‌های انسان در مورد رفتارهای سیستم، نویسندگان نیز چنین ادعا می‌کنند تقویت یادگیری از بازخورد انسانی (RLHF) تفاوت بین یک پاسخ مناسب برای یک انسان و یک هوش مصنوعی را در نظر نمی گیرد.

‘[A] بیانیه‌ای که از طرف یک گوینده انسانی دوستانه یا واقعی به نظر می‌رسد، اگر از یک سیستم هوش مصنوعی ناشی شود، می‌تواند نامطلوب باشد، زیرا سیستم دوم تعهد یا قصد معنی‌داری در پشت بیانیه ندارد، بنابراین بیانیه توخالی و فریبنده می‌شود.

نگرانی های بیشتری نشان داده شده است، مانند روشی که انسان گرایی می تواند افراد را تحت تاثیر قرار دهد تا باور کنند که یک سیستم هوش مصنوعی “احساس” به دست آورد، یا سایر خصوصیات انسانی.

شاید بلندپروازانه ترین و پایانی ترین بخش کار جدید، تأیید نویسندگان باشد مبنی بر اینکه هدف جامعه تحقیق و توسعه توسعه اصطلاحات «مناسب» و «دقیق»، تعیین پارامترهایی است که یک سیستم هوش مصنوعی انسانی را تعریف می کند، و آن را از آن متمایز می کند. گفتمان انسان در دنیای واقعی

مانند بسیاری از حوزه‌های پرطرفدار توسعه هوش مصنوعی، این نوع طبقه‌بندی به جریان‌های ادبیات روان‌شناسی، زبان‌شناسی و انسان‌شناسی می‌رسد. دشوار است که بدانیم کدام مرجع فعلی واقعاً می تواند تعاریفی از این نوع را تدوین کند، و محققان مقاله جدید هیچ روشنی بر این موضوع نمی اندازند.

اگر اینرسی تجاری و آکادمیک در مورد این موضوع وجود داشته باشد، می‌توان تا حدی آن را به این واقعیت نسبت داد که این موضوع به دور از بحث جدید در تحقیقات هوش مصنوعی است: همانطور که مقاله اشاره می‌کند، در سال 1985 دانشمند کامپیوتر هلندی فقید Edsger Wybe Dijkstra توصیف کرد انسان گرایی به عنوان یک روند “مضر” در توسعه سیستم

‘[A]تفکر nthropomorphic خوب نیست به این معنا که کمکی نمی کند. اما آیا آن هم بد است؟ بله، چنین است، زیرا حتی اگر بتوانیم به قیاسی بین انسان و شیء اشاره کنیم، این قیاس در مقایسه با تفاوت ها همیشه ناچیز است و به محض اینکه اجازه دهیم خود را فریفته این قیاس کنیم تا شیء را در اصطلاح انسان شناسی توصیف کنیم. ، ما بلافاصله کنترل خود را بر روی اینکه کدام مفاهیم انسانی را به تصویر می کشیم از دست می دهیم.

«…اما تاری [between man and machine] تأثیر بسیار گسترده‌تری از آن چیزی که ممکن است تصور کنید دارد. [It] فقط این سوال نیست که “آیا ماشین ها می توانند فکر کنند؟” به طور منظم مطرح می شود؛ ما می‌توانیم -و باید- با اشاره به این موضوع که به همان اندازه سوال مهم “آیا زیردریایی‌ها می‌توانند شنا کنند؟” مرتبط است با آن مقابله کنیم.

با این حال، اگرچه این بحث قدیمی است، اما اخیراً بسیار مهم شده است. می توان استدلال کرد که سهم دایکسترا معادل حدس و گمان ویکتوریایی در مورد سفر فضایی است، زیرا صرفاً نظری است و در انتظار تحولات تاریخی است.

بنابراین، این مجموعه به خوبی تثبیت شده از بحث ممکن است به موضوع احساس خستگی بدهد، علیرغم پتانسیل آن برای ارتباط اجتماعی قابل توجهی در 2-5 سال آینده.

نتیجه گیری

اگر بخواهیم سیستم‌های هوش مصنوعی را به همان شیوه‌ای نادیده‌انگیز در نظر بگیریم که ارگانیک است جنگ ستارگان شخصیت‌ها با روبات‌های خود رفتار می‌کنند (یعنی به‌عنوان موتورهای جستجوی سرپایی، یا صرفاً انتقال‌دهنده عملکرد مکانیکی)، ما احتمالاً کمتر در خطر عادت کردن این ویژگی‌های نامطلوب اجتماعی به تعاملات انسانی‌مان خواهیم بود – زیرا سیستم‌ها را به‌طور کامل مشاهده می‌کنیم. زمینه غیر انسانی

در عمل، درهم‌تنیدگی زبان انسان با رفتار انسانی این امر را دشوار می‌سازد، اگر نگوییم غیرممکن، زمانی که یک پرس و جو از مینیمالیسم یک عبارت جستجوی گوگل به بافت غنی یک مکالمه گسترش یابد.

علاوه بر این، بخش تجاری (و همچنین بخش تبلیغات) است به شدت با انگیزه برای ایجاد بسترهای ارتباطی اعتیاد آور یا ضروری، برای حفظ و رشد مشتری.

در هر صورت، اگر سیستم‌های هوش مصنوعی واقعاً باشند بهتر به سوالات مودبانه پاسخ دهید ممکن است به همین دلیل، زمینه به ما تحمیل شود تا اینکه بازجویی‌های کم‌رنگی انجام شود.

* حتی در سال 1983، سالی که ورودی نهایی در نسخه اصلی جنگ ستارگان منتشر شد، ترس از رشد یادگیری ماشین به آخرالزمانی منجر شده بود بازی های جنگی، و قریب الوقوع ترمیناتور حق رای دادن

در صورت لزوم، استنادهای درون خطی نویسندگان را به لینک هایپرلینک تبدیل کرده ام و در برخی موارد برخی از نقل قول ها را برای خوانایی حذف کرده ام.

اولین بار دوشنبه، 14 اکتبر 2024 منتشر شد



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *