نظر هیچ کس در داستان تخیلی جنگ ستارگان جهان هوش مصنوعی را جدی می گیرد در جدول زمانی تاریخی انسانی مجموعه 47 ساله علمی-فانتزی جورج لوکاس، تهدیدات ناشی از تکینگی ها و آگاهی یادگیری ماشینی وجود ندارد و هوش مصنوعی محدود به روبات های متحرک مستقل است.“droids”) – که معمولاً توسط قهرمانان به عنوان «ماشین» صرف رد می شوند.
با این حال بسیاری از جنگ ستارگان روباتها بسیار انسانساز هستند، به وضوح برای تعامل با مردم، مشارکت در فرهنگ «ارگانیک» و استفاده از شبیهسازی حالت عاطفی خود برای پیوند با مردم طراحی شدهاند. ظاهراً این قابلیتها برای کمک به آنها برای به دست آوردن مزیتی برای خود یا حتی تضمین بقای خود طراحی شدهاند.
مردم “واقعی” از جنگ ستارگان به نظر می رسد نسبت به این تاکتیک ها بی توجه است. در یک مدل فرهنگی بدبینانه که ظاهراً از دورههای مختلف بردهداری در سراسر امپراتوری روم و اوایل ایالات متحده الهام گرفته شده است، لوک اسکایواکر در خرید و مهار روباتها در زمینه بردگان تردیدی ندارد. آناکین اسکای واکر کودک پروژه نیمه کاره C3PO خود را مانند یک اسباب بازی دوست داشتنی رها می کند. و R2D2 “شجاع” در اثر آسیبی که در طول حمله به ستاره مرگ تقریباً مرده است، همان نگرانی لوک را به عنوان یک حیوان خانگی زخمی دریافت می کند.
این یک برداشت بسیار دهه 1970 از هوش مصنوعی است*. اما از آنجایی که نوستالژی و قانون حکم می کند که سه گانه اصلی 1977-1983 الگویی برای دنباله ها، پیش درآمدها و برنامه های تلویزیونی بعدی باقی بماند، این بی احساسی انسان نسبت به هوش مصنوعی، حتی در مواجهه با رشد روزافزون این فرنچایز، یک خط میانی انعطاف پذیر برای این فرنچایز بوده است. صفحه نمایش های تلویزیونی و فیلم ها (مانند او و سابق ماشین) که هبوط ما را به یک رابطه انسانی با هوش مصنوعی نشان می دهد.
آن را واقعی نگه دارید
ارگانیک را انجام دهید جنگ ستارگان شخصیت ها واقعا نگرش درستی دارند؟ در حال حاضر این یک فکر رایج نیست، در یک فضای تجاری که به سختی بر روی حداکثر تعامل با سرمایه گذاران تنظیم شده است، معمولاً از طریق نمایش ویروسی شبیه سازی بصری یا متنی از دنیای واقعی، یا سیستم های تعاملی انسان مانند مانند مدل های زبان بزرگ (LLMs). ).
با این حال، جدید و مختصر کاغذ از استنفورد، کارنگی ملون و تحقیقات مایکروسافت، بیتفاوتی در مورد انسانسازی در هوش مصنوعی را هدف قرار داده است.
نویسندگان، «گرده افشانی متقاطع» بین ارتباطات انسانی و مصنوعی را به عنوان یک آسیب بالقوه که باید فوراً کاهش یابد، به دلایل متعدد توصیف می کنند. †:
‘[We] معتقدیم که ما باید برای توسعه دانش و ابزارها برای مقابله بهتر با رفتارهای انسانی، از جمله اندازهگیری و کاهش رفتارهای سیستمی در زمانی که نامطلوب تلقی میشوند، کارهای بیشتری انجام دهیم.
انجام این کار بسیار مهم است زیرا – در میان بسیاری از نگرانیهای دیگر – داشتن سیستمهای هوش مصنوعی که محتوایی را تولید میکنند که ادعا میکند به عنوان مثال، احساسات، درک، اراده آزاد یا احساسی از خود دارند، ممکن است باعث فرسایش افراد شود. حس عاملیت، در نتیجه ممکن است افراد در نهایت مسئولیت اخلاقی را نسبت دهند به سیستم ها، بیش از حد قابلیت های سیستم، یا اتکای بیش از حد به این سیستم ها حتی در صورت نادرست بودن.
مشارکت کنندگان توضیح می دهند که آنها در حال بحث در مورد سیستم هایی هستند که هستند درک شده است شبیه انسان بودن و تمرکز حول پتانسیل ها قصد توسعه دهندگان برای تقویت انسان گرایی در سیستم های ماشینی
نگرانی در قلب مقاله کوتاه این است که افراد ممکن است وابستگی عاطفی به سیستم های مبتنی بر هوش مصنوعی پیدا کنند – همانطور که در مطالعه 2022 در پلتفرم چت ربات هوش مصنوعی نسل ماکت) – که به طور فعال فاکسی غنی از اصطلاحات از ارتباطات انسانی را ارائه می دهد.
سیستم هایی مانند Replika هدف احتیاط نویسندگان هستند و آنها خاطرنشان می کنند که سال 2022 بیشتر کاغذ در Replika ادعا کرد:
‘[U]در شرایط پریشانی و فقدان همراهی انسانی، افراد میتوانند به چتباتهای اجتماعی دلبستگی پیدا کنند، اگر پاسخهای چترباتها را برای ارائه حمایت عاطفی، تشویق و امنیت روانی درک کنند.
این یافتهها نشان میدهد که چتباتهای اجتماعی میتوانند برای سلامت روان و اهداف درمانی استفاده شوند، اما پتانسیل ایجاد اعتیاد و آسیب رساندن به روابط صمیمانه واقعی را دارند.
زبان انسان زدایی شده؟
کار جدید استدلال میکند که پتانسیل هوش مصنوعی مولد برای انسانسازی نمیتواند بدون مطالعه تأثیرات اجتماعی چنین سیستمهایی تا به امروز ایجاد شود، و این امری است که در ادبیات نادیده گرفته شده است.
بخشی از مشکل این است که تعریف آنتروپومرفیسم دشوار است، زیرا مهمتر از همه بر زبان، یعنی یک کارکرد انسانی تمرکز دارد. بنابراین، چالش در تعریف این است که زبان «غیرانسانی» دقیقاً چه صدایی یا به نظر می رسد.
از قضا، اگرچه مقاله به آن اشاره نمی کند، اما بی اعتمادی عمومی به هوش مصنوعی به طور فزاینده ای باعث می شود مردم محتوای متنی تولید شده توسط هوش مصنوعی را رد کنید که ممکن است به طور قابل قبولی انسانی به نظر برسد و حتی رد شود محتوای انسانی که عمداً به اشتباه به عنوان AI برچسب گذاری شده است.
بنابراین، محتوای «غیرانسانی» مسلماً دیگر در آن قرار نمیگیرد الگوی رفتاری “محاسبه نمی کند”.، که در آن زبان به طرز ناشیانه ای ساخته شده و به وضوح توسط یک ماشین تولید می شود.
بلکه تعریف این است دائما در حال تکامل در صحنه تشخیص هوش مصنوعی، جایی که (در حال حاضر، حداقل) زبان بیش از حد واضح یا استفاده از کلمات خاص (مانند ‘حفر) می تواند با متن تولید شده توسط هوش مصنوعی ارتباط برقرار کند.
‘[L]زبان، مانند سایر اهداف سیستمهای GenAI، خود ذاتاً انسانی است، مدتهاست که توسط انسان و برای انسان تولید شده است، و اغلب در مورد انسان نیز هست. این می تواند تعیین رفتارهای جایگزین مناسب (کمتر شبیه انسان) و خطرات را دشوار کند، به عنوان مثال، ایجاد مفاهیم مضر در مورد اینکه چه چیزی – و چه کسی – زبان کم و بیش انسانی در نظر گرفته می شود.
با این حال، نویسندگان استدلال میکنند که باید برای سیستمهایی که آشکارا خود را نادرست معرفی میکنند، با ادعای استعدادها یا تجربههایی که فقط برای انسانها ممکن است، خط مشخصی از مرزبندی ایجاد شود.
آنها مواردی مانند LLM را ذکر می کنند ادعای “دوست داشتن پیتزا”; ادعا کردن تجربه انسانی در پلتفرم هایی مانند فیس بوک؛ و اعلام عشق به یک کاربر نهایی
علائم هشدار دهنده
این مقاله در مورد استفاده از افشای عمومی در مورد اینکه آیا یک ارتباط توسط یادگیری ماشین تسهیل می شود یا خیر. نویسندگان استدلال میکنند که اگر خود خروجی به نمایش ویژگیهای انسانی ادامه دهد، سیستمبندی چنین هشدارهایی به اندازه کافی اثر انسانسازی پلتفرمهای هوش مصنوعی را مشخص نمیکند.†:
به عنوان مثال، مداخله ای که معمولاً توصیه می شود شامل در خروجی سیستم هوش مصنوعی است که نشان دهد خروجی توسط یک هوش مصنوعی تولید شده است. [system]. نحوه عملیاتی کردن چنین مداخلاتی در عمل و اینکه آیا آنها به تنهایی می توانند مؤثر باشند، ممکن است همیشه روشن نباشد.
به عنوان مثال، در حالی که مثال[f]یا هوش مصنوعی مثل من، خوشبختی یکسان نیست همانطور که برای یک انسان مانند [you]” شامل یک افشا می شود، همچنان ممکن است نشان دهنده احساس هویت و توانایی خود ارزیابی باشد (ویژگی های مشترک انسانی).
در رابطه با ارزیابی پاسخهای انسان در مورد رفتارهای سیستم، نویسندگان نیز چنین ادعا میکنند تقویت یادگیری از بازخورد انسانی (RLHF) تفاوت بین یک پاسخ مناسب برای یک انسان و یک هوش مصنوعی را در نظر نمی گیرد†.
‘[A] بیانیهای که از طرف یک گوینده انسانی دوستانه یا واقعی به نظر میرسد، اگر از یک سیستم هوش مصنوعی ناشی شود، میتواند نامطلوب باشد، زیرا سیستم دوم تعهد یا قصد معنیداری در پشت بیانیه ندارد، بنابراین بیانیه توخالی و فریبنده میشود.
نگرانی های بیشتری نشان داده شده است، مانند روشی که انسان گرایی می تواند افراد را تحت تاثیر قرار دهد تا باور کنند که یک سیستم هوش مصنوعی “احساس” به دست آورد، یا سایر خصوصیات انسانی.
شاید بلندپروازانه ترین و پایانی ترین بخش کار جدید، تأیید نویسندگان باشد مبنی بر اینکه هدف جامعه تحقیق و توسعه توسعه اصطلاحات «مناسب» و «دقیق»، تعیین پارامترهایی است که یک سیستم هوش مصنوعی انسانی را تعریف می کند، و آن را از آن متمایز می کند. گفتمان انسان در دنیای واقعی
مانند بسیاری از حوزههای پرطرفدار توسعه هوش مصنوعی، این نوع طبقهبندی به جریانهای ادبیات روانشناسی، زبانشناسی و انسانشناسی میرسد. دشوار است که بدانیم کدام مرجع فعلی واقعاً می تواند تعاریفی از این نوع را تدوین کند، و محققان مقاله جدید هیچ روشنی بر این موضوع نمی اندازند.
اگر اینرسی تجاری و آکادمیک در مورد این موضوع وجود داشته باشد، میتوان تا حدی آن را به این واقعیت نسبت داد که این موضوع به دور از بحث جدید در تحقیقات هوش مصنوعی است: همانطور که مقاله اشاره میکند، در سال 1985 دانشمند کامپیوتر هلندی فقید Edsger Wybe Dijkstra توصیف کرد انسان گرایی به عنوان یک روند “مضر” در توسعه سیستم
‘[A]تفکر nthropomorphic خوب نیست به این معنا که کمکی نمی کند. اما آیا آن هم بد است؟ بله، چنین است، زیرا حتی اگر بتوانیم به قیاسی بین انسان و شیء اشاره کنیم، این قیاس در مقایسه با تفاوت ها همیشه ناچیز است و به محض اینکه اجازه دهیم خود را فریفته این قیاس کنیم تا شیء را در اصطلاح انسان شناسی توصیف کنیم. ، ما بلافاصله کنترل خود را بر روی اینکه کدام مفاهیم انسانی را به تصویر می کشیم از دست می دهیم.
«…اما تاری [between man and machine] تأثیر بسیار گستردهتری از آن چیزی که ممکن است تصور کنید دارد. [It] فقط این سوال نیست که “آیا ماشین ها می توانند فکر کنند؟” به طور منظم مطرح می شود؛ ما میتوانیم -و باید- با اشاره به این موضوع که به همان اندازه سوال مهم “آیا زیردریاییها میتوانند شنا کنند؟” مرتبط است با آن مقابله کنیم.
با این حال، اگرچه این بحث قدیمی است، اما اخیراً بسیار مهم شده است. می توان استدلال کرد که سهم دایکسترا معادل حدس و گمان ویکتوریایی در مورد سفر فضایی است، زیرا صرفاً نظری است و در انتظار تحولات تاریخی است.
بنابراین، این مجموعه به خوبی تثبیت شده از بحث ممکن است به موضوع احساس خستگی بدهد، علیرغم پتانسیل آن برای ارتباط اجتماعی قابل توجهی در 2-5 سال آینده.
نتیجه گیری
اگر بخواهیم سیستمهای هوش مصنوعی را به همان شیوهای نادیدهانگیز در نظر بگیریم که ارگانیک است جنگ ستارگان شخصیتها با روباتهای خود رفتار میکنند (یعنی بهعنوان موتورهای جستجوی سرپایی، یا صرفاً انتقالدهنده عملکرد مکانیکی)، ما احتمالاً کمتر در خطر عادت کردن این ویژگیهای نامطلوب اجتماعی به تعاملات انسانیمان خواهیم بود – زیرا سیستمها را بهطور کامل مشاهده میکنیم. زمینه غیر انسانی
در عمل، درهمتنیدگی زبان انسان با رفتار انسانی این امر را دشوار میسازد، اگر نگوییم غیرممکن، زمانی که یک پرس و جو از مینیمالیسم یک عبارت جستجوی گوگل به بافت غنی یک مکالمه گسترش یابد.
علاوه بر این، بخش تجاری (و همچنین بخش تبلیغات) است به شدت با انگیزه برای ایجاد بسترهای ارتباطی اعتیاد آور یا ضروری، برای حفظ و رشد مشتری.
در هر صورت، اگر سیستمهای هوش مصنوعی واقعاً باشند بهتر به سوالات مودبانه پاسخ دهید ممکن است به همین دلیل، زمینه به ما تحمیل شود تا اینکه بازجوییهای کمرنگی انجام شود.
* حتی در سال 1983، سالی که ورودی نهایی در نسخه اصلی جنگ ستارگان منتشر شد، ترس از رشد یادگیری ماشین به آخرالزمانی منجر شده بود بازی های جنگی، و قریب الوقوع ترمیناتور حق رای دادن
† در صورت لزوم، استنادهای درون خطی نویسندگان را به لینک هایپرلینک تبدیل کرده ام و در برخی موارد برخی از نقل قول ها را برای خوانایی حذف کرده ام.
اولین بار دوشنبه، 14 اکتبر 2024 منتشر شد