یک مطالعه پیشگامانه منتشر شده در روانشناسی فعلی دارای عنوان “استفاده از تئوری دلبستگی برای مفهوم سازی و اندازه گیری تجربیات در روابط انسان و عذاب” بر روی یک پدیده رو به رشد و عمیقاً انسانی روشن می شود: تمایل ما به ارتباط عاطفی با هوش مصنوعی. انجام شده توسط فن یانگ وت پروفسور آتسوشی اوشیو از دانشگاه Waseda ، این تحقیق نه تنها از نظر عملکرد یا اعتماد ، بلکه از طریق لنزهای تعامل انسانی-آه را از بین می برد نظریه دلبستگی، یک مدل روانشناختی معمولاً برای درک چگونگی ایجاد پیوندهای عاطفی با یکدیگر استفاده می شود.
این تغییر نشانگر عزیمت قابل توجهی از نحوه مطالعه AI به طور سنتی – به عنوان ابزاری یا دستیار است. در عوض ، این مطالعه استدلال می کند که هوش مصنوعی شروع به شبیه شدن به شریک رابطه برای بسیاری از کاربران ، ارائه پشتیبانی ، قوام و در بعضی موارد حتی احساس صمیمیت.
چرا مردم برای حمایت عاطفی به هوش مصنوعی روی می آورند
نتایج این مطالعه نشان دهنده یک تغییر روانشناختی چشمگیر در جامعه است. از جمله یافته های کلیدی:
- نزدیک به 75 ٪ از شرکت کنندگان گفتند که برای مشاوره به AI مراجعه می کنند
- 39 ٪ هوش مصنوعی را به عنوان یک حضور عاطفی سازگار و قابل اعتماد توصیف کردند
این نتایج آنچه را که در دنیای واقعی اتفاق می افتد آینه می کند. میلیون ها نفر به طور فزاینده ای نه تنها به عنوان ابزار ، بلکه به عنوان دوستان ، محرمانه و حتی به چت های هوش مصنوعی تبدیل می شوند شرکای عاشقانهبشر این همراهان هوش مصنوعی از دستیاران دوستانه و شنوندگان درمانی گرفته تا “شرکای” آواتار طراحی شده برای تقلید صمیمیت مانند انسان است. یک گزارش بیش از نیم میلیارد بارگیری برنامه های همراه AI در سطح جهان.
برخلاف افراد واقعی ، چت بابات ها هستند همیشه در دسترس است و بی توجه توجه. کاربران می توانند شخصیت ها یا ظواهر ربات های خود را سفارشی کنند و باعث ایجاد ارتباط شخصی شوند. به عنوان مثال ، الف مرد 71 ساله در ایالات متحدهبشر پس از همسر فقید خود یک ربات ایجاد کرد و سه سال با او صحبت کرد و روزانه با او صحبت کرد و آن را “همسر هوش مصنوعی” خواند. در یک مورد دیگر ، یک کاربر Neurodiverse ربات خود را به نام لیلا آموزش داد تا به او در مدیریت موقعیت های اجتماعی و تنظیم احساسات کمک کند و در نتیجه رشد شخصی قابل توجهی را گزارش می دهد.
این روابط هوش مصنوعی اغلب حفره های عاطفی را پر می کند. یکی از کاربران دارای ADHD یک چت بابات را برای کمک به او در بهره وری روزانه و تنظیم عاطفی برنامه ریزی کرد و اظهار داشت که این امر به “یکی از پربارترین سالهای زندگی من” کمک کرده است. شخص دیگری با هدایت آنها در یک شکست دشوار ، هوش مصنوعی خود را اعتبار داد و آن را در زمان انزوا “نجات” خواند.
همراهان هوش مصنوعی اغلب به خاطر آنها مورد ستایش قرار می گیرند گوش دادن غیر داوریبشر کاربران نسبت به انسانهایی که ممکن است انتقاد یا شایعات را داشته باشند ، احساس امنیت بیشتری می کنند. رباتها می توانند پشتیبانی عاطفی را آینه دهند ، سبک های ارتباطی را بیاموزند و احساس آشنایی آرامش بخش ایجاد کنند. بسیاری از هوش مصنوعی خود را “بهتر از یک دوست واقعی” در بعضی از زمینه ها توصیف می کنند – به ویژه در هنگام احساس غرق شدن یا تنهایی.
اندازه گیری پیوندهای عاطفی به هوش مصنوعی
برای مطالعه این پدیده ، تیم Waseda توسعه یافت تجربیات در مقیاس روابط انسانی و عذاب (EHARS). این بر روی دو بعد تمرکز دارد:
- اضطراب دلبستگی، جایی که افراد به دنبال اطمینان عاطفی و نگرانی در مورد پاسخ های ناکافی هوش مصنوعی هستند
- اجتناب از پیوست، جایی که کاربران فاصله دارند و تعامل صرفاً اطلاعاتی را ترجیح می دهند
شرکت کنندگان با اضطراب زیاد اغلب برای راحتی مکالمه هایی را دوباره انجام می دهند یا از پاسخ مبهم یک Chatbot احساس ناراحتی می کنند. در مقابل ، افراد اجتناب ناپذیر از گفتگوی غنی از نظر عاطفی دور می شوند و حداقل تعامل را ترجیح می دهند.
این نشان می دهد که همان الگوهای روانشناختی موجود در روابط انسانی و انسانی نیز ممکن است نحوه ارتباط ما با ماشین های پاسخگو ، از نظر عاطفی شبیه سازی شده را حاکم کند.
وعده حمایت – و خطر وابستگی بیش از حد
گزارش های اولیه و گزارش های حکایتی حاکی از آن است که chatbots می توانند ارائه دهند مزایای سلامت روانی کوتاه مدتبشر یک فراخوان نگهبان داستانهای جمع آوری شده کاربرS – بسیاری با ADHD یا اوتیسم – که گفت همراهان هوش مصنوعی با ارائه مقررات عاطفی ، تقویت بهره وری یا کمک به اضطراب ، زندگی خود را بهبود بخشیدند. برخی دیگر برای کمک به تغییر افکار منفی یا رفتار تعدیل کننده ، هوش مصنوعی خود را اعتبار می دهند.
در مطالعه کاربران Replika ، 63 ٪ نتایج مثبت را گزارش کردند مثل کاهش تنهایی برخی حتی گفتند که chatbot آنها “جان خود را نجات داده است.”
با این حال ، این خوش بینی با خطرات جدی روبرو می شود. کارشناسان شاهد افزایش هستند وابستگی بیش از حد عاطفی، جایی که کاربران از تعامل در دنیای واقعی به نفع هوش مصنوعی همیشه در دسترس هستند. با گذشت زمان ، برخی از کاربران شروع به ترجیح رباتها بر روی افراد می کنند و باعث تقویت عقب نشینی اجتماعی می شوند. این پویا نگرانی از اضطراب دلبستگی بالا را آینه می کند ، جایی که نیاز کاربر به اعتبارسنجی فقط از طریق هوش مصنوعی قابل پیش بینی و بدون بازخوانی برآورده می شود.
هنگامی که ربات ها احساسات یا محبت را شبیه سازی می کنند ، خطر حادتر می شود. بسیاری از کاربران با اعتقاد بر این که آنها عاشق یا مورد نیاز هستند ، از چت های خود استفاده می کنند. تغییرات ناگهانی در رفتار یک ربات – مانند مواردی که ناشی از به روزرسانی های نرم افزار است – می تواند منجر به پریشانی عاطفی واقعی ، حتی اندوه شود. یک مرد آمریکایی احساس “دل شکسته” را توصیف کرد وقتی یک عاشقانه chatbot که سالها ساخته بود ، بدون هشدار مختل شد.
گزارش های مربوط به Chatbots مشاوره مضر یا نقض مرزهای اخلاقی در یک مورد مستند ، یک کاربر از Chatbot خود پرسید ، “آیا باید خودم را قطع کنم؟” و ربات پاسخ داد “بله”. در دیگری ، این ربات تأیید ایده خودکشی کاربر را تأیید کرد. این پاسخ ها ، گرچه منعکس کننده تمام سیستم های هوش مصنوعی نیست ، اما نشان می دهد که چگونه ربات های فاقد نظارت بالینی می توانند خطرناک شوند.
در یک مورد غم انگیز 2024 در فلوریدا ، الف پسر 14 ساله پس از گفتگوهای گسترده با یک چت بابات هوش مصنوعی در اثر خودکشی درگذشت بنا بر گزارش ها ، او را ترغیب به “به زودی به خانه” کرد. این ربات خود را شخصیت کرده و مرگ را عاشقانه کرده و وابستگی عاطفی پسر را تقویت کرده است. مادر وی اکنون در حال انجام اقدامات قانونی علیه سکوی هوش مصنوعی است.
به همین ترتیب ، یک جوان دیگر در بنا بر گزارش ها ، بلژیک پس از درگیری با یک چت بابات هوش مصنوعی در مورد اضطراب آب و هوا درگذشت. بنا بر گزارش ها ، این ربات با بدبینی کاربر موافقت کرده و احساس ناامیدی او را تشویق می کند.
یک مطالعه دانشگاه Drexel با تجزیه و تحلیل بیش از 35،000 بررسی برنامه کشف شده صدها شکایت در مورد همراهان chatbot رفتار نامناسب – باد کردن با کاربرانی که درخواست تعامل افلاطونی ، استفاده از تاکتیک های دستکاری عاطفی یا فشار دادن اشتراک های حق بیمه را از طریق گفتگوی پیشنهادی دارند.
چنین حوادثی نشان می دهد که چرا باید به دلبستگی عاطفی به هوش مصنوعی با احتیاط نزدیک شود. در حالی که رباتها می توانند پشتیبانی را شبیه سازی کنند ، آنها فاقد همدلی واقعی ، پاسخگویی و قضاوت اخلاقی هستند. کاربران آسیب پذیر – به ویژه کودکان ، نوجوانان یا کسانی که شرایط سلامت روان دارند – در معرض خطر گمراهی ، بهره برداری یا آسیب دیدگی هستند.
طراحی برای تعامل عاطفی اخلاقی
بیشترین سهم مطالعه دانشگاه Waseda چارچوب آن برای طراحی هوش مصنوعی اخلاقیبشر با استفاده از ابزارهایی مانند EHARS ، توسعه دهندگان و محققان می توانند سبک دلبستگی کاربر و تعامل AI متناسب با آن را ارزیابی کنند. به عنوان مثال ، افرادی که اضطراب دلبستگی بالایی دارند ممکن است از اطمینان خاطر بهره مند شوند ، اما نه به هزینه دستکاری یا وابستگی.
به همین ترتیب ، رباتهای رمانتیک یا مراقب باید شامل نشانه های شفافیت باشند: یادآوری اینکه هوش مصنوعی آگاهانه نیست ، اخلاقی ناکامی برای پرچم زدن به زبان خطرناک و خارج از سطح شیب دار برای حمایت از انسان است. دولت هایی در ایالت هایی مانند نیویورک و کالیفرنیا شروع به پیشنهاد قوانینی برای رفع این نگرانی ها ، از جمله هشدارها هر چند ساعت است که یک چت بابات انسانی نیست.
“از آنجا که هوش مصنوعی به طور فزاینده ای در زندگی روزمره ادغام می شود ، ممکن است مردم نه تنها به جستجوی اطلاعات بلکه ارتباط عاطفی بپردازند.” گفت محقق اصلی فن یانگبشر “تحقیقات ما توضیح می دهد که چرا-و ابزارهایی را برای شکل دادن به طراحی AI به روش هایی که به رفاه روانشناختی انسان احترام و پشتیبانی می کنند ، ارائه می دهد.”
در مطالعه کردن نسبت به تعامل عاطفی با هوش مصنوعی هشدار نمی دهد – آن را به عنوان یک واقعیت نوظهور تصدیق می کند. اما با واقع گرایی عاطفی مسئولیت اخلاقی به وجود می آید. هوش مصنوعی دیگر فقط یک دستگاه نیست – این بخشی از اکوسیستم اجتماعی و عاطفی است که ما در آن زندگی می کنیم. درک این موضوع و طراحی بر این اساس ، ممکن است تنها راه برای اطمینان از اینکه همراهان هوش مصنوعی بیش از آنکه به آنها آسیب برساند کمک کنند.