هوش مصنوعی در شیوه عملکرد تقریباً هر صنعت متحول می شود. این امر ما را کارآمدتر ، تولیدی تر و – در صورت اجرای صحیح – در کل مشاغل ما بهتر می کند. اما از آنجا که اعتماد ما به این فناوری جدید به سرعت افزایش می یابد ، ما باید خودمان را از یک واقعیت ساده یادآوری کنیم: هوش مصنوعی عصمت نیست. خروجی های آن نباید از نظر چهره ای گرفته شود زیرا ، دقیقاً مانند انسان ، هوش مصنوعی می تواند اشتباه کند.
ما این اشتباهات را “توهم AI” می نامیم. چنین اشتباهات در هر جایی از پاسخ دادن به مشکل ریاضی نادرست برای تهیه اطلاعات نادرست در مورد سیاست های دولت. در صنایع بسیار تنظیم شده ، توهم می تواند منجر به جریمه های گران قیمت و مشکلات قانونی شود ، و به ذکر نیست که مشتریان ناراضی.
فرکانس توهم AI باید باعث نگرانی شود: تخمین زده شده است این مدل های مدرن زبان بزرگ (LLMS) از 1 ٪ تا 30 ٪ زمان توهم می کنند. این منجر به صدها پاسخ دروغین به صورت روزانه می شود ، این بدان معناست که مشاغل به دنبال استفاده از این فناوری باید هنگام انتخاب ابزارهایی برای اجرای این فناوری ، با پر دردسر انتخابی باشند.
بیایید بررسی کنیم که چرا توهمات هوش مصنوعی اتفاق می افتد ، چه چیزی در معرض خطر است و چگونه می توانیم آنها را شناسایی و اصلاح کنیم.
زباله در ، زباله بیرون
آیا به یاد دارید که بازی “تلفن” را به عنوان یک کودک انجام دهید؟ چگونه عبارت شروع با عبور از بازیکن به بازیکن دیگر ، و در نتیجه بیانیه ای کاملاً متفاوت تا زمانی که راه خود را در اطراف دایره قرار داد ، پیچیده می شود؟
نحوه یادگیری AI از ورودی های آن مشابه است. پاسخ های LLM ها فقط به اندازه اطلاعاتی که از آنها تغذیه می شوند خوب هستند ، به این معنی که زمینه نادرست می تواند منجر به تولید و انتشار اطلاعات کاذب شود. اگر یک سیستم هوش مصنوعی بر روی داده هایی که نادرست ، خارج از کشور یا مغرضانه باشد ساخته شده است ، خروجی های آن منعکس می شود.
به همین ترتیب ، یک LLM فقط به اندازه ورودی های آن خوب است ، به ویژه هنگامی که فقدان مداخله یا نظارت انسان وجود دارد. از آنجا که راه حل های هوش مصنوعی خودمختار تر گسترش می یابد ، بسیار مهم است که ما ابزارهایی را با زمینه داده صحیح ارائه دهیم تا از ایجاد توهم جلوگیری کنیم. ما به آموزش دقیق این داده ها و/یا توانایی هدایت LLM ها به گونه ای نیاز داریم که آنها پاسخ دهند تنها از متن آنها ارائه شده است ، نه اینکه اطلاعات را از هر نقطه در اینترنت بیرون بیاورید.
چرا توهم اهمیت دارد؟
برای مشاغل مشتری مداری ، دقت همه چیز است. اگر کارمندان برای کارهایی مانند ترکیب داده های مشتری یا پاسخ دادن به سؤالات مشتری به هوش مصنوعی تکیه می کنند ، باید اعتماد کنند که پاسخ هایی که چنین ابزارهایی ایجاد می کنند دقیق هستند.
در غیر این صورت ، مشاغل خطر خسارت را به خطر می اندازند به شهرت و وفاداری مشتری. اگر مشتریان از پاسخ های ناکافی یا نادرست توسط یک چت بابات تغذیه نشوند ، یا در حالی که در انتظار کار هستند ، در حالی که کارمندان از خروجی های chatbot استفاده می کنند ، باقی مانده اند ، ممکن است تجارت خود را به جای دیگری ببرند. مردم نباید نگران این باشند که آیا مشاغل با آنها در تعامل هستند یا نه ، آنها به آنها اطلاعات نادرستی می دهند – آنها می خواهند پشتیبانی سریع و قابل اعتماد داشته باشند ، این بدان معنی است که به درستی گرفتن این تعامل ها از اهمیت بالایی برخوردار است.
رهبران مشاغل باید هنگام انتخاب ابزار مناسب هوش مصنوعی برای کارمندان خود ، دقت خود را انجام دهند. هوش مصنوعی قرار است وقت و انرژی را برای کارکنان آزاد کند تا روی کارهای با ارزش بالاتر تمرکز کنند. سرمایه گذاری در یک چت بابات که نیاز به نظارت مداوم در انسان دارد ، تمام هدف فرزندخواندگی را شکست می دهد. اما آیا وجود توهم واقعاً بسیار برجسته است یا این اصطلاح به سادگی استفاده می شود تا با هر پاسخی که تصور می کنیم نادرست باشد ، شناسایی شود؟
مبارزه با توهم AI
توجه داشته باشید: تئوری معنی پویا (DMT) ، این مفهوم که درک بین دو نفر – در این حالت کاربر و هوش مصنوعی – در حال رد و بدل هستند. اما ، محدودیت های زبان و دانش افراد باعث سوء استفاده در تفسیر پاسخ می شود.
در مورد پاسخ های تولید شده AI ، این امکان وجود دارد که الگوریتم های اساسی هنوز کاملاً مجهز به تفسیر دقیق یا تولید متن به گونه ای نباشند که با انتظارات ما به عنوان انسان مطابقت داشته باشد. این اختلاف می تواند منجر به پاسخ هایی شود که ممکن است روی سطح دقیق به نظر برسد اما در نهایت فاقد عمق یا ظرافت مورد نیاز برای درک واقعی است.
علاوه بر این ، بیشتر LLM های عمومی با هدف ، اطلاعات را فقط از محتوایی که در اینترنت در دسترس عموم است ، جمع می کنند. برنامه های سازمانی AI هنگامی که توسط داده ها و سیاست هایی که مخصوص صنایع و مشاغل خاص است ، عملکرد بهتری دارند. مدل ها همچنین می توانند با بازخورد مستقیم انسان بهبود یابند – به ویژه راه حل های عامل که برای پاسخ به لحن و نحو طراحی شده اند.
چنین ابزارهایی نیز باید قبل از اینکه به مصرف کننده تبدیل شوند ، به شدت آزمایش شوند. این بخش مهمی در جلوگیری از توهم هوش مصنوعی است. کل جریان باید با استفاده از مکالمات مبتنی بر نوبت با LLM که نقش شخصیت را بازی می کند ، آزمایش شود. این به مشاغل اجازه می دهد تا قبل از انتشار آن به جهان ، موفقیت کلی مکالمات با یک مدل هوش مصنوعی را بهتر فرض کنند.
این امر برای توسعه دهندگان و کاربران فناوری هوش مصنوعی ضروری است که از نظریه معنای پویا در پاسخ هایی که دریافت می کنند ، و همچنین پویایی زبان مورد استفاده در ورودی آگاه باشند. به یاد داشته باشید ، زمینه مهم است. و ، به عنوان انسان ، بیشتر زمینه ما از طریق روشهای ناگفته درک می شود ، خواه از طریق زبان بدن ، روندهای اجتماعی – حتی لحن ما باشد. به عنوان انسان ، ما در پاسخ به سؤالات پتانسیل توهم را داریم. اما ، در تکرار فعلی ما از هوش مصنوعی ، درک انسان به انسان ما به راحتی متناسب نیست ، بنابراین ما باید نسبت به زمینه ای که به صورت کتبی ارائه می دهیم انتقاد کنیم.
کافی است که بگوییم – همه مدل های AI برابر نیستند. از آنجا که این فناوری برای انجام وظایف به طور فزاینده ای پیچیده می شود ، شناسایی ابزارهایی که باعث بهبود تعامل و تجربیات مشتری می شود ، به جای اینکه از آنها جدا شود ، برای اجرای مشاغل بسیار مهم است.
این برنامه فقط در ارائه دهندگان راه حل ها نیست تا اطمینان حاصل شود که آنها همه چیز را در قدرت خود انجام داده اند تا احتمال بروز توهم را به حداقل برسانند. خریداران بالقوه نقش خود را نیز دارند. با اولویت بندی راه حل هایی که به شدت آموزش دیده و آزمایش شده اند و می توانند از داده های اختصاصی (به جای هر چیز و همه چیز در اینترنت) بیاموزند ، مشاغل می توانند از سرمایه گذاری های هوش مصنوعی خود بیشترین استفاده را کنند تا کارمندان و مشتریان را برای موفقیت تنظیم کنند.