اگر هوش مصنوعی شما در حال توهم است ، هوش مصنوعی را سرزنش نکنید


هوش مصنوعی “توهم”-آن پاسخ های متقاعد کننده اما دروغین-مانند مقاله اخیر نیویورک تایمز ، توجه رسانه ها را به خود جلب می کند. هوش مصنوعی قدرتمندتر می شود ، اما توهمات آن بدتر می شودبشر توهم وقتی با یک چت بابات مصرف کننده سر و کار دارید ، یک خطر واقعی است. در زمینه برنامه های تجاری هوش مصنوعی ، این یک نگرانی جدی تر است. خوشبختانه ، من به عنوان یک رهبر فناوری تجارت نیز کنترل بیشتری بر آن دارم. من می توانم اطمینان حاصل کنم که نماینده داده های مناسبی برای تولید پاسخ معنی دار دارد.

زیرا این مشکل واقعی است. در تجارت ، هیچ بهانه ای برای آن وجود ندارد توهم AIبشر سرزنش AI را متوقف کنید. خود را سرزنش کنید که به درستی از AI استفاده نکرده اید.

کی هوش مصنوعی ابزارهای توهم ، آنها کاری را انجام می دهند که برای انجام آن طراحی شده اند – بهترین پاسخ آنها را بر اساس داده های موجود در اختیار شما قرار می دهند. هنگامی که آنها چیزهایی را تشکیل می دهند ، پاسخی تولید می کنند که در واقعیت مبتنی نیست ، به این دلیل است که آنها داده های مربوطه را از دست نمی دهند ، نمی توانند آن را پیدا کنند ، یا این سوال را درک نمی کنندبشر بله ، مدل های جدیدی مانند Openai’s O3 و O4-Mini در حال توهم بیشتر هستند و وقتی جواب خوبی به سؤالی که برای آنها مطرح شده است ، “خلاق تر” عمل می کنند. بله ، ابزارهای قدرتمندتر می توانند بیشتر توهم کنند – اما اگر آنها را برای موفقیت تنظیم کنیم ، می توانند نتایج قدرتمندتر و با ارزش تری نیز به دست آورند.

اگر نمی خواهید هوش مصنوعی شما توهم شود ، آن را برای داده ها گرسنه نکنید. برای حل مسئله ای که می خواهید آن را حل کنید ، بهترین و مناسب ترین داده ها را تغذیه کنید و وسوسه نمی شود که گمراه شوید.

حتی در این صورت ، هنگام کار با هر ابزار هوش مصنوعی ، توصیه می کنم مهارت های تفکر انتقادی خود را دست نخورده نگه دارید. نتایج ارائه شده عوامل AI می توانند مولد و لذت بخش باشند ، اما نکته این است که مغز خود را از هم جدا نکنید و اجازه دهید نرم افزار تمام تفکر را برای شما انجام دهد. به سؤال ادامه دهید هنگامی که یک عامل هوش مصنوعی به شما پاسخ می دهد ، سؤال می کند که اطمینان حاصل می شود که منطقی است و از داده ها پشتیبانی می شود. اگر چنین است ، این باید یک نشانه دلگرم کننده باشد که ارزش وقت شما را برای پرسیدن سوالات پیگیری دارد.

هرچه بیشتر سؤال کنید ، بینش بهتری خواهید یافت.

چرا توهم اتفاق می افتد

این یک رمز و راز نیست. هوش مصنوعی سعی در دروغ گفتن به شما ندارد. هر مدل بزرگ زبان (LLM) AI اساساً کلمه یا عدد بعدی را بر اساس احتمال پیش بینی می کند.

در سطح بالایی ، آنچه در اینجا اتفاق می افتد این است که LLMS جملات و پاراگراف ها را به طور همزمان با هم جمع می کند و کلمه بعدی را که باید در این جمله بر اساس میلیاردها نمونه دیگر در داده های آموزشی خود رخ دهد ، پیش بینی می کند. اجداد LLMS (گذشته از Clippy) برای پیام های متنی و کد رایانه ، ابزارهای خودکار ترجمه زبان انسانی و سایر سیستم های زبانی احتمالی ، به طور خودکار ارسال شده بودند. این سیستم ها با افزایش قدرت محاسبات بی رحمانه ، به علاوه آموزش در مورد حجم در مقیاس اینترنت ، “هوشمندانه” به دست آوردند که بتوانند مکالمه ای کامل را در مورد گپ انجام دهند ، همانطور که جهان با معرفی چتپ آموخته است.

AI Naysayers دوست دارد خاطرنشان كند كه این همان “هوش” واقعی نیست ، فقط نرم افزاری كه می تواند اطلاعات انسانی را كه در آن تغذیه شده است ، تقطیر و مجدداً تنظیم كنند. از آن بخواهید که داده ها را در یک گزارش کتبی خلاصه کند ، و از نحوه خلاصه کردن سایر نویسندگان داده های مشابه تقلید می کند.

تا زمانی که داده ها صحیح باشد و تجزیه و تحلیل مفید باشد ، این مسئله به عنوان یک استدلال دانشگاهی مورد توجه قرار می گیرد.

چه اتفاقی می افتد اگر هوش مصنوعی داده نداشته باشد؟ جای خالی را پر می کند. گاهی اوقات خنده دار است. گاهی اوقات این یک آشفتگی کامل است.

هنگام ساخت عوامل هوش مصنوعی، این 10 برابر خطر است. قرار است نمایندگان بینش های عملی را ارائه دهند ، اما در این راه تصمیمات بیشتری می گیرند. آنها وظایف چند مرحله ای را انجام دادند ، جایی که نتیجه مرحله 1 مراحل 2 ، 3 ، 4 ، 5 ،… 10 را نشان می دهد. اگر نتایج مرحله 1 نادرست باشد ، خطا تقویت می شود و باعث می شود که خروجی در مرحله 20 بسیار بدتر شود. به خصوص ، همانطور که عوامل می توانند تصمیم بگیرند و مراحل را پرش کنند.

درست انجام شد ، نمایندگان برای شغلی که آنها را مستقر می کند ، کارهای بیشتری انجام می دهند. با این حال ، به عنوان مدیران محصول هوش مصنوعی ، ما باید خطر بیشتری را که همراه با پاداش بیشتر است ، تشخیص دهیم.

این همان کاری است که تیم ما انجام داد. ما این خطر را دیدیم و با آن مقابله کردیم. ما فقط یک ربات فانتزی درست نکردیم. ما اطمینان حاصل کردیم که روی داده های مناسب اجرا می شود. این همان چیزی است که من فکر می کنم ما درست انجام دادیم:

  • نماینده را بسازید تا سؤالات درست را بپرسید و تأیید کنید که داده های مناسبی دارد. اطمینان حاصل کنید که فرآیند ورودی داده اولیه عامل در واقع قطعی تر ، کمتر “خلاق” است. شما می خواهید که عامل وقتی داده های مناسبی نداشته باشد و به مرحله بعدی ادامه ندهد ، به جای اینکه داده ها را تهیه کند.
  • ساختار یک کتاب برای نماینده خود-اطمینان حاصل کنید که هر بار برنامه جدیدی اختراع نمی کند اما یک رویکرد نیمه ساختار یافته دارد. ساختار و زمینه در مرحله جمع آوری و تجزیه و تحلیل داده ها بسیار مهم است. شما می توانید به نماینده اجازه دهید وقتی واقعیت ها را در اختیار دارد “خلاق تر” عمل کند و آماده نوشتن خلاصه است ، اما ابتدا حقایق را به درستی دریافت کنید.
  • برای استخراج داده ها یک ابزار با کیفیت بالا بسازید. این باید چیزی بیش از یک تماس API باشد. وقت خود را برای نوشتن کد (مردم هنوز هم این کار را انجام می دهند) وقت بگذارید که مقدار مناسب و تنوع داده هایی را که جمع آوری می شود ، ایجاد می کند ، و کیفیت را در این فرآیند ایجاد می کند.
  • عامل را نشان دهید که کار خود را نشان می دهد. نماینده باید منابع خود را ذکر کرده و به جایی که کاربر می تواند داده ها را از منبع اصلی تأیید کند ، استناد کند و آن را بیشتر کشف کند. هیچ دست کمی مجاز نیست!
  • GuardRails: فکر کنید که چه چیزی می تواند اشتباه پیش برود ، و در برابر خطاهایی که به طور مطلق نمی توانید اجازه دهید حمایت کنید. در مورد ما ، این بدان معناست که وقتی نماینده وظیفه تجزیه و تحلیل یک بازار را ندارد ، داده هایی را ندارد – منظور من از داده های مشابه ما ، نه برخی از منبع داده های تصادفی که از وب بیرون می آیند – اطمینان حاصل کنید که چیزی را ایجاد نمی کند ، یک نگهبان اساسی است. بهتر است که نماینده نتواند پاسخ دهد از ارائه یک پاسخ دروغین یا گمراه کننده.

ما این اصول را در انتشار اخیر سه عامل جدید خود گنجانیده ایم و موارد بیشتری را دنبال می کنیم. به عنوان مثال ، نماینده مقدماتی جلسه هوش مصنوعی ما برای فروشندگان ، فقط نام شرکت هدف را نمی پرسند بلکه جزئیات هدف این جلسه را نشان می دهد و چه کسی با آن است ، و آن را برای ارائه پاسخ بهتر ارائه می دهد. لازم نیست حدس بزنید زیرا از داده های زیادی از داده های شرکت ، داده های دیجیتالی و پروفایل های اجرایی برای اطلاع رسانی به توصیه های آن استفاده می کند.

آیا نمایندگان ما کامل هستند؟ نه. هیچ کس هنوز AI کامل را ایجاد نمی کند ، حتی بزرگترین شرکت های جهان نیز وجود ندارد. اما مقابله با مشکل بسیار بهتر از نادیده گرفتن آن است.

توهم کمتری می خواهید؟ به او یک قطعه خوب از او بدهید داده های با کیفیت بالابشر

اگر توهم شود ، شاید این هوش مصنوعی نباشد که نیاز به رفع آن داشته باشد. شاید این رویکرد شما برای استفاده از این قابلیت های قدرتمند جدید بدون ایجاد وقت و تلاش برای درست کردن آنها باشد.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *