درست به نظر می رسد درست به نظر می رسد اشتباه است این هوش مصنوعی شما در مورد توهم است. مسئله فقط این نیست که مدل های AI مولد امروز توهینبشر این احساس می کنیم اگر به اندازه کافی نگهبان بسازیم ، آن را مرتب کنیم ، آن را ببندید و به نوعی آن را لکه دار کنیم ، پس ما قادر خواهیم بود آن را در مقیاس سازمانی اتخاذ کنیم.
مطالعه کردن | حوزه | میزان توقف | یافته های کلیدی |
---|---|---|---|
استنفورد های Hai & Reglab (ژانویه 2024) | حقوقی | 69 ٪ -88 ٪ | LLMS هنگام پاسخ به سؤالات قانونی ، نرخ توهم بالایی را به نمایش گذاشت ، که اغلب فاقد خودآگاهی در مورد خطاهای خود و تقویت فرضیات حقوقی نادرست است. |
مطالعه JMIR (2024) | منابع علمی | GPT-3.5: 90.6 ٪ ، GPT-4: 86.6 ٪ ، BARD: 100 ٪ | منابع تولید LLM اغلب بی ربط ، نادرست یا پشتیبانی نشده توسط ادبیات موجود بودند. |
مطالعه انگلیس در مورد محتوای تولید شده توسط AI (فوریه 2025) | دارایی | مشخص نشده است | اطلاعات ایجاد شده توسط AI باعث افزایش خطر اجرای بانکی شد و بخش قابل توجهی از مشتریان بانک با توجه به انتقال پول خود پس از مشاهده محتوای جعلی تولید شده AI. |
گزارش ریسک های جهانی انجمن جهانی اقتصاد (2025) | ارزیابی ریسک جهانی | مشخص نشده است | اطلاعات نادرست و اطلاعاتی که توسط هوش مصنوعی تقویت شده است ، به عنوان بهترین خطر جهانی در طی یک چشم انداز دو ساله رتبه بندی می شود. |
تابلوی توهم Vectara (2025) | ارزیابی مدل AI | GPT-4.5-PREVIEW: 1.2 ٪ ، Google Gemini-2.0-PRO-EXP: 0.8 ٪ ، Vectara Mockingbird-2-Echo: 0.9 ٪ | میزان توهم ارزیابی شده در LLM های مختلف ، تفاوت معنی داری در عملکرد و دقت نشان می دهد. |
مطالعه ARXIV در مورد توهم واقعی (2024) | تحقیقات AI | مشخص نشده است | Halueval 2.0 را برای مطالعه منظم و تشخیص توهم در LLM ها معرفی کرد ، با تمرکز بر عدم دقت واقعی. |
نرخ توهم از 0.8 ٪ تا 88 ٪ است
بله ، این بستگی به مدل ، دامنه ، مورد استفاده و زمینه دارد ، اما این گسترش باید هر تصمیم گیری سازمانی را به خود جلب کند. این خطاهای موردی نیست. آنها سیستمیک هستند. چگونه می توانید هنگام پذیرش AI در شرکت خود تماس درست برقرار کنید؟ کجا ، چگونه ، چقدر عمق ، چقدر گسترده است؟
و نمونه هایی از پیامدهای دنیای واقعی این امر هر روز در اخبار شما به وجود می آید. هیئت ثابتی مالی G20 AI تولیدی را به عنوان یک وکتور برای اطلاعات اطلاعاتی پرچم گذاری کرده است این می تواند باعث ایجاد بحران بازار ، بی ثباتی سیاسی و تصادفات بدتر از آن ، اخبار جعلی و کلاهبرداری شود. در یک داستان اخیراً گزارش شده ، موسسه حقوقی مورگان و مورگان یادداشت اضطراری را برای همه وکلا صادر کردند: پرونده های تولید شده توسط AI را بدون بررسی ارسال نکنید. پرونده پرونده جعلی یک جرم “شلیک” است.
این ممکن است بهترین زمان برای شرط بندی مزرعه در نرخ توهم نباشد که به زودی به صفر برسد. به خصوص در صنایع تنظیم شده ، مانند حقوقی ، علوم زندگی ، بازارهای سرمایه یا سایر موارد ، جایی که هزینه یک اشتباه می تواند زیاد باشد ، از جمله انتشار آموزش عالی.
توهم یک خطای گرد نیست
این در مورد یک جواب اشتباه گاه به گاه نیست. این در مورد است خطر: شهرت ، حقوقی ، عملیاتی.
AI تولید کننده موتور استدلال نیست. این یک فینال آماری ، یک طوطی تصادفی است. این درخواست شما را به احتمال زیاد بر اساس داده های آموزشی تکمیل می کند. حتی قطعات با صدای واقعی حدس می زنند ما پوچ ترین قطعات را “توهم” می نامیم ، اما کل بازده توهم است. یک سبک خوب با این حال ، این کار می کند ، از نظر جادویی خوب – تا زمانی که این کار را نکند.
هوش مصنوعی به عنوان زیرساخت
و با این حال ، مهم است که بگوییم هوش مصنوعی وقتی شروع به درمان آن می کنیم ، برای پذیرش در سطح شرکت آماده خواهد بود زیرساخت، و مانند جادو نیست. و در صورت لزوم ، باید شفاف ، قابل توضیح و قابل ردیابی باشد. و اگر اینگونه نباشد ، کاملاً ساده ، برای پذیرش در سطح شرکت برای موارد استفاده آماده نیست. اگر هوش مصنوعی تصمیم می گیرد ، باید در رادار هیئت مدیره شما باشد.
قانون هوش مصنوعی اتحادیه اروپا در اینجا پیشرو است. حوزه های پرخطر مانند عدالت ، مراقبت های بهداشتی و زیرساخت ها مانند سیستم های مهم برای ماموریت تنظیم می شوند. مستندات ، آزمایش و توضیحات اجباری خواهد بود.
مدل های AI ایمن شرکت چه کاری انجام می دهند
شرکت هایی که در ساخت مدلهای هوش مصنوعی ایمن شرکت تخصص دارند ، تصمیم آگاهانه ای برای ساخت AI متفاوت می گیرند. در معماری های جایگزین هوش مصنوعی خود ، مدل های زبان بر روی داده ها آموزش نمی یابند ، بنابراین آنها با هیچ چیز نامطلوب در داده ها ، مانند تعصب ، نقض IP یا تمایل به حدس زدن یا توهم “آلوده” نمی شوند.
چنین مدلهایی “فکر شما را کامل نمی کنند” – آنها از کاربر خود استدلال می کنند محتوابشر پایگاه دانش آنها اسناد آنها داده های آنها اگر جواب آنجا نباشد ، این مدل ها چنین می گویند. این همان چیزی است که چنین مدل های AI را قابل توضیح ، قابل ردیابی ، قطعی و گزینه خوبی در مکانهایی که توهم غیرقابل قبول است ، می کند.
یک کتاب بازی 5 مرحله ای برای پاسخگویی AI
- منظره AI را نقشه برداری کنید – از کجا AI در سراسر تجارت شما استفاده می شود؟ چه تصمیمی بر آنها تأثیر می گذارد؟ چه حق بیمه ای را برای ردیابی این تصمیمات به تجزیه و تحلیل شفاف در مورد منبع منبع قابل اعتماد دارید؟
- سازمان خود را تراز کنید – بسته به دامنه استقرار هوش مصنوعی شما ، تنظیم نقش ها ، کمیته ها ، فرایندها و شیوه های حسابرسی به همان اندازه دقیق برای خطرات مالی یا امنیت سایبری.
- هوش مصنوعی را در معرض خطر سطح هیئت مدیره قرار دهید – اگر هوش مصنوعی شما با مشتریان یا تنظیم کننده ها صحبت می کند ، در گزارش های خطر شما تعلق دارد. حاکمیت یک نمایشگاه نیست.
- با فروشندگان مانند مشترکات رفتار کنید – اگر هوش مصنوعی فروشنده شما کارها را انجام می دهد ، شما هنوز هم صاحب این کشور هستید. اصول پاسخگویی هوش مصنوعی خود را به آنها گسترش دهید. مستندات ، حقوق حسابرسی و SLA را برای توضیح و نرخ توهم تقاضا کنید.
- شک و تردید را آموزش دهید – تیم شما باید با هوش مصنوعی مانند یک تحلیلگر جوان رفتار کند – مفید ، اما معصوم نیست. وقتی کسی توهم را مشخص می کند ، جشن بگیرید. اعتماد باید به دست آورد.
آینده هوش مصنوعی در شرکت مدل های بزرگتر نیستند. آنچه لازم است دقت بیشتری ، شفافیت بیشتر ، اعتماد بیشتر و پاسخگویی بیشتر است.