ظهور مدلهای استدلال کوچک: آیا AI جمع و جور می تواند با استدلال سطح GPT مطابقت داشته باشد؟


در سالهای اخیر ، حوزه هوش مصنوعی از موفقیت مدل های بزرگ زبان (LLMS) اسیر شده است. در ابتدا برای پردازش زبان طبیعی طراحی شده است ، این مدل ها به ابزارهای استدلال قدرتمندی تبدیل شده اند که قادر به مقابله با مشکلات پیچیده با فرآیند تفکر گام به گام انسان هستند. با این حال ، علی رغم توانایی های استدلال استثنایی ، LLM ها دارای اشکالاتی قابل توجهی از جمله هزینه های محاسباتی بالا و سرعت استقرار آهسته هستند و آنها را برای استفاده در دنیای واقعی در محیط های محدود شده منابع مانند دستگاه های تلفن همراه یا محاسبات لبه غیر عملی می کند. این امر منجر به افزایش علاقه به توسعه مدلهای کوچکتر و کارآمدتر شده است که می توانند با به حداقل رساندن هزینه ها و خواسته های منابع ، قابلیت های استدلال مشابهی را ارائه دهند. در این مقاله به ظهور این مدل های استدلال کوچک ، پتانسیل ، چالش ها و پیامدهای آنها برای آینده هوش مصنوعی می پردازد.

تغییر در چشم انداز

در بیشتر تاریخ اخیر هوش مصنوعی ، این زمینه از اصل “قوانین مقیاس گذاری” پیروی کرده است ، که نشان می دهد عملکرد مدل به صورت پیش بینی به عنوان داده ها ، قدرت محاسبه و افزایش اندازه مدل بهبود می یابد. در حالی که این رویکرد مدلهای قدرتمندی را به همراه داشته است ، اما همچنین منجر به تجارت قابل توجهی از جمله هزینه های بالای زیرساخت ها ، تأثیرات زیست محیطی و مشکلات تأخیر شده است. همه برنامه ها به توانایی های کامل مدل های عظیم با صدها میلیارد پارامتر نیاز ندارند. در بسیاری از موارد عملی-مانند دستیاران در دستگاه ، مراقبت های بهداشتی و آموزش-مدل های کوچک می توانند در صورتی که بتوانند به طور مؤثر استدلال کنند ، به نتایج مشابهی برسند.

درک استدلال در هوش مصنوعی

استدلال در هوش مصنوعی به توانایی یک مدل در پیروی از زنجیره های منطقی ، درک علت و معلول ، استنباط پیامدها ، برنامه ریزی مراحل در یک فرآیند و شناسایی تضادها اشاره دارد. برای مدل های زبان ، این اغلب به معنای نه تنها بازیابی اطلاعات بلکه دستکاری و استنباط اطلاعات از طریق یک رویکرد ساخت یافته و گام به گام است. این سطح استدلال به طور معمول با تنظیم دقیق LLMS برای انجام استدلال چند مرحله ای قبل از رسیدن به پاسخ حاصل می شود. در حالی که مؤثر است ، این روشها منابع محاسباتی قابل توجهی را طلب می کنند و می توانند برای استقرار آهسته و پرهزینه باشند و نگرانی در مورد دسترسی و تأثیرات زیست محیطی آنها را افزایش دهند.

درک مدل های استدلال کوچک

مدل های استدلال کوچک با هدف تکرار قابلیت های استدلال مدل های بزرگ اما با بهره وری بیشتر از نظر قدرت محاسباتی ، استفاده از حافظه و تأخیر انجام می شود. این مدل ها اغلب از تکنیکی به نام استفاده می کنند تقطیر دانش، جایی که یک مدل کوچکتر (“دانش آموز”) از یک مدل بزرگتر و از قبل آموزش دیده (“معلم”) یاد می گیرد. فرآیند تقطیر شامل آموزش مدل کوچکتر بر روی داده های تولید شده توسط بزرگتر ، با هدف انتقال توانایی استدلال است. سپس مدل دانشجویی برای بهبود عملکرد خود به خوبی تنظیم می شود. در بعضی موارد ، یادگیری تقویت کننده با استفاده از توابع پاداش خاص دامنه خاص برای تقویت بیشتر توانایی مدل در انجام استدلال خاص کار استفاده می شود.

ظهور و پیشرفت مدل های استدلال کوچک

یک نقطه عطف قابل توجه در توسعه مدلهای استدلال کوچک با انتشار Deepseek-R1بشر علیرغم آموزش در یک خوشه نسبتاً متوسط ​​از GPU های قدیمی تر ، Deepseek-R1 عملکرد قابل مقایسه با مدل های بزرگتر مانند OPEAI O1 را در معیارهایی مانند MMLU و GSM-8K به دست آورد. این دستاورد منجر به تجدید نظر در مورد رویکرد مقیاس سنتی شده است ، که فرض می کند مدل های بزرگتر ذاتاً برتر هستند.

موفقیت Deepseek-R1 را می توان به فرایند آموزش نوآورانه آن نسبت داد ، که یادگیری تقویت در مقیاس بزرگ را بدون تکیه بر تنظیم دقیق نظارت در مراحل اولیه ترکیب کرد. این نوآوری منجر به ایجاد شد Deepseek-R1-Zero، مدلی که توانایی های استدلال چشمگیر را نشان می دهد ، در مقایسه با مدل های استدلال بزرگ. پیشرفت های بیشتر ، مانند استفاده از داده های شروع سرد ، باعث افزایش انسجام مدل و اجرای وظیفه ، به ویژه در مناطقی مانند ریاضی و کد می شود.

علاوه بر این ، تکنیک های تقطیر ثابت شده است که در توسعه مدلهای کوچکتر و کارآمدتر از مدل های بزرگتر بسیار مهم است. به عنوان مثال ، Deepseek نسخه های تقطیری از مدل های خود را منتشر کرده است ، با اندازه های 1.5 میلیارد تا 70 میلیارد پارامتر. با استفاده از این مدل ها ، محققان یک مدل بسیار کوچکتر را آموزش داده اند Deepseek-r1-distill-qwen-32b که بهتر عمل کرده است openai’s o1-mini در معیارهای مختلف. این مدل ها اکنون با سخت افزار استاندارد قابل استقرار هستند و آنها را برای طیف گسترده ای از برنامه ها گزینه ای مناسب تر می کند.

آیا مدل های کوچک می توانند با استدلال سطح GPT مطابقت داشته باشند

برای ارزیابی اینکه آیا مدل های استدلال کوچک (SRM) می توانند با قدرت استدلال مدل های بزرگ (LRM) مانند GPT مطابقت داشته باشند ، ارزیابی عملکرد آنها در معیارهای استاندارد مهم است. به عنوان مثال ، مدل Deepseek-R1 گل حدود 0.844 در تست MMLU، قابل مقایسه با مدل های بزرگتر مانند O1. در GSM-8K مجموعه داده ، که بر روی ریاضیات کلاس-مدرسه تمرکز دارد ، مدل مقطر Deepseek-R1 به دست آمده عملکرد سطح بالا ، بیش از هر دو O1 و O1-Mini.

در کارهای برنامه نویسی ، مانند مواردی لیوکود وت رمزگذاری، مدل های مقطر Deepseek-R1 انجام شده به طور مشابه با O1-Mini و GPT-4O ، توانایی استدلال قوی در برنامه نویسی را نشان می دهد. با این حال ، مدلهای بزرگتر هنوز هم دارند لبه در کارهایی که نیاز به درک گسترده تر زبان یا استفاده از ویندوزهای زمینه طولانی دارند ، زیرا مدل های کوچکتر تمایل به کار خاص تر دارند.

با وجود نقاط قوت آنها ، مدل های کوچک می توانند با کارهای استدلال گسترده یا در صورت مواجهه با داده های خارج از توزیع ، مبارزه کنند. به عنوان مثال ، در شبیه سازی های شطرنج LLM ، Deepseek-R1 اشتباهات بیشتری نسبت به مدل های بزرگتر انجام داده است ، و این محدودیت هایی را در توانایی آن در حفظ تمرکز و دقت در دوره های طولانی نشان می دهد.

معاملات و پیامدهای عملی

تجارت بین اندازه و عملکرد مدل هنگام مقایسه SRM ها با LRM های سطح GPT بسیار مهم است. مدل های کوچکتر به حافظه و قدرت محاسباتی کمتری نیاز دارند و آنها را برای دستگاه های لبه ، برنامه های تلفن همراه یا موقعیت هایی که استنتاج آفلاین لازم است ، ایده آل می کند. این کارآیی منجر به هزینه های عملیاتی کمتری می شود ، با مدل هایی مانند Deepseek-R1 تا 96 ٪ ارزان برای اجرای از مدل های بزرگتر مانند O1.

با این حال ، این دستاوردهای کارآیی با برخی از سازش ها همراه است. مدل های کوچکتر به طور معمول برای کارهای خاص تنظیم می شوند ، که می تواند تطبیق پذیری آنها را در مقایسه با مدل های بزرگتر محدود کند. به عنوان مثال ، در حالی که Deepseek-R1 در ریاضیات و برنامه نویسی عالی است ، آن کم بودن قابلیت های چند حالته مانند توانایی تفسیر تصاویر ، که مدل های بزرگتر مانند GPT-4O می توانند از عهده آن برآیند.

با وجود این محدودیت ها ، کاربردهای عملی مدل های استدلال کوچک بسیار گسترده است. در مراقبت های بهداشتی ، آنها می توانند ابزارهای تشخیصی را که تجزیه و تحلیل داده های پزشکی در سرورهای بیمارستان استاندارد را تجزیه و تحلیل می کنند. در آموزش و پرورش ، می توان از آنها برای توسعه سیستم های تدریس شخصی استفاده کرد و بازخورد گام به گام را به دانشجویان ارائه داد. در تحقیقات علمی ، آنها می توانند در زمینه تجزیه و تحلیل داده ها و آزمایش فرضیه در زمینه هایی مانند ریاضیات و فیزیک کمک کنند. ماهیت منبع باز مدل هایی مانند Deepseek-R1 همچنین همکاری را تقویت می کند و دسترسی به هوش مصنوعی را دموکراتیک می کند و سازمانهای کوچکتر را قادر می سازد تا از فناوری های پیشرفته بهره مند شوند.

خط پایین

تکامل مدل های زبان در مدلهای استدلال کوچکتر پیشرفت قابل توجهی در هوش مصنوعی است. در حالی که این مدل ها ممکن است هنوز به طور کامل با قابلیت های گسترده مدل های بزرگ زبان مطابقت نداشته باشند ، آنها مزایای اصلی در کارآیی ، مقرون به صرفه بودن و دسترسی را ارائه می دهند. با توجه به تعادل بین قدرت استدلال و کارآیی منابع ، مدل های کوچکتر قرار است نقش مهمی را در بین برنامه های مختلف ایفا کنند و هوش مصنوعی را برای استفاده در دنیای واقعی عملی تر و پایدار تر می کنند.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *