افزایش استنتاج AI: تکنیک های پیشرفته و بهترین شیوه ها



وقتی صحبت از برنامه های AI در زمان واقعی مانند اتومبیل های خودران یا نظارت بر مراقبت های بهداشتی، حتی یک ثانیه اضافی برای پردازش ورودی می تواند عواقب جدی داشته باشد. برنامه های AI در زمان واقعی به GPU های قابل اعتماد و قدرت پردازش نیاز دارند ، که برای بسیاری از برنامه ها بسیار گران و هزینه ای بوده است.

با اتخاذ یک فرایند استنتاج بهینه سازی ، مشاغل نه تنها می توانند از کارآیی هوش مصنوعی استفاده کنند. آنها همچنین می توانند مصرف انرژی و هزینه های عملیاتی (تا 90 ٪) را کاهش دهند. تقویت حریم خصوصی و امنیت ؛ و حتی رضایت مشتری را بهبود بخشید.

مسائل استنباط مشترک

برخی از متداول ترین موضوعاتی که شرکت ها هنگام مدیریت کارآیی هوش مصنوعی با آن روبرو هستند شامل خوشه های GPU مورد استفاده نشده ، پیش فرض به مدلهای هدف کلی و عدم بینش در هزینه های مرتبط است.

تیم ها اغلب خوشه های GPU را برای بار اوج تهیه می کنند ، اما بین 70 تا 80 درصد از زمان ، آنها به دلیل گردش کار ناهموار مورد استفاده قرار نمی گیرند.

علاوه بر این ، تیم ها به طور پیش فرض به مدل های بزرگ با هدف عمومی (GPT-4 ، CLAUDE) حتی برای کارهایی که می توانند روی مدل های کوچکتر و ارزان تر منبع باز اجرا شوند. دلایل؟ کمبود دانش و منحنی یادگیری شیب دار با ساخت مدلهای سفارشی.

سرانجام ، مهندسان به طور معمول فاقد بینش در مورد هزینه واقعی برای هر درخواست هستند و منجر به قبض های سنگین می شوند. ابزارهایی مانند PromptLayer ، هلیکون می تواند به ارائه این بینش کمک کند.

با کمبود کنترل در انتخاب مدل ، دسته بندی و استفاده ، هزینه های استنباط می تواند به صورت تصاعدی (تا 10 بار) ، منابع زباله ، دقت را محدود کرده و تجربه کاربر را کاهش دهد.

مصرف انرژی و هزینه های عملیاتی

اجرای LLM های بزرگتر مانند GPT-4 ، Llama 3 70B یا Mixtral-8x7B نیاز دارد به طور قابل توجهی قدرت بیشتر در هر نشانه به طور متوسط ​​، 40 تا 50 درصد از انرژی مورد استفاده توسط یک مرکز داده تجهیزات محاسباتی را قدرت می دهد و 30 تا 40 درصد اضافی نیز به خنک کردن تجهیزات اختصاص می یابد.

بنابراین ، برای شرکتی که در حال انجام است و استنباط در مقیاس است ، مفیدتر است که یک ارائه دهنده فرضیه را بر خلاف یک ارائه دهنده ابر در نظر بگیرید تا از پرداخت هزینه حق بیمه خودداری کند و مصرف انرژی بیشتربشر

حریم خصوصی و امنیت

به گفته CISCاوس 2025 مطالعه معیار حریم خصوصی دادهبا 64 ٪ از پاسخ دهندگان نگران به اشتراک گذاری سهواً اطلاعات حساس به صورت عمومی یا با رقبا هستند ، اما تقریباً نیمی از آنها به وارد کردن داده های شخصی شخصی یا غیر عمومی به ابزارهای Genai اعتراف می کنند. ” در صورت عدم ورود به سیستم داده ها یا ذخیره ، این خطر عدم رعایت را افزایش می دهد.

فرصت دیگر برای ریسک اجرای مدل ها در سازمان های مختلف مشتری در زیرساخت های مشترک است. این می تواند منجر به نقض داده ها و مشکلات عملکرد شود و خطر بیشتری از اقدامات کاربر تأثیر می گذارد که سایر کاربران را تحت تأثیر قرار می دهد. از این رو ، شرکت ها به طور کلی خدمات مستقر در ابر خود را ترجیح می دهند.

رضایت مشتری

هنگامی که پاسخ ها بیش از چند ثانیه طول می کشد تا نمایش داده شود ، کاربران به طور معمول از کار خود خارج می شوند و از تلاش مهندسان برای بیش از حد بهینه سازی برای تأخیر صفر پشتیبانی می کنند. علاوه بر این ، برنامه های کاربردی “موانعی مانند توهم و عدم صحت که ممکن است تأثیر و تصویب گسترده را محدود کند ، “طبق یک انتشار مطبوعات گارتنربشر

مزایای تجاری مدیریت این موضوعات

بهینه سازی دسته بندی ، انتخاب مدلهای به اندازه سمت راست (به عنوان مثال ، تغییر از مدل های منبع Llama 70B یا منبع بسته مانند GPT به Gemma 2B در صورت امکان) و بهبود استفاده از GPU می تواند صورتحساب استنتاج را بین 60 تا 80 درصد کاهش دهد. استفاده از ابزارهایی مانند VLLM می تواند کمک کند ، همانطور که می تواند به یک مدل پرداخت بدون سرور برای یک گردش کار تند و سریع تبدیل شود.

به عنوان مثال از CleanLab استفاده کنید. پاک کردن راه اندازی مدل زبان قابل اعتماد (TLM) به اضافه کردن یک امتیاز اعتماد به هر پاسخ LLM. این برنامه برای خروجی های با کیفیت بالا و قابلیت اطمینان پیشرفته طراحی شده است ، که برای کاربردهای سازمانی برای جلوگیری از توهم بدون بررسی بسیار مهم است. قبل از استنباط ، ClearLabs هزینه های GPU را افزایش می داد ، زیرا GPU ها حتی در صورت استفاده فعال از آنها در حال اجرا بودند. مشکلات آنها برای ارائه دهندگان GPU Cloud سنتی معمولی بود: تأخیر بالا ، مدیریت هزینه ناکارآمد و یک محیط پیچیده برای مدیریت. با استنباط بدون سرور ، آنها ضمن حفظ سطح عملکرد ، 90 درصد هزینه ها را کاهش می دهند. مهمتر از همه ، آنها طی دو هفته بدون هزینه های اضافی مهندسی به صورت زنده رفتند.

بهینه سازی معماری های مدل

مدل های بنیادی مانند GPT و Claude اغلب برای کلیت آموزش داده می شوند ، نه کارآیی یا کارهای خاص. مشاغل با استفاده از مدل های منبع باز برای موارد خاص ، مشاغل حافظه را هدر داده و زمان را برای کارهایی که به آن مقیاس احتیاج ندارند ، محاسبه می کنند.

تراشه های جدیدتر GPU مانند H100 سریع و کارآمد هستند. اینها به ویژه در هنگام انجام عملیات در مقیاس بزرگ مانند تولید فیلم یا کارهای مرتبط با AI مهم هستند. هسته های بیشتر CUDA سرعت پردازش را افزایش می دهد و از GPU های کوچکتر بهتر عمل می کند. nvidia’s هسته های تانسور برای تسریع این کارها در مقیاس طراحی شده اند.

حافظه GPU همچنین در بهینه سازی معماری های مدل مهم است ، زیرا مدل های بزرگ هوش مصنوعی به فضای قابل توجهی نیاز دارند. این حافظه اضافی GPU را قادر می سازد مدلهای بزرگتر را بدون سرعت به خطر بیاندازد. در مقابل ، عملکرد GPU های کوچکتر که VRAM کمتری دارند ، رنج می برند ، زیرا داده ها را به یک RAM سیستم کندتر منتقل می کنند.

چندین مزیت برای بهینه سازی معماری مدل شامل صرفه جویی در وقت و هزینه است. اول ، جابجایی از ترانسفورماتور متراکم به انواع مختلف مبتنی بر LORA یا مبتنی بر فلاش ، می تواند بین 200 تا 400 میلی ثانیه از زمان پاسخگویی در هر پرس و جو اصلاح کند ، که به عنوان مثال در Chatbots و بازی بسیار مهم است. علاوه بر این ، مدل های کمیت (مانند 4 بیتی یا 8 بیتی) به VRAM کمتری احتیاج دارند و سریعتر روی GPU های ارزان تر اجرا می شوند.

معماری مدل بلند مدت و بهینه سازی باعث صرفه جویی در هزینه در استنتاج می شود ، زیرا مدل های بهینه شده می توانند روی تراشه های کوچکتر اجرا شوند.

بهینه سازی معماری مدل مراحل زیر را شامل می شود:

  • میزان سازی – کاهش دقت (FP32 → INT4/int8) ، صرفه جویی در حافظه و سرعت بخشیدن به زمان محاسبه
  • هرس – از بین بردن وزن یا لایه های کمتر مفید (ساختار یافته یا بدون ساختار)
  • تقطیر – آموزش یک مدل “دانش آموز” کوچکتر برای تقلید از خروجی یک بزرگتر

اندازه مدل فشرده سازی

مدل های کوچکتر میانگین استنباط سریعتر و زیرساخت های ارزان تر. مدل های بزرگ (13B+، 70B+) به GPU های گران قیمت (A100s ، H100s) ، VRAM بالا و قدرت بیشتر نیاز دارند. فشرده سازی آنها باعث می شود تا با تأخیر بسیار کمتری روی سخت افزار ارزان تر مانند A10 یا T4 استفاده کنند.

مدلهای فشرده شده همچنین برای اجرای دستگاه در دستگاه (تلفن ها ، مرورگرها ، IoT) استنباط بسیار مهم هستند ، زیرا مدل های کوچکتر خدمات درخواست های همزمان تر را بدون مقیاس زیرساخت ها امکان پذیر می کنند. در یک چت بابات با بیش از 1000 کاربر همزمان ، رفتن از 13B به یک مدل فشرده شده 7B به یک تیم اجازه داد بیش از دو برابر میزان کاربران در هر GPU بدون سنبله های تأخیر خدمت کند.

اعمال سخت افزار تخصصی

CPU های هدف عمومی برای عملیات تانسور ساخته نشده اند. سخت افزار تخصصی مانند NVIDIA A100S ، H100S ، Google TPUS یا AWS Inferentia می تواند استنتاج سریعتر (بین 10 تا 100 برابر) را برای LLM ها با راندمان انرژی بهتر ارائه دهد. تراشیدن حتی 100 میلی ثانیه در هر درخواست می تواند هنگام پردازش میلیون ها درخواست روزانه تغییر کند.

این مثال فرضی را در نظر بگیرید:

تیمی برای سیستم RAG داخلی خود Llama-13B را در GPU های استاندارد A10 در حال اجرا است. تأخیر در حدود 1.9 ثانیه است و به دلیل محدودیت VRAM نمی توانند زیاد جمع شوند. بنابراین آنها با Tensorrt-LLM به H100s تغییر می کنند ، FP8 را فعال می کنند و هسته توجه را بهینه می کنند ، اندازه دسته ای را از هشت به 64 افزایش می دهند. نتیجه این است که تأخیر را به 400 میلی ثانیه با افزایش 5 بار در توان انجام می دهد.
در نتیجه ، آنها می توانند پنج بار در همان بودجه درخواست ها را ارائه دهند و مهندسان را از پیمایش بطن های زیرساختی آزاد کنند.

ارزیابی گزینه های استقرار

فرآیندهای مختلف به زیرساخت های مختلف نیاز دارند. یک چت بابات با 10 کاربر و یک موتور جستجو که روزانه یک میلیون نمایش داده می شود ، نیازهای متفاوتی دارد. رفتن همه روی ابر (به عنوان مثال ، AWS Sagemaker) یا سرورهای GPU DIY بدون ارزیابی نسبت های عملکرد هزینه منجر به هدر رفتن هزینه و تجربه کاربر ضعیف می شود. توجه داشته باشید که اگر زودتر به یک ارائه دهنده ابر بسته متعهد شوید ، مهاجرت بعداً دردناک است. با این حال ، ارزیابی زودهنگام با یک ساختار پرداخت به عنوان شما گزینه هایی را به شما می دهد.

ارزیابی شامل مراحل زیر است:

  • تأخیر و هزینه مدل معیار در سیستم عامل ها: تست های A/B را روی AWS ، لاجورد ، خوشه های GPU محلی یا ابزارهای بدون سرور برای تکرار اجرا کنید.
  • اندازه گیری عملکرد شروع سرد: این به ویژه برای بارهای بدون سرور یا رویداد محور مهم است ، زیرا مدل ها سریعتر بار می شوند.
  • ارزیابی و محدودیت های مقیاس گذاری را ارزیابی کنید: معیارهای موجود را ارزیابی کنید و قبل از تحقیر ، حداکثر پرس و جو در ثانیه را مشخص کنید.
  • پشتیبانی از انطباق را بررسی کنید: تعیین کنید که آیا می توانید قوانین داده های GEO محدود را اجرا کنید یا گزارش های حسابرسی.
  • هزینه کل مالکیت را تخمین بزنید. این باید شامل ساعات GPU ، ذخیره سازی ، پهنای باند و سربار برای تیم ها باشد.

خط پایین

استنتاج مشاغل را قادر می سازد تا عملکرد هوش مصنوعی خود را ، کاهش مصرف انرژی و هزینه ها ، حفظ حریم خصوصی و امنیت و خوشحال کردن مشتریان بهینه کنند.

پست افزایش استنتاج AI: تکنیک های پیشرفته و بهترین شیوه ها برای اولین بار ظاهر شد unite.aiبشر



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *