در یک اطلاعیه راهگشا، هوش مصنوعی مایع، یک اسپین آف MIT، اولین سری خود را معرفی کرده است مدل های فونداسیون مایع (LFMs). این مدلها که بر اساس اصول اولیه طراحی شدهاند، معیار جدیدی را در بازار ایجاد میکنند هوش مصنوعی مولد فضا، ارائه عملکرد بی نظیر در مقیاس های مختلف. LFM ها با معماری نوآورانه و قابلیت های پیشرفته خود، آماده به چالش کشیدن مدل های هوش مصنوعی پیشرو در صنعت، از جمله ChatGPT هستند.
هوش مصنوعی مایع توسط تیمی از محققان MIT، از جمله رامین حسنی ماتیاس لچنر، اسکندر امینی، و دانیلا روس. دفتر مرکزی آن در بوستون، ماساچوست، ماموریت این شرکت ایجاد سیستمهای هوش مصنوعی همهمنظوره توانا و کارآمد برای شرکتها در هر اندازه است. این تیم در ابتدا پیشگام شبکههای عصبی مایع، دستهای از مدلهای هوش مصنوعی با الهام از دینامیک مغز بودند، و اکنون قصد دارند قابلیتهای سیستمهای هوش مصنوعی را در هر مقیاسی، از دستگاههای لبهای گرفته تا استقرار در سطح سازمانی، گسترش دهند.
مدل های پایه مایع (LFM) چیست؟
مدلهای بنیاد مایع نشاندهنده نسل جدیدی از سیستمهای هوش مصنوعی هستند که هم در استفاده از حافظه و هم در قدرت محاسباتی بسیار کارآمد هستند. ساخته شده با پایه ای در سیستم های دینامیکی، پردازش سیگنال، و جبر خطی عددی، این مدل ها برای رسیدگی به انواع مختلف داده های متوالی – مانند متن، ویدئو، صدا و سیگنال ها – با دقت قابل توجهی طراحی شده اند.
Liquid AI سه مدل زبان اصلی را به عنوان بخشی از این راه اندازی توسعه داده است:
- LFM-1B: یک مدل متراکم با 1.3 میلیارد پارامتر، بهینه سازی شده برای محیط های با محدودیت منابع.
- LFM-3B: یک مدل 3.1 میلیارد پارامتر، ایده آل برای سناریوهای استقرار لبه، مانند برنامه های کاربردی تلفن همراه.
- LFM-40Bمدل 40.3 میلیارد پارامتری ترکیبی از کارشناسان (MoE) که برای انجام وظایف پیچیده با عملکرد استثنایی طراحی شده است.
این مدلها در حال حاضر نتایج پیشرفتهای را در معیارهای کلیدی هوش مصنوعی نشان دادهاند و آنها را به رقیبی قدرتمند برای مدلهای هوش مصنوعی مولد موجود تبدیل کردهاند.
اجرای مدرن
LFM های هوش مصنوعی مایع بهترین عملکرد را در بین معیارهای مختلف ارائه می دهند. به عنوان مثال، LFM-1B عملکرد بهتری نسبت به مدل های مبتنی بر ترانسفورماتور در رده اندازه خود دارد، در حالی که LFM-3B با مدل های بزرگتر مانند Phi-3.5 مایکروسافت و سری Llama متا رقابت می کند. را LFM-40B مدل، با وجود اندازه اش، به اندازه کافی برای رقابت با مدل هایی با تعداد پارامترهای بزرگتر کارآمد است و تعادل منحصر به فردی بین عملکرد و کارایی منابع ارائه می دهد.
برخی از نکات برجسته عملکرد LFM عبارتند از:
- LFM-1B: بر معیارهایی مانند MMLU و ARC-C تسلط دارد و استاندارد جدیدی را برای مدلهای پارامتر 1B تعیین میکند.
- LFM-3B: از نظر کارایی از مدلهایی مانند Phi-3.5 و Gemma 2 گوگل پیشی میگیرد، در حالی که حافظه کمی را حفظ میکند، و آن را برای برنامههای هوش مصنوعی موبایل و لبهای ایدهآل میکند.
- LFM-40B: معماری MoE این مدل عملکرد قابل مقایسه ای را با مدل های بزرگتر با 12 میلیارد پارامتر فعال در هر زمان ارائه می دهد.
عصر جدید در بهره وری هوش مصنوعی
یک چالش مهم در هوش مصنوعی مدرن، مدیریت حافظه و محاسبات است، بهویژه هنگام کار با وظایف با زمینه طولانی مانند خلاصهسازی اسناد یا تعاملات رباتهای گفتگو. LFM ها در این زمینه با فشرده سازی موثر داده های ورودی برتری دارند و در نتیجه مصرف حافظه در طول استنتاج کاهش می یابد. این به مدل ها اجازه می دهد تا توالی های طولانی تری را بدون نیاز به ارتقاء سخت افزاری گران قیمت پردازش کنند.
به عنوان مثال، LFM-3B ارائه می دهد a طول زمینه نشانه 32k– تبدیل آن به یکی از کارآمدترین مدل ها برای کارهایی که نیاز به پردازش همزمان مقادیر زیادی داده دارند.
یک معماری انقلابی
LFM ها بر اساس یک چارچوب معماری منحصر به فرد ساخته شده اند که از مدل های ترانسفورماتور سنتی منحرف شده است. معماری حول عملگرهای خطی تطبیقی متمرکز شده است که محاسبات را بر اساس داده های ورودی تعدیل می کنند. این رویکرد به هوش مصنوعی Liquid اجازه میدهد تا عملکرد را در پلتفرمهای سختافزاری مختلف از جمله NVIDIA، AMD، Cerebras و سختافزار اپل بهطور قابلتوجهی بهینه کند.
را فضای طراحی برای LFM ها شامل ترکیبی جدید از توکن-اختلاط و ساختارهای اختلاط کانال که نحوه پردازش داده ها را در مدل بهبود می بخشد. این منجر به قابلیت های تعمیم و استدلال برتر، به ویژه در کارهای طولانی و کاربردهای چندوجهی می شود.
گسترش مرز هوش مصنوعی
هوش مصنوعی مایع جاه طلبی های بزرگی برای LFM ها دارد. فراتر از مدلهای زبان، این شرکت در حال توسعه مدلهای پایه خود برای پشتیبانی از روشهای مختلف داده، از جمله دادههای ویدیویی، صوتی و سری زمانی است. این پیشرفتها LFMها را قادر میسازد تا در صنایع مختلف مانند خدمات مالی، بیوتکنولوژی و لوازم الکترونیکی مصرفی مقیاس شوند.
این شرکت همچنین بر مشارکت در جامعه علوم باز متمرکز است. در حالی که خود مدلها در حال حاضر منبع باز نیستند، هوش مصنوعی Liquid قصد دارد یافتههای تحقیقاتی مرتبط، روشها و مجموعه دادهها را برای جامعه گستردهتر هوش مصنوعی منتشر کند و همکاری و نوآوری را تشویق کند.
دسترسی زودهنگام و پذیرش
هوش مصنوعی مایع در حال حاضر دسترسی اولیه به LFM های خود را از طریق پلتفرم های مختلف از جمله ارائه می دهد زمین بازی مایع، لامبدا (Chat UI و API)، و آزمایشگاه های گیجی. شرکتهایی که به دنبال ادغام سیستمهای هوش مصنوعی پیشرفته در عملیات خود هستند، میتوانند پتانسیل LFMها را در محیطهای استقرار مختلف، از دستگاههای لبه گرفته تا راهحلهای داخلی، کشف کنند.
رویکرد علم باز هوش مصنوعی مایع، پذیرندگان اولیه را تشویق میکند تا تجربیات و بینشهای خود را به اشتراک بگذارند. این شرکت فعالانه به دنبال بازخورد برای اصلاح و بهینه سازی مدل های خود برای برنامه های کاربردی در دنیای واقعی است. توسعهدهندگان و سازمانهایی که علاقهمند به تبدیل شدن به بخشی از این سفر هستند، میتوانند به تلاشهای تیم قرمز کمک کنند و به هوش مصنوعی مایع در بهبود سیستمهای هوش مصنوعی خود کمک کنند.
نتیجه گیری
انتشار Liquid Foundation Models یک پیشرفت قابل توجه در چشم انداز هوش مصنوعی است. با تمرکز بر کارایی، سازگاری و عملکرد، LFMها آماده هستند تا روشی را که شرکتها به یکپارچهسازی هوش مصنوعی نزدیک میکنند، تغییر دهند. همانطور که سازمان های بیشتری این مدل ها را اتخاذ می کنند، چشم انداز هوش مصنوعی مایع از سیستم های هوش مصنوعی مقیاس پذیر و همه منظوره احتمالا به سنگ بنای عصر بعدی هوش مصنوعی تبدیل خواهد شد.
اگر علاقه مند به بررسی پتانسیل های LFM برای سازمان خود هستید، Liquid AI از شما دعوت می کند که با هم تماس بگیرید و به جامعه رو به رشدی از پذیرندگان اولیه بپیوندید که آینده هوش مصنوعی را شکل می دهند.
برای اطلاعات بیشتر مراجعه کنید وب سایت رسمی Liquid AI و از امروز شروع به آزمایش با LFM کنید.