منبع باز هوش مصنوعی با Meta’s Llama 4 به عقب برگردد


در چند سال گذشته ، جهان هوش مصنوعی از فرهنگ همکاری آزاد به یکی از آنها تحت سلطه سیستم های اختصاصی از نزدیک محافظت شده است. Openai – شرکتی که به معنای واقعی کلمه با “باز” ​​به نام خود تأسیس شده است – محور نگه داشتن قدرتمندترین مدل های خود پس از سال 2019 است. رقبا دوست دارند وابسته به انسان شناسی وت گوگل به طور مشابه ساخته شده است که در پشت دیوارهای API ساخته شده است ، که فقط در شرایط آنها قابل دسترسی است. این رویکرد بسته تا حدودی توسط ایمنی و علایق تجاری توجیه شد ، اما بسیاری از افراد را در جامعه به ابراز تاسف از دست دادن روح اولیه منبع باز کرد.

اکنون ، آن روح در حال بازگشت است. متا مدل های تازه منتشر شده Llama 4 یک تلاش جسورانه برای احیای هوش مصنوعی منبع باز در بالاترین سطح-و حتی بازیکنان محافظت شده سنتی نیز توجه می کنند. سام آلتمن ، مدیرعامل Openai ، اخیراً اعتراف كرد كه این شركت “در سمت اشتباه تاریخ” در مورد مدل های باز و برنامه های اعلام شده برای یک نوع GPT-4 “قدرت جدید قدرتمند”. به طور خلاصه ، هوش مصنوعی منبع باز به عقب برگردد و معنی و ارزش “باز” ​​در حال تحول است.

(منبع: متا)

Llama 4: Meta’s Open Challenger to GPT-4O ، Claude و Gemini

متا از Llama 4 به عنوان یک چالش مستقیم دیگر برای مدل های جدید از سنگین وزن AI رونمایی کرد و آن را به عنوان یک جایگزین با وزن باز قرار داد. Llama 4 در دو طعم موجود امروز-Llama 4 Scout و Llama 4 Maverick-با مشخصات فنی چشم نواز موجود است. هر دو هستند مخلوط کنفرانس (MOE) مدلهایی که تنها بخشی از پارامترهای خود را در هر پرس و جو فعال می کنند ، و بدون خرد کردن هزینه های زمان اجرا ، اندازه کل را امکان پذیر می کنند. Scout و Maverick هر یک از 17 میلیارد پارامتر “فعال” (بخشی که روی هر ورودی مشخص کار می کند) استفاده می کنند ، اما به لطف MOE ، Scout این افراد را در 16 متخصص (109 پارامتر 109B) و ماوریک در 128 متخصص (400B کل) پخش می کند. نتیجه: مدل های Llama 4 عملکرد فوق العاده ای را ارائه می دهند – و این کار را با قدرت های منحصر به فرد انجام می دهند که حتی برخی از مدل های بسته فاقد آن هستند.

به عنوان مثال ، Llama 4 Scout دارای یک پنجره زمینه 10 میلیون توکن پیشرو در صنعت ، سفارشات بزرگی فراتر از اکثر رقبا است. این بدان معناست که می تواند در یک حرکت به اسناد و مدارک واقعاً عظیم یا کد های رمزگذاری شده و استدلال کند. با وجود مقیاس خود ، Scout به اندازه کافی کارآمد است که بتواند در هنگام بسیار کم نظیر روی یک GPU H100 واحد اجرا کند ، و اظهار داشت که توسعه دهندگان برای آزمایش با آن نیازی به ابر رایانه ندارند.

در همین حال Llama 4 Maverick برای حداکثر قدرت تنظیم شده است. تست های اولیه نشان می دهد که Maverick تطبیق یا ضرب و شتم مدل های برتر بسته در زمینه استدلال ، برنامه نویسی و بینایی. در حقیقت ، متا در حال حاضر یک خواهر و برادر بزرگتر ، Llama 4 Behemoth ، که هنوز در آموزش است ، در حال آموزش است “Outforms GPT-4.5 ، Claude 3.7 Sonnet و Gemini 2.0 Pro در چندین معیار ساقه.” پیام واضح است: مدل های باز دیگر درجه دوم نیستند. Llama 4 برای وضعیت پیشرفته در حال تلاش است.

به همان اندازه مهم ، متا باعث شده Llama 4 بلافاصله برای بارگیری و استفاده در دسترس باشد. توسعه دهندگان می توانند Scout و Maverick را از سایت رسمی بگیرند یا بغل کردن صورت تحت مجوز جامعه Llama 4. این بدان معناست که هرکسی-از یک هکر گاراژ گرفته تا یک شرکت Fortune 500-می تواند زیر کاپوت قرار بگیرد ، مدل را به نیازهای خود تنظیم کند و آن را بر روی سخت افزار یا ابر خود مستقر کند. این یک تضاد دقیق با پیشنهادات اختصاصی مانند GPT-4O Openai یا Claude 3.7 Anthropic است که از طریق API های پرداخت شده و بدون دسترسی به وزنهای اساسی ارائه می شود.

متا تأکید می کند که باز بودن لاما 4 در مورد توانمندسازی کاربران است: “ما اولین مدل ها را در گله Llama 4 به اشتراک می گذاریم ، که به افراد امکان می دهد تجربیات چندمدی شخصی تری بسازند.” به عبارت دیگر ، Llama 4 یک ابزار ابزار است که به معنای قرار گرفتن در دست توسعه دهندگان و محققان در سراسر جهان است. متا با انتشار مدل هایی که می توانند امثال GPT-4 و Claude را در توانایی رقیب کنند ، در حال احیای این مفهوم است که AI سطح بالا نیازی به زندگی در پشت یک Paywall ندارد.

(منبع: متا)

ایده آل گرایی معتبر یا بازی استراتژیک؟

Meta Pitches Llama 4 از نظر عالی و تقریباً نوع دوستانه. “مدل هوش مصنوعی منبع باز ما ، Llama ، بیش از یک میلیارد بار بارگیری شده است ،” مدیرعامل مارک زاکربرگ اخیراً اعلام شد، اضافه کردن آن “مدلهای هوش مصنوعی با منابع باز برای اطمینان از دسترسی افراد در همه جا به مزایای هوش مصنوعی ضروری است.” این قاب بندی متا را به عنوان مشعل هوش مصنوعی دموکراتیزه-شرکتی که مایل به به اشتراک گذاشتن مدل های تاج و جواهر خود برای منافع بیشتر است ، نقاشی می کند. و در واقع ، محبوبیت خانواده Llama از این امر حمایت می کند: مدل ها در مقیاس حیرت انگیز بارگیری شده اند (از 650 میلیون به 1 میلیارد بارگیری در کل در چند ماه پرش می کنند) ، و آنها قبلاً توسط شرکت هایی مانند Spotify ، AT&T و Doordash در تولید استفاده می شوند.

متا با افتخار خاطرنشان می کند که توسعه دهندگان از “شفافیت ، قابلیت شخصی سازی و امنیت” از داشتن مدلهای باز می توانند خودشان را اجرا کنند. “به رسیدن به سطوح جدید خلاقیت و نوآوری کمک می کند ،” در مقایسه با API های جعبه سیاه. در اصل ، این به نظر می رسد که اخلاق نرم افزار منبع باز قدیمی (فکر می کنید لینوکس یا آپاچی) برای AI اعمال می شود-یک پیروزی نامشخص برای جامعه.

با این حال ، نمی توان حساب استراتژیک پشت این باز بودن را نادیده گرفت. متا یک موسسه خیریه نیست و “منبع باز” در این زمینه با احتیاط همراه است. نکته قابل توجه ، Llama 4 تحت مجوز ویژه جامعه منتشر می شود ، نه یک مجوز مجاز استاندارد-بنابراین در حالی که وزن مدل برای استفاده رایگان است ، محدودیت هایی وجود دارد (به عنوان مثال ، برخی از موارد استفاده از منبع بالا ممکن است نیاز به مجوز داشته باشد ، و مجوز دارد “اختصاصی” به این معنا که توسط متا ساخته شده است). این نیست ابتکار منبع باز (OSI) تعریف تأیید شده از منبع باز ، که باعث شده برخی از منتقدین استدلال کنند که شرکت ها از این اصطلاح سوء استفاده می کنند.

در عمل ، رویکرد متا اغلب به عنوان “وزن باز” یا “منبع در دسترس” هوش مصنوعی توصیف می شود: کد و وزن در باز است ، اما متا هنوز هم کنترل خود را حفظ می کند و همه چیز را فاش نمی کند (به عنوان مثال داده های آموزش). این از ابزار کاربران کم نمی کند ، اما نشان می دهد متا است از لحاظ استراتژیک باز – نگه داشتن مجدداً به اندازه کافی برای محافظت از خود (و شاید لبه رقابتی آن). بسیاری از بنگاه ها ضمن نگه داشتن جزئیات کلیدی ، برچسب های “منبع باز” را در مدل های هوش مصنوعی سیلی می زنند و روح واقعی باز بودن را خراب می کنند.

چرا متا اصلاً باز می شود؟ چشم انداز رقابتی سرنخ هایی را ارائه می دهد. انتشار مدلهای قدرتمند به صورت رایگان می تواند به سرعت یک توسعه دهنده گسترده و پایگاه کاربر سازمانی ایجاد کند – mistral ai، یک استارتاپ فرانسوی ، دقیقاً این کار را با مدلهای اولیه باز خود انجام داد تا اعتبار خود را به عنوان یک آزمایشگاه سطح بالا بدست آورد.

متا با کاشت بازار با لاما ، تضمین می کند که فناوری خود در اکوسیستم هوش مصنوعی بنیادی می شود ، که می تواند سود سهام را طولانی مدت بپردازد. این یک استراتژی کلاسیک آغوش و متن است: اگر همه از مدل “باز” ​​شما استفاده می کنند ، شما به طور غیرمستقیم استانداردها را تعیین می کنید و حتی ممکن است مردم را به سمت سیستم عامل های خود سوق دهید (به عنوان مثال ، محصولات دستیار AI متا به عنوان للاما اهرم می کند. همچنین یک عنصر PR و موقعیت یابی وجود دارد. متا می تواند نقش نوآورانه خیرخواهانه را بازی کند ، به ویژه در مورد Openi-Open-Rockitiation ، که از آن رویکرد بسته شده است-که در آن رویکرد بسته است. تأکید می کند که حرکت متا چقدر مؤثر بوده است.

پس از مدل باز پیشگام چینی Deepseek-R1 آلتمن در ژانویه ظاهر شد و مدلهای قبلی را جهش داد ، آلتمن اظهار داشت که اوپای نمی خواهد در “سمت اشتباه تاریخ” باقی بماند. اکنون Openai نوید الگوی باز با توانایی های استدلال قوی در آینده را دارد ، نشانه تغییر نگرشبشر دیدن تأثیر متا در آن تغییر کار سختی نیست. وضعیت منبع باز متا هر دو معتبر است وت استراتژیک: این واقعاً دسترسی به هوش مصنوعی را گسترده تر می کند ، اما همچنین یک قمار زرنگ و دانا برای رقبا از رقیب و شکل دادن به آینده بازار با شرایط متا است.

پیامدهای مربوط به توسعه دهندگان ، شرکت ها و آینده هوش مصنوعی

برای توسعه دهندگان ، تجدید حیات مدل های باز مانند Llama 4 نفس هوای تازه است. آنها به جای اینکه در اکوسیستم و هزینه های یک ارائه دهنده واحد قفل شوند ، اکنون این گزینه را دارند که هوش مصنوعی قدرتمند را بر روی زیرساخت های خود اجرا کنند یا آن را آزادانه سفارشی کنند.

این یک مزیت بزرگ برای شرکت ها در صنایع حساس است – فکر کنید امور مالی ، مراقبت های بهداشتی یا دولت – که نسبت به تغذیه داده های محرمانه در جعبه سیاه شخص دیگری احتیاط می کنند. با Llama 4 ، یک بانک یا بیمارستان می تواند یک مدل زبان پیشرفته را در پشت فایروال خود مستقر کند و آن را بر روی داده های خصوصی تنظیم کند ، بدون اینکه یک نشانه را با یک نهاد خارجی به اشتراک بگذارد. یک مزیت هزینه نیز وجود دارد. در حالی که هزینه های API مبتنی بر استفاده برای مدل های برتر می تواند افزایش یابد ، یک مدل باز هیچ عوارض استفاده ای ندارد-شما فقط برای قدرت محاسبات برای اجرای آن پرداخت می کنید. مشاغلی که بارهای سنگین AI را افزایش می دهند ، با انتخاب یک راه حل باز می توانند در خانه ، به طور قابل توجهی صرفه جویی کنند.

جای تعجب نیست که ما شاهد علاقه بیشتری به مدل های باز از شرکت ها هستیم. بسیاری شروع به درک این موضوع کرده اند که کنترل و امنیت هوش مصنوعی منبع باز با نیازهای خود بهتر از خدمات بسته یک اندازه است.

توسعه دهندگان نیز از مزایای نوآوری بهره می گیرند. با دسترسی به داخلی مدل ، آنها می توانند هوش مصنوعی را برای حوزه های طاقچه (قانون ، بیوتکنولوژی ، زبانهای منطقه ای-شما آن را نامگذاری می کنید) تنظیم و بهبود بخشید. انفجار پروژه های محور جامعه در اطراف مدل های قبلی Llama-از Chatbots خوب بر روی دانش پزشکی گرفته تا برنامه های تلفن هوشمند سرگرمی که نسخه های مینیاتوری را اجرا می کنند-ثابت کرد که چگونه مدل های باز می توانند آزمایش را دموکراتیک کنند.

با این حال ، رنسانس مدل باز نیز سؤالات سختی را ایجاد می کند. آیا اگر فقط کسانی که منابع محاسباتی قابل توجهی دارند می توانند یک مدل پارامتر 400B را اجرا کنند ، “دموکراتیک سازی” واقعاً اتفاق می افتد؟ در حالی که Llama 4 Scout و Maverick نوار سخت افزار را در مقایسه با مدل های یکپارچه پایین می آورند ، آنها هنوز هم سنگین وزن هستند – نکته ای که برای برخی از توسعه دهندگان از دست نمی رود که رایانه های شخصی آنها بدون کمک ابر نمی توانند از آنها برخورد کنند.

امید این است که تکنیک هایی مانند فشرده سازی مدل ، تقطیر یا انواع تخصصی کوچکتر قدرت لاما 4 را به اندازه های قابل دسترسی تر کاهش دهند. نگرانی دیگر سوء استفاده است. Openai و دیگران مدتها استدلال می کردند که انتشار مدل های قدرتمند آشکارا می تواند بازیگران مخرب را فعال کند (برای تولید اطلاعاتی ، کد بدافزار و غیره).

این نگرانی ها باقی مانده است: یک کلود منبع باز یا GPT می تواند بدون فیلترهای ایمنی که شرکت ها در API های خود اعمال می کنند ، سوء استفاده شود. از طرف تلنگر ، طرفداران استدلال می کنند که باز بودن اجازه می دهد جامعه همچنین برای شناسایی و رفع مشکلات ، ایجاد مدل ها با گذشت زمان از هر سیستم مخفی ، مدل ها قوی تر و شفاف تر می شوند. شواهدی وجود دارد که نشان می دهد جوامع مدل باز ایمنی را جدی می گیرند ، نگهبانان خود را توسعه می دهند و بهترین شیوه ها را به اشتراک می گذارند – اما این یک تنش مداوم است.

آنچه به طور فزاینده ای مشخص است این است که ما به سمت یک منظره ترکیبی هوش مصنوعی حرکت می کنیم که مدلهای باز و بسته همزیستی دارند و هر کدام بر دیگری تأثیر می گذارند. ارائه دهندگان بسته مانند Openai ، Anthropic و Google هنوز هم در عملکرد مطلق هستند – در حال حاضر. در واقع ، از اواخر سال 2024 ، تحقیقات حاکی از آن است مدل های باز حدود یک سال پشت بهترین مدل های بسته شده اند در قابلیت اما این شکاف به سرعت بسته می شود.

در بازار امروز ، “هوش مصنوعی منبع باز” دیگر فقط به معنای پروژه های سرگرمی یا مدل های قدیمی نیست-اکنون در قلب استراتژی هوش مصنوعی برای غول های فنی و استارتاپ ها به طور یکسان است. پرتاب Meta’s Llama 4 یادآوری قدرتمندی از ارزش در حال تحول باز بودن است. این یکباره یک موضع فلسفی برای دموکراتیک کردن فناوری و یک حرکت تاکتیکی در یک نبرد صنعت پرزرق و برق است. برای توسعه دهندگان و شرکت ها ، درهای جدیدی را برای نوآوری و استقلال باز می کند ، حتی اگر تصمیمات را با معاملات جدید پیچیده کند. و برای اکوسیستم گسترده تر ، این امید را افزایش می دهد که مزایای AI در دست چند شرکت قفل نخواهد شد – اگر اخلاق منبع باز می تواند زمین خود را حفظ کند.



منبع:unite.ai

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *