3 روش برای استفاده از Gemma 2 به صورت محلی


3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

پس از راه اندازی بسیار موفق Gemma 1، تیم گوگل یک سری مدل های پیشرفته تر به نام Gemma 2 را معرفی کرد. این خانواده جدید از مدل های زبان بزرگ (LLM) شامل مدل هایی با 9 میلیارد (9B) و 27 میلیارد (27B) پارامتر است. . Gemma 2 عملکرد بالاتر و کارایی استنتاج بیشتری را نسبت به نسخه قبلی خود ارائه می دهد و پیشرفت های قابل توجهی در امنیت دارد. هر دو مدل بهتر از مدل های Llama 3 و Gork 1 عمل می کنند.

در این آموزش، با سه برنامه آشنا می شویم که به شما کمک می کنند مدل Gemma 2 را به صورت محلی سریعتر از آنلاین اجرا کنید. برای تجربه مدل پیشرفته به صورت محلی، به سادگی برنامه را نصب کنید، مدل را دانلود کنید و شروع به استفاده از آن کنید. به همین سادگی است.

1. ژانویه

دانلود و نصب کنید ژان از وب سایت رسمی Jan برنامه مورد علاقه من برای اجرا و آزمایش LLM های مختلف منبع باز و اختصاصی است. پیکربندی آن بسیار ساده است و از نظر واردات و استفاده از مدل های محلی بسیار انعطاف پذیر است.

برنامه Jan را اجرا کنید و به منوی Model Hub بروید. سپس پیوند زیر را از مخزن Hugging Face در نوار جستجو قرار دهید و Enter را فشار دهید: bartowski/gemma-2-9b-it-GGUF.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

شما به یک پنجره جدید هدایت می شوید، جایی که می توانید نسخه های کوانتیزه شده مختلف مدل را انتخاب کنید. ما نسخه “Q4-KM” را دانلود خواهیم کرد.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

قالب دانلود شده را از منوی قالب در پنل سمت راست انتخاب کرده و شروع به استفاده از آن کنید.

این نسخه از مدل کوانتیزه در حال حاضر 37 توکن در ثانیه به من می دهد، اما اگر از نسخه دیگری استفاده کنید، می توانید سرعت خود را حتی بیشتر افزایش دهید.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

2. اولاما

برای دانلود و نصب به وب سایت رسمی بروید اولاما. در میان توسعه دهندگان و افرادی که با ترمینال ها و ابزارهای CLI آشنا هستند مورد علاقه است. حتی برای کاربران جدید، پیکربندی آن ساده است.

پس از اتمام نصب، لطفاً برنامه Olama را اجرا کنید و دستور زیر را در ترمینال دلخواه خود تایپ کنید. من از Powershell در ویندوز 11 استفاده می کنم.

بسته به سرعت اینترنت شما، دانلود قالب حدود نیم ساعت طول می کشد.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

پس از تکمیل دانلود، می توانید شروع به درخواست و استفاده از آن در ترمینال خود کنید.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

استفاده از Gemma2 با وارد کردن از فایل مدل GGUF

اگر قبلاً یک فایل مدل GGUF دارید و می خواهید از آن با Olama استفاده کنید، ابتدا باید یک فایل جدید با نام “Modelfile” ایجاد کنید و دستور زیر را تایپ کنید:

پس از آن، مدل را با استفاده از Modelfile ایجاد کنید، که به فایل GGUF در دایرکتوری شما اشاره می کند.

پس از انتقال موفقیت آمیز قالب، لطفاً دستور زیر را وارد کنید تا استفاده از آن شروع شود.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

3. مستی

دانلود و نصب کنید Msty از وب سایت رسمی Msty یک مدعی جدید است و در حال تبدیل شدن به مورد علاقه من است. چندین ویژگی و قالب را ارائه می دهد. حتی می توانید به مدل های اختصاصی یا سرورهای Ollama متصل شوید. این یک برنامه ساده و قدرتمند است که باید آن را امتحان کنید.

پس از نصب موفقیت آمیز برنامه، برنامه را اجرا کنید و با کلیک بر روی دکمه در پنل سمت چپ به “مدل های هوش مصنوعی محلی” بروید.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

روی دکمه «دانلود الگوهای بیشتر» کلیک کنید و پیوند زیر را در نوار جستجو وارد کنید: bartowski/gemma-2-9b-it-GGUFمطمئن شوید که Hugging Face را به عنوان الگوی Hub خود انتخاب کرده اید.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

پس از اتمام دانلود، شروع به استفاده از آن کنید.

3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

استفاده از Msty با Olama

اگر می خواهید از الگوی اوللاما در برنامه چت بات به جای ترمینال استفاده کنید، می توانید از گزینه Connect with Olama از Msty استفاده کنید. ساده است.

  1. ابتدا به ترمینال بروید و سرور اوللاما را راه اندازی کنید.

لینک سرور را کپی کنید

  1. به منوی «مدل‌های هوش مصنوعی محلی» بروید و روی دکمه تنظیمات واقع در گوشه سمت راست بالا کلیک کنید.
  2. در مرحله بعد، Remote Model Providers را انتخاب کنید و روی دکمه “Add New Provider” کلیک کنید.
  3. سپس، ارائه‌دهنده الگوی «Ollama remote» را انتخاب کنید و پیوند نقطه پایانی سرویس سرور Ollama را وارد کنید.
  4. روی دکمه «دریافت مدل‌ها» کلیک کنید و «gemma2:latest» را انتخاب کنید، سپس روی دکمه «افزودن» کلیک کنید.
3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

  1. در منوی چت، الگوی جدید را انتخاب کرده و شروع به استفاده از آن کنید.
3 روش برای استفاده از Gemma 2 به صورت محلی3 روش برای استفاده از Gemma 2 به صورت محلی

تصویر نویسنده

نتیجه گیری

هر سه برنامه ای که ما آزمایش کردیم قدرتمند و مملو از ویژگی هایی هستند که تجربه شما را با استفاده از مدل های هوش مصنوعی به صورت محلی بهبود می بخشد. شما فقط باید برنامه و قالب ها را دانلود کنید و بقیه کارها بسیار ساده است.

من از برنامه Jan برای تست عملکرد منبع باز LLM و تولید کد و محتوا استفاده می کنم. این سریع و خصوصی است و اطلاعات من هرگز از لپ تاپ من خارج نمی شود.

در این آموزش یاد گرفتیم که چگونه از Jan، Ollama و Msty برای اجرای لوکال مدل Gemma 2 استفاده کنیم. این برنامه ها دارای ویژگی های مهمی هستند که تجربه شما را از استفاده از LLM به صورت محلی افزایش می دهد.

امیدوارم از آموزش کوتاه من لذت برده باشید. من دوست دارم محصولات و برنامه هایی را به اشتراک بگذارم که به آنها علاقه دارم و مرتباً از آنها استفاده می کنم.

با راهنمای مبتدیان برای علم داده شروع کنید!

راهنمای مبتدیان برای علم دادهراهنمای مبتدیان برای علم داده

طرز فکر موفقیت در پروژه های علم داده را بیاموزید

… فقط با استفاده از حداقل ریاضی و آمار، مهارت های خود را با مثال های کوتاه در پایتون بسازید

نحوه کار را در کتاب الکترونیکی جدید من بیابید:
راهنمای مبتدیان برای علم داده

فراهم می کند آموزش های خودآموز با همه کد کار در پایتون تا شما را از مبتدی به متخصص برساند. او به شما نشان می دهد که چگونه یافتن نقاط پرت، تایید نرمال بودن داده ها، یافتن ویژگی های مرتبط، کنترل چولگی، بررسی مفروضاتو خیلی بیشتر… همه به شما کمک می کند تا از مجموعه ای از داده ها داستانی بسازید.

سفر علم داده خود را با تمرینات عملی شروع کنید

ببین داخلش چیه

عابد علی اعوانعابد علی اعوان

درباره عابد علی اعوان

عابد علی اعوان معاون سردبیر KDnuggets است. Abid یک متخصص علوم داده تایید شده است که از ساخت مدل های یادگیری ماشین لذت می برد. در حال حاضر، او بر ایجاد محتوا و نوشتن وبلاگ های فنی در زمینه فناوری های یادگیری ماشین و علم داده تمرکز دارد. عابد دارای مدرک فوق لیسانس مدیریت فناوری و لیسانس مهندسی مخابرات است.



منبع:aitoolsclub.com/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *