آموزش تصویری

Ollama چیست و چگونه از آن در ویندوز استفاده کنیم؟

اگر می‌خواهید مدل‌های زبانی بزرگ یا LLM را روی کامپیوتر خود اجرا کنید، یکی از ساده‌ترین راه‌ها استفاده از Ollama است. Ollama یک پلتفرم قدرتمند اوپن سورس است که یک تجربه هوش مصنوعی قابل تنظیم و قابل دسترسی را ارائه می‌دهد. این پلتفرم دانلود، نصب و تعامل با مدل‌های زبانی مختلف را بدون نیاز به تکیه بر پلتفرم‌های مبتنی بر ابر یا داشتن تخصص فنی آسان می‌کند.

علاوه بر مزایای فوق، Ollama بسیار سبک است و به طور منظم به‌روزرسانی می‌شود، که این امر آن را برای ساخت و مدیریت LLM‌ها روی دستگاه‌های محلی بسیار مناسب می‌کند. بنابراین، شما نیازی به سرورهای خارجی یا تنظیمات پیچیده ندارید. Ollama همچنین از چندین سیستم عامل از جمله ویندوز، لینوکس و macOS و همچنین محیط‌های مختلف Docker پشتیبانی می‌کند. برای یادگیری نحوه استفاده از Ollama برای اجرای LLM‌ها روی دستگاه ویندوز خود، ادامه مطلب را بخوانید.

دانلود و نصب Ollama

۱- ابتدا از صفحه دانلود Ollama دیدن کنید و قبل از کلیک بر روی دکمه Download سیستم عامل خود را انتخاب کنید. همچنین، می‌توانید Ollama را از صفحه GitHub آن دانلود کنید. پس از اتمام دانلود، آن را باز کرده و بر روی دستگاه خود نصب کنید.

۲- در ویندوز، با کلیک بر روی دکمه آیکون های مخفی در نوار وظیفه، می توانید بررسی کنید که Ollama در حال اجرا است یا خیر.

سفارشی سازی و استفاده از Ollama

هنگامی که Ollama بر روی کامپیوتر شما نصب شد، اولین کاری که باید انجام دهید این است که محل ذخیره داده های خود را تغییر دهید. به‌طور پیش‌فرض، مکان ذخیره‌سازی C:\Users\%username%\.ollama\models است، اما از آنجایی که مدل‌های هوش مصنوعی می‌توانند بسیار بزرگ باشند، درایو C شما می‌تواند به سرعت پر شود.

۱- برای انجام این کار، ابتدا بر روی آیکون Ollama در نوار وظیفه کلیک کنید و روی Quit Olama کلیک کنید.

۲- پس از خروج از اولاما، منوی استارت را باز کنید، environment variables را تایپ کنید و روی Edit the system environment variables کلیک کنید.

۳- وقتی پنجره متغیرهای سیستم باز شد، روی دکمه Environment Variables در تب Advanced کلیک کنید.

۴- روی دکمه New برای اکانت خود کلیک کنید و یک متغیر به نام OLLAMA_MODELS در قسمت Variable name ایجاد کنید.

۵- سپس مکان دایرکتوری که می‌خواهید Olama مدل‌های خود را ذخیره کند را در قسمت Variable value تایپ کنید. سپس قبل از راه اندازی Olama از منوی Start، روی دکمه OK کلیک کنید.

توجه: همچنین می‌توانید سایر متغیرهای سیستم را برای Ollama تنظیم کنید، مانند ‘Ollama_Host’، ‘Ollama_Port’، ‘Ollama_Origins’، ‘Ollama_Debug’، و موارد دیگر.

۶- اکنون شما آماده شروع استفاده از Ollama هستید و می توانید این کار را با Llama 3 8B متا، آخرین مدل هوش مصنوعی اوپن سورس این شرکت انجام دهید. برای اجرای مدل، یک پنجره خط فرمان، Powershell یا Windows Terminal را از منوی Start اجرا کنید.

۷- هنگامی که پنجره خط فرمان باز شد، ollama run llama3 را تایپ کرده و Enter را فشار دهید. مدل نزدیک به ۵ گیگابایت است، بنابراین دانلود آن زمان می برد.

۸- پس از تکمیل دانلود، می توانید از Llama 3 8B استفاده کنید و مستقیماً در پنجره خط فرمان با آن مکالمه کنید. به عنوان مثال، می توانید از مدل بپرسید که شما کی هستید؟ و برای دریافت پاسخ Enter را فشار دهید.

۹- اکنون می توانید گفتگو را ادامه دهید و از مدل های هوش مصنوعی در مورد موضوعات مختلف سؤال بپرسید. فقط به خاطر داشته باشید که Llama 3 می تواند اشتباه کند، بنابراین هنگام استفاده از آن باید مراقب باشید.

۱۰- همچنین می توانید با مراجعه به صفحه کتابخانه مدل Ollama مدل های دیگر را امتحان کنید. علاوه بر این، دستورات مختلفی وجود دارد که می توانید برای آزمایش عملکردهای مختلف که Ollama ارائه می دهد، اجرا کنید.

۱۱- همچنین می‌توانید در حین اجرای یک مدل، عملیات مختلفی مانند تنظیم متغیرهای جلسه، نمایش اطلاعات مدل، ذخیره یک جلسه و غیره انجام دهید.

Ollama -12 همچنین به شما امکان می دهد از مدل های هوش مصنوعی چندوجهی برای تشخیص تصاویر استفاده کنید. به عنوان مثال، مدل LLava می تواند تصاویر تولید شده توسط DALLE-3 را تشخیص دهد. می تواند تصاویر را با جزئیات توصیف کند.

۱۳- اگر هنگام اجرای Ollama با خطا مواجه شدید، می‌توانید گزارش‌ها را بررسی کنید تا متوجه شوید مشکل چیست. از میانبر Win + R برای باز کردن Run استفاده کنید و سپس عبارت زیر را قبل از فشار دادن Enter وارد کنید.

explorer %LOCALAPPDATA%\\Ollama # View logs

۱۴- همچنین می‌توانید از دستورات دیگری مانند explorer %LOCALAPPDATA%\\Programs\\Ollama و explorer %HOMEPATH%\\.ollama برای بررسی باینری‌ها، مدل و کانفیگ مکان ذخیره‌سازی استفاده کنید.

توجه: مدل‌های کوچک‌تر هوش مصنوعی مانند Llama 3 8B در صورتی می‌توانند روی دستگاه شما اجرا شوند که فقط گرافیک یکپارچه (integrated graphics) داشته باشد. با این حال، اگر یک پردازنده گرافیکی اختصاصی انویدیا دارید، می‌توانید مدل‌های بزرگ‌تر را با نصب جعبه ابزار CUDA اجرا کنید. همه پردازنده‌های گرافیکی AMD نمی‌توانند مدل‌های هوش مصنوعی را اجرا کنند، اما آن‌هایی که می‌توانند نیازی به ابزار خاصی ندارند.

بیشتر بخوانید:

نحوه دانلود و نصب Fooocus | تولید تصویر هوش مصنوعی رایگان و آفلاین
نحوه استفاده از هوش مصنوعی بینگ برای ساخت تصویر
نحوه گسترش عکس توسط هوش مصنوعی

وحید خاکپور

متولد 76 . مبتدی در همه چیز. علاقه مند به یادگیری و به اشتراک گذاشتن تجربه های مفید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *