آموزش تصویری

نحوه استفاده از چت بات انویدیا NVIDIA Chat with RTX AI Chatbot در ویندوز

چت بات انویدیا یعنی NVIDIA Chat with RTXI AI Chatbot مرز جدیدی در تعامل با کاربر ارائه داده است. این ابزار نوآورانه که برای آسان‌تر کردن کارها برای کاربران طراحی شده است، از هوش مصنوعی و فناوری RTX NVIDIA برای ارائه دستیار هوش مصنوعی خود استفاده می‌کند. در این مقاله نکات استفاده از NVIDIA Chat with RTXI AI Chatbot  را در ویندوز بررسی می کنیم و پتانسیل کامل آن را باز می کنیم.

NVIDIA Chat with RTXI AI Chatbot چیست؟

Chat with RTX یک نسخه دمو فناورانه است که از پردازنده گرافیکی NVIDIA GeForce RTX 30 یا یک مدل برتر با حداقل ۸ گیگابایت VRAM استفاده می کند تا کاربران را با یک چت بات سفارشی توانمند کند. اگر در مورد تفاوت بین ChatGPT و Chat with RTX می‌پرسید، باید بگوییم دومی یک چت ربات هوش مصنوعی است که روی TensorRT-LLM و RAG اجرا می‌شود در حالی که اولی روی معماری GPT کار می‌کند.

کاری که TensorRT-LLM انجام می‌دهد این است که پاسخ‌ها را به سرعت تولید می‌کند و امکان سفارشی‌سازی بیشتر پاسخ‌ها را فراهم می‌کند، و با RAG ، کاربران می‌توانند انتظار داشته باشند که چت بات نه تنها پاسخ‌ها را تولید کند، بلکه اطلاعات را از دیتابیس یا منابع خارجی بازیابی کند، در حالی که ChatGPT فاقد این ویژگی هاست.

از NVIDIA Chat with RTXI AI Chatbot در کامپیوتر ویندوزی خود استفاده کنید

انویدیا اجرای LLM را به صورت محلی بر روی کامپیوتر شما بسیار آسان کرده است. برای اجرای Chat with RTX، فقط باید برنامه را دانلود و نصب کنید، درست مانند هر نرم افزار دیگری. با این حال، Chat with RTX دارای حداقل مشخصات لازم برای نصب و استفاده صحیح است.

  • پردازنده گرافیکی RTX سری ۳۰ یا سری ۴۰
  • ۱۶ گیگابایت رم
  • ۱۰۰ گیگابایت فضای ذخیره سازی آزاد
  • ویندوز ۱۱

در صورتی که تمام پیش نیازها را دارید، اجازه دهید برنامه را نصب کنیم. در اینجا نحوه انجام آن آمده است:

قبل از اقدام به دانلود، مطمئن شوید که اینترنت پایدار است و سپس با کلیک بر روی دکمه Download Now، فایل زیپ Chat with RTX را از nvidia.com دانلود کنید.

حال روی فایل مورد نظر راست کلیک کرده و آن را استخراج کنید. حالا به فایل setup بروید و برای نصب دو بار کلیک کنید.

تمام دستورات نصب را دنبال کنید و تمام کادرها را علامت بزنید و سپس دکمه Next را فشار دهید. این امر دانلود و نصب خودکار LLM را به همراه تمام فایل های لازم تضمین می کند.

نصب Chat with RTX مدتی طول می کشد تا به پایان برسد زیرا حجم زیادی از داده را دانلود و نصب می کند. پس از اتمام مراحل نصب، Close را بزنید. اکنون زمان آن رسیده است که برنامه را امتحان کنید.

از NVIDIA Chat with RTX استفاده کنید

پس از اتمام مراحل نصب، نوبت به سفارشی سازی و استفاده از آن می رسد. در حالی که Chat with RTX می تواند به عنوان یک چت بات آنلاین استاندارد هوش مصنوعی عمل کند، اما شدیدا پیشنهاد می‌کنیم عملکرد RAG آن را بررسی کنید. این به ما امکان می‌دهد پاسخ را مطابق با دسترسی‌هایی که به محتوای خاص می‌دهیم تنظیم کنیم و تطبیق‌پذیری را افزایش دهیم، در اینجا نحوه انجام آن آمده است:

۱- یک پوشه RAG بسازید

برای شروع استفاده از RAG در چت با RTX، یک پوشه جدید برای ذخیره فایل‌هایی که می‌خواهید هوش مصنوعی تجزیه و تحلیل کند ایجاد کنید.

پس از ایجاد، فایل های داده خود را در پوشه قرار دهید. داده‌هایی که ذخیره می‌کنید می‌توانند موضوعات و انواع فایل‌های زیادی مانند اسناد، فایل‌های PDF، متن و ویدیوها را پوشش دهند. با این حال، ممکن است بخواهید تعداد فایل‌هایی را که در این پوشه قرار می‌دهید محدود کنید تا بر عملکرد تأثیری نگذارد. داده های بیشتر به این معنی است که زمان برای بازگرداندن پاسخ بیشتر طول می کشد (اما این نیز وابسته به سخت افزار است).

این پوشه مانند یک دیتابیس عمل می کند که ChatRTX از آن ورودی دریافت می کند.

۲- نصب محیط

پس از تنظیم فرآیند اولیه، به تب Dataset رفته و به گزینه Folder Path رفته و سپس بر روی آیکون Edit کلیک کنید. حالا پوشه ای را که می خواهید هوش مصنوعی بخواند به همراه مدل هوش مصنوعی انتخاب کنید. هنگامی که دیتابیس سازماندهی شد، از هوش مصنوعی برای رسیدگی به سوالات و درخواست ها استفاده کنید.

۳- از هوش مصنوعی سوال های خود را بپرسید

پس از تمام موارد عملی، اکنون می‌توانیم سؤالات و درخواست‌های خود را از Chat with RTX بپرسیم. ما می توانیم از آن به عنوان یک چت بات معمولی هوش مصنوعی یا به عنوان دستیار هوش مصنوعی شخصی استفاده کنیم. اولی به سوالات پاسخ می دهد در حالی که دومی می تواند داده ها را از فایل هایی مانند PDF برگرداند. با این حال، تنها در صورتی امکان پذیر است که فایل های داده و تاریخ های تقویم را به روز نگه داریم.

علاوه بر این، ویژگی RAG Chat with RTX همچنین می‌تواند اسناد را خلاصه کند، کدهایی را برای کارهای برنامه‌نویسی تولید کند، نکات کلیدی را برای ویدیوها استخراج کند، و ویدیوهای یوتیوب را به سادگی با جای گذاری لینک ویدیو در محل های تعیین‌شده تجزیه و تحلیل کند.

آیا می توانید از چت بات با پردازنده گرافیکی RTX استفاده کنید؟

بله، چت بات ها می توانند از یک GPU RTX برای بهبود عملکرد و کارایی استفاده کنند. یک GPU RTX وظایف مربوط به پردازش زبان طبیعی (NLP) را تسریع می‌کند، می‌تواند مجموعه داده‌های بزرگ‌تری را مدیریت کند، مدل‌های پیچیده‌تری را اجرا کند و پاسخ‌های سریع‌تری ارائه دهد. علاوه بر این، پردازنده‌های گرافیکی RTX می‌توانند کارهایی مانند تشخیص و تولید گفتار در زمان واقعی را تسهیل کنند و قابلیت‌های مکالمه یک ربات چت را بیشتر کنند.

آیا Chat with RTX عملکرد خوبی دارد؟

ChatGPT ویژگی RAG را ارائه می دهد. برخی از چت بات های هوش مصنوعی لوکال هم به میزان قابل توجهی نیازمندی‌های سیستمی پایین‌تری دارند. بنابراین، آیا چت انویدیا با RTX حتی ارزش استفاده دارد؟

پاسخ بله است! ارزش استفاده دارد.

یکی از بزرگترین نقاط قوت استفاده از NVIDIA Chat with RTXI AI Chatbot، توانایی آن در استفاده از RAG بدون ارسال فایل‌های شما به سرور شخص ثالث است. سفارشی کردن GPT ها از طریق خدمات آنلاین می تواند داده های شما را در معرض دید قرار دهد. اما از آنجایی که Chat with RTX به صورت محلی و بدون اتصال به اینترنت اجرا می‌شود، استفاده از RAG در Chat with RTX تضمین می‌کند که داده‌های حساس شما ایمن هستند و فقط در سیستم شخصی شما قابل دسترسی هستند.

همانند سایر ربات‌های چت هوش مصنوعی محلی که Mistral 7B را اجرا می‌کنند، Chat with RTX بهتر و سریع‌تر عمل می‌کند. اگرچه بخش بزرگی از افزایش عملکرد ناشی از استفاده از پردازنده‌های گرافیکی سطح بالاتر است، استفاده از Nvidia TensorRT-LLM و شتاب RTX باعث شد اجرای Mistral 7B در Chat with RTX در مقایسه با سایر روش‌های اجرای یک LLM بهینه شده برای چت، سریع‌تر شود.

شایان ذکر است که نسخه Chat with RTX که در حال حاضر از آن استفاده می کنیم یک نسخه آزمایشی است. نسخه‌های بعدی Chat with RTX احتمالاً بهینه‌تر شده و عملکرد را افزایش می‌دهد.

اگر پردازنده گرافیکی سری RTX 30 یا ۴۰ نداشته باشم چه می شود؟

Chat with RTX یک راه آسان، سریع و ایمن برای اجرای LLM به صورت محلی بدون نیاز به اتصال به اینترنت است. اگر شما نیز علاقه مند به اجرای LLM یا محلی هستید اما پردازنده گرافیکی سری RTX 30 یا ۴۰ ندارید، می توانید راه های دیگری را برای اجرای LLM به صورت محلی امتحان کنید. دو مورد از محبوب ترین آنها GPT4ALL و Text Gen WebUI هستند. اگر می خواهید یک تجربه plug-and-play به صورت محلی در حال اجرای LLM داشته باشید، GPT4ALL را امتحان کنید.

بیشتر بخوانید:

نحوه دانلود و نصب Fooocus | تولید تصویر هوش مصنوعی رایگان و آفلاین
نحوه استفاده از هوش مصنوعی بینگ برای ساخت تصویر
جستجوی عمیق بینگ چیست و چگونه کار می کند؟

وحید خاکپور

متولد 76 . مبتدی در همه چیز. علاقه مند به یادگیری و به اشتراک گذاشتن تجربه های مفید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا