حمله Man-in-the-Prompt چیست؟ چگونه پرامپت شما ربوده میشود و چگونه از آن محافظت کنید

شما به هوش مصنوعی خود اعتماد دارید که پرامپت های شما را دنبال کند، اما اگر کسی بهطور مخفیانه آنها را تغییر دهد چه؟ یک حمله جدید به مهاجمان اجازه میدهد پرامپت شما را ربوده و باعث شوند مدل زبانی بزرگ (LLM) پاسخهای گمراهکننده یا مضری ارائه دهد که دادهها را بدزدد یا کاربران را فریب دهد. بیایید بررسی کنیم که حمله Man-in-the-Prompt چگونه کار میکند و چگونه میتوانید از خود در برابر آن محافظت کنید.
حمله Man-in-the-Prompt چیست؟
حمله Man-in-the-Prompt تعامل شما با یک ابزار مدل زبانی بزرگ (LLM) مانند چتباتهای هوش مصنوعی را رهگیری میکند تا پاسخی غیرمنتظره ارائه دهد. مهاجمان میتوانند یک پرامپت قابل مشاهده یا حتی نامرئی را همراه با پرامپت شما تزریق کنند تا LLM را وادار به افشای اطلاعات محرمانه یا ارائه پاسخی مخرب کنند.
تاکنون، افزونههای مرورگر اصلیترین عامل حمله برای این نوع حمله هستند. این به این دلیل است که ورودی و خروجی دستور LLM بخشی از Document Object Model (DOM) صفحه است که افزونههای مرورگر میتوانند با استفاده از مجوزهای پایه به آن دسترسی پیدا کنند. با این حال، این حمله میتواند با روشهای دیگر، مانند استفاده از ابزارهای تولیدکننده دستور برای تزریق دستورات مخرب، اجرا شود.
LLMهای خصوصی، مانند آنهایی که در محیطهای سازمانی استفاده میشوند، به دلیل دسترسی به دادههای خصوصی شرکت مانند کلیدهای API یا اسناد قانونی، بیشترین آسیبپذیری را دارند. چتباتهای تجاری شخصیسازیشده نیز آسیبپذیر هستند، زیرا میتوانند اطلاعات حساس را نگه دارند. علاوه بر این، LLM میتواند فریب خورده و کاربر را به کلیک روی لینک مخرب یا اجرای کد مخرب وادارد، مانند حملات FileFix یا Eddiestealer.
اگر میخواهید مطمئن شوید که چتبات هوش مصنوعی شما علیه شما استفاده نمیشود، در ادامه چند روش برای محافظت از خود آورده شده است.
نظارت بر افزونههای مرورگر
اگرچه افزونههای مرورگر اصلیترین مقصر هستند، تشخیص حمله Man-in-the-Prompt دشوار است، زیرا افزونه برای اجرا به مجوزهای ویژه نیاز ندارد. بهترین راهکار شما اجتناب از نصب چنین افزونههایی است. یا اگر باید نصب کنید، فقط افزونههایی از ناشران معتبر که به آنها اعتماد دارید نصب کنید.
همچنین میتوانید فعالیت پسزمینه افزونه را ردیابی کنید تا سرنخهایی به دست آورید. هنگام استفاده از LLM، کلیدهای Shift + Esc را فشار دهید تا مدیر وظایف مرورگر باز شود. بررسی کنید آیا افزونهای فرآیندهای خود را حتی زمانی که نباید فعال باشد، اجرا میکند. این میتواند نشاندهنده تغییر دستور باشد، بهویژه اگر فقط هنگام نوشتن در فیلد متن چتبات رخ دهد.
علاوه بر این، از استفاده از افزونههایی که مستقیماً با ابزارهای LLM شما تعامل دارند یا پرامپت ها را تغییر میدهند، خودداری کنید. این افزونهها ممکن است در ابتدا خوب کار کنند، اما ممکن است بعداً ویرایشهای مخرب را آغاز کنند.
وارد کردن دستی پرامپت ها و بررسی قبل از ارسال
بسیاری از ابزارهای آنلاین دستور میتوانند دستورات شما را برای نتایج بهتر ویرایش کنند یا قالبهای دستور ارائه دهند. اگرچه این ابزارها مفید هستند، میتوانند دستورات مخرب را به پرامپت شما تزریق کنند و نیازی به دسترسی مستقیم به مرورگر یا دستگاه شما ندارند.
سعی کنید پرامپت ها را بهصورت دستی در پنجره چتبات هوش مصنوعی بنویسید و همیشه قبل از فشار دادن کلید Enter بررسی کنید. اگر باید از منبع دیگری کپی کنید، ابتدا آن را در یک ویرایشگر متن ساده مانند اپلیکیشن Notepad در ویندوز جایگذاری کنید و سپس به چتبات منتقل کنید. این کار هر دستور مخفی را آشکار میکند. اگر فضاهای خالی وجود دارد، از کلید Backspace برای حذف آنها استفاده کنید.
اگر نیاز به استفاده از قالبهای پرامپت دارید، قالبهای خود را ایجاد کنید و آنها را در یک اپلیکیشن یادداشت ایمن نگه دارید، بهجای وابستگی به منابع شخص ثالث. این منابع ممکن است بعداً هنگام اعتماد شما پرامپت های مخرب را معرفی کنند.
شروع جلسات چت جدید هر زمان ممکن
حملههای Man-in-the-Prompt میتوانند اطلاعات را از جلسه فعلی بدزدند. اگر اطلاعات حساسی را با LLM به اشتراک گذاشتهاید، بهتر است هنگام تغییر موضوع، یک جلسه چت جدید شروع کنید. این کار تضمین میکند که LLM حتی در صورت وقوع حمله Man-in-the-Prompt اطلاعات حساس را افشا نمیکند.
علاوه بر این، اگر چنین حملهای رخ دهد، یک چت جدید میتواند از تأثیر بیشتر آن بر جلسه جلوگیری کند.
بررسی پاسخهای مدل
هنگام استفاده از چتبات هوش مصنوعی، به همه پاسخها اعتماد نکنید. باید نسبت به پاسخهای LLM بسیار شکاک باشید، بهویژه وقتی ناهنجاریهایی پیدا میکنید. اگر چتبات ناگهان بدون درخواست شما اطلاعات حساسی ارائه دهد، باید فوراً چت را ببندید یا حداقل یک جلسه جدید باز کنید. اکثر دستورات Man-in-the-Prompt یا دستور اصلی را کاملاً نادیده میگیرند یا اطلاعات اضافی را در بخش جداگانهای در انتها درخواست میکنند.
علاوه بر این، مهاجمان میتوانند LLM را وادار به پاسخ دادن به شیوهای غیرعادی کنند تا کاربر را گیج کنند، مانند قرار دادن اطلاعات در یک بلوک ویرایشگر کد یا جدول. اگر چنین ناهنجاریهایی مشاهده کردید، باید فوراً فرض کنید که این یک حمله Man-in-the-Prompt است.
جمعبندی
ورود حملههای Man-in-the-Prompt در محیطهای سازمانی بسیار آسان است، زیرا اکثر شرکتها افزونههای مرورگر کارکنان را بررسی نمیکنند. برای حداکثر امنیت، میتوانید LLMها را در حالت Incognito با افزونههای غیرفعال امتحان کنید.
بیشتر بخوانید:
ترجمه زیرنویس فیلم و سریال با هوش مصنوعی در چند ثانیه
اجرای مدلهای هوش مصنوعی به صورت لوکال با استفاده از LM Studio
چگونه از هوش مصنوعی گراک (Grok) در X (توییتر) استفاده کنیم؟





