مرکز ملی امنیت سایبری بریتانیا (NCSC) هشدار داده است تزریق پرامپت (Prompt Injection) ممکن است هیچگاه بهطور کامل قابل حل نباشد؛ خطری نوظهور که بهمراتب پیچیدهتر از حملات سنتی مانند تزریق اسکیوال ارزیابی میشود.
تزریق پرامپت نوعی حمله است که در آن مهاجم دستوراتی را در ورودی کاربر یا محتوای خارجی جاسازی میکند، بهگونهای که مدل هوش مصنوعی آن دستورات مخفی را بهجای دستورالعملهای اصلی دنبال میکند. این روش، سازوکارهای امنیتی مدلها را دور میزند و میتواند باعث بروز رفتارهای پیشبینیناپذیر یا حتی خطرناک شود.
مرکز ملی امنیت سایبری بریتانیا پیشتر این نوع حمله را «تزریق اسکیوال آینده» خوانده بود، اما اکنون تاکید دارد مقایسه این دو آسیبپذیری ممکن است گمراهکننده باشد. برخلاف تزریق اسکیوال که با جداسازی دادهها از دستورات و استفاده از کتابخانههای امن قابل مهار بود، مدلهای زبانی بزرگ (LLM) مانند چتجیپیتی، کلاد و جمینال فاقد چنین تمایزی هستند و از اینرو هر توکنی را میتوان بهعنوان دستور تلقی کرد.
با گسترش استفاده از مدلهای زبانی بزرگ در نقش عوامل خودکار (از جمله کنترل ایمیل، تراکنشهای مالی، یا تغییر تنظیمات سیستمی) خطر تزریق پرامپت از یک پاسخ عجیبوغریب فراتر رفته و به تهدیدی برای امنیت دادهها و زیرساختهای حیاتی بدل میشود. مواردی گزارش شدهاند که در آن، تنها با بارگذاری یک تصویر یا بازدید از یک پست در شبکههای اجتماعی، امکان اجرای دستورات ناخواسته فراهم شده است.
مرکز ملی امنیت سایبری بریتانیا هشدار داده است در صورت تداوم روند فعلی و اتصال مدلهای زبانی بزرگ به سامانههای حساس بدون طراحی امن از ابتدا، احتمال بروز رخدادهایی مشابه موج حملات تزریق اسکیوال در یک دهه گذشته وجود دارد؛ شاید حتی شدیدتر.
مرکز امنیت سایبری برای کاربران عادی توصیههایی ارائه کرده: اعتماد کامل به پیشنهادهای هوش مصنوعی نداشته باشید؛ سطح دسترسی ابزارهای هوش مصنوعی را محدود نگه دارید؛ دادههای حساس را از دسترس این ابزارها دور نگه دارید و تعاملات را ثبت و بررسی کنید تا رفتارهای مشکوک شناسایی شوند.
توضیحات بیشتر:
