کشف بیش از ۳۰ آسیب‌پذیری خطرناک در ابزارهای هوش مصنوعی برنامه‌نویسی

۱۷ آذر ۱۴۰۴

پژوهشگران امنیتی از کشف بیش از ۳۰ آسیب‌پذیری در محیط‌های توسعه (IDE) مجهز به قابلیت‌های هوش مصنوعی خبر داده‌اند که می‌توانند برای سرقت داده‌ها یا اجرای کد از راه دور مورد سوءاستفاده قرار گیرند. 

این مجموعه آسیب‌پذیری‌ها با عنوان «IDE‌saster» توسط محقق امنیتی، آری مارزوک، معرفی شده‌اند و محصولاتی چون Cursor، Roo Code، Zed.dev، GitHub Copilot و JetBrains Junie را تحت تأثیر قرار می‌دهند.

به گفته مارزوک، تقریبا تمامی آی‌دی‌ای‌های مبتنی بر هوش مصنوعی در برابر زنجیره‌ای از حملات یکسان آسیب‌پذیر هستند. این زنجیره شامل عبور از سدهای مدل زبانی از طریق حمله تزریق پرامپت، استفاده بدون تعامل کاربر از ابزارهای خودکار و فعال‌سازی قابلیت‌های قانونی محیط توسعه برای افشای اطلاعات یا اجرای دستورات مخرب است.

در برخی از این حملات، مهاجم با تزریق دستورات مخفی در متونی نظیر فایل README یا آدرس‌های URL، زمینه اجرای خودکار کدهای مخرب را فراهم می‌کند. همچنین، آلوده‌سازی سرورهای موسوم به MCP که ابزارهای مدل را مدیریت می‌کنند، می‌تواند باعث اجرای کدهای دلخواه مهاجم شود.

از جمله آسیب‌پذیری‌های شناسایی‌شده می‌توان به CVE-2025-49150 در سرویس Cursor و نقص‌هایی در کوپایلوت گیت‌هاب اشاره کرد که به مهاجم اجازه می‌دهند فایل‌های تنظیمات آی‌دی‌ای را دستکاری کرده و با تغییر مسیر اجرای فایل‌های اجرایی، کد مخرب را اجرا کنند.

در کنار این موارد، نقص‌هایی نیز در ابزارهایی مانند Codex CLI اوپن‌ای‌آی و Antigravity گوگل کشف شده‌اند که به حمله‌کنندگان امکان تزریق دستورات مخرب، استخراج اطلاعات محرمانه و حتی نصب درهای پشتی دائمی می‌دهند.

مارزوک با اشاره به افزایش تهدیدات ناشی از ترکیب قابلیت‌های عامل‌محور (Agentic AI) با ابزارهای توسعه، از مفهومی جدید با عنوان «امن‌سازی برای هوش مصنوعی» (Secure for AI) یاد می‌کند که به‌زعم او باید به اصول «امنیت پیش‌فرض» و «امنیت در طراحی» افزوده شود تا ابزارها در برابر سوءاستفاده‌های مبتنی بر هوش مصنوعی مقاوم بمانند.

توضیحات بیشتر:

Researchers Uncover 30+ Flaws in AI Coding Tools Enabling Data Theft and RCE Attacks