پژوهشگران امنیتی از کشف بیش از ۳۰ آسیبپذیری در محیطهای توسعه (IDE) مجهز به قابلیتهای هوش مصنوعی خبر دادهاند که میتوانند برای سرقت دادهها یا اجرای کد از راه دور مورد سوءاستفاده قرار گیرند.
این مجموعه آسیبپذیریها با عنوان «IDEsaster» توسط محقق امنیتی، آری مارزوک، معرفی شدهاند و محصولاتی چون Cursor، Roo Code، Zed.dev، GitHub Copilot و JetBrains Junie را تحت تأثیر قرار میدهند.
به گفته مارزوک، تقریبا تمامی آیدیایهای مبتنی بر هوش مصنوعی در برابر زنجیرهای از حملات یکسان آسیبپذیر هستند. این زنجیره شامل عبور از سدهای مدل زبانی از طریق حمله تزریق پرامپت، استفاده بدون تعامل کاربر از ابزارهای خودکار و فعالسازی قابلیتهای قانونی محیط توسعه برای افشای اطلاعات یا اجرای دستورات مخرب است.
در برخی از این حملات، مهاجم با تزریق دستورات مخفی در متونی نظیر فایل README یا آدرسهای URL، زمینه اجرای خودکار کدهای مخرب را فراهم میکند. همچنین، آلودهسازی سرورهای موسوم به MCP که ابزارهای مدل را مدیریت میکنند، میتواند باعث اجرای کدهای دلخواه مهاجم شود.
از جمله آسیبپذیریهای شناساییشده میتوان به CVE-2025-49150 در سرویس Cursor و نقصهایی در کوپایلوت گیتهاب اشاره کرد که به مهاجم اجازه میدهند فایلهای تنظیمات آیدیای را دستکاری کرده و با تغییر مسیر اجرای فایلهای اجرایی، کد مخرب را اجرا کنند.
در کنار این موارد، نقصهایی نیز در ابزارهایی مانند Codex CLI اوپنایآی و Antigravity گوگل کشف شدهاند که به حملهکنندگان امکان تزریق دستورات مخرب، استخراج اطلاعات محرمانه و حتی نصب درهای پشتی دائمی میدهند.
مارزوک با اشاره به افزایش تهدیدات ناشی از ترکیب قابلیتهای عاملمحور (Agentic AI) با ابزارهای توسعه، از مفهومی جدید با عنوان «امنسازی برای هوش مصنوعی» (Secure for AI) یاد میکند که بهزعم او باید به اصول «امنیت پیشفرض» و «امنیت در طراحی» افزوده شود تا ابزارها در برابر سوءاستفادههای مبتنی بر هوش مصنوعی مقاوم بمانند.
توضیحات بیشتر:
Researchers Uncover 30+ Flaws in AI Coding Tools Enabling Data Theft and RCE Attacks