افزایش خطر کلاهبرداری صوتی با کلون‌سازی صدای انسان توسط هوش مصنوعی

۰۸ مهر ۱۴۰۴

با پیشرفت سریع فناوری کلون‌سازی صدا، کارشناسان امنیت سایبری نسبت به افزایش حملات فیشینگ صوتی یا «ویشینگ» هشدار داده‌اند. پژوهشگران گروه امنیتی NCC Group اعلام کرده‌اند که اکنون تنها با چند دقیقه صدای ضبط‌شده از یک فرد، می‌توان صدای او را با دقت بالا بازتولید کرد.

به گفته این گروه، استفاده از هوش مصنوعی برای تقلید صدا، ابزارهای مهندسی اجتماعی را به سطحی بی‌سابقه رسانده و تشخیص تماس‌های واقعی از جعلی را دشوارتر کرده است. مهاجمان سایبری می‌توانند با استفاده از این روش، به اطلاعات مالی، حساب‌های کاربری یا داده‌های محرمانه سازمان‌ها دست یابند.

در این تحقیق، تیم NCC موفق شد تنها با چند دقیقه صدای عمومی یک فرد، مدلی برای تقلید زنده صدای او بسازد. این فرایند با استفاده از سخت‌افزار و نرم‌افزارهای در دسترس عموم انجام شده و نیاز به تجهیزات پیشرفته نداشت؛ موضوعی که نگرانی‌ها را درباره دسترسی گسترده مهاجمان تقویت می‌کند.

ویشینگ نوعی کلاهبرداری است که در آن مهاجم به‌جای ایمیل یا پیامک، از تماس صوتی برای فریب قربانی استفاده می‌کند. نمونه‌هایی از این حملات در سال جاری گزارش شده‌اند، از جمله حمله موفق به یکی از نمایندگان شرکت سیسکو و فریب کارکنان سیلزفورس از طریق تماس‌های جعلی تیم پشتیبانی.

پیش‌تر، استفاده از مدل‌های متن به گفتار (TTS) و تاخیر در پردازش صدا، مانع اجرای هم‌زمان چنین حملاتی می‌شد. اما اکنون کلون‌سازی صوتی آنی، این موانع را پشت سر گذاشته و راه را برای حملات متقلبانه هموار کرده است.

کارشناسان هشدار می‌دهند که سازمان‌ها باید نسبت به تماس‌های صوتی غیرمنتظره، حتی با صدای آشنا، محتاط باشند. استفاده از احراز هویت چندمرحله‌ای، کلمات رمز داخلی، و محدودسازی انتشار عمومی صدای مدیران، از راهکارهای پیشنهادی برای مقابله با این تهدید جدید است.

توضیحات بیشتر:

AI-Powered Voice Cloning Raises Vishing Risks