جایگزینی پنتاگون: اخراج انتروپیک و ورود اوپن‌ای‌آی به معادلات نظامی ایالات متحده

۱۴ اسفند ۱۴۰۴

وزارت دفاع ایالات متحده، پنتاگون در اقدامی بی‌سابقه، همکاری خود را با شرکت هوش مصنوعی انتروپیک، سازنده مدل کلاد قطع کرد. پیت هگست، وزیر دفاع آمریکا این شرکت مستقر در سان‌فرانسیسکو را به‌عنوان «خطر زنجیره تامین برای امنیت ملی» معرفی کرد. 

این برچسب امنیتی که پیش‌تر تنها برای شرکت‌های متخاصم خارجی مانند هواوی استفاده می‌شد، اکنون علیه یک شرکت آمریکایی به کار رفته و به معنای ممنوعیت کامل معامله تمامی پیمانکاران و شرکای نظامی با این مجموعه است. گزارش‌ها حاکی از آن است که دونالد ترامپ، رئیس‌جمهور آمریکا نیز دستور توقف استفاده از فناوری‌های این شرکت را در تمامی نهادهای فدرال صادر کرده است.

ریشه این درگیری به پافشاری انتروپیک بر حفظ چارچوب‌های اخلاقی در استفاده نظامی از هوش مصنوعی بازمی‌گردد. انتروپیک که نخستین شرکت پیشرو در حوزه هوش مصنوعی بود که در شبکه‌های محرمانه نظامی مستقر شد، خواستار گنجاندن دو محدودیت کلیدی در قرارداد خود بود: عدم استفاده از فناوری این شرکت برای نظارت جمعی داخلی بر شهروندان آمریکایی و پرهیز از به‌کارگیری آن در سلاح‌های کاملا خودمختار. در مقابل، پنتاگون خواستار پذیرش عبارت «تمامی اهداف قانونی» در قراردادها است که راه را برای عبور از خطوط قرمز انتروپیک هموار می‌کند. وزیر دفاع با لغو قرارداد ۲۰۰ میلیون دلاری این شرکت، انتروپیک را به تلاش برای به‌دست گرفتن حق وتو در عملیات نظامی متهم کرد.

در پی این تحولات، پنتاگون بلافاصله با شرکت اوپن‌ای‌آی، سازنده چت‌جی‌پی‌تی وارد توافق شد. سام آلتمن، مدیرعامل اوپن‌ای‌آی اعلام کرد که این قرارداد اصول مدنظر آن‌ها را نیز حفظ می‌کند، اما تفاوت در سازوکار اجرایی است. 

اوپن‌ای‌آی به‌جای پافشاری بر بندهای صریح قراردادی، چارچوب «تمامی اهداف قانونی» را پذیرفته اما لایه‌های کنترلی فنی و مهندسان مستقر خود را برای نظارت بر ایمنی سیستم‌ها به کار گرفته است. آلتمن معتقد است رویکرد انتروپیک بیش از حد بر کنترل عملیاتی متمرکز بوده است، در حالی که اوپن‌ای‌آی به حفاظت‌های قانونی موجود تکیه می‌کند.

با وجود این تنش‌ها، گزارش‌ها نشان می‌دهد که مدل کلاد همچنان در عملیات‌های جاری، از جمله عملیات اخیر «خشم حماسی» در همکاری با اسرائیل برای تحلیل‌های اطلاعاتی و مدل‌سازی عملیاتی مورد استفاده قرار گرفته است. 

به دلیل ادغام عمیق این فناوری در سیستم‌های محرمانه، جداسازی آن فرآیندی دشوار توصیف شده و پنتاگون یک بازه زمانی شش‌ماهه را برای حذف کامل محصولات انتروپیک تعیین کرده است. 

هم‌زمان، این تقابل واکنش‌های گسترده‌ای را در صنعت برانگیخته است؛ بیش از ۸۷۵ کارمند از گوگل و اوپن‌ای‌آی در نامه‌ای سرگشاده از موضع اخلاقی انتروپیک حمایت کرده‌اند و کاربران نیز با راه‌اندازی کمپین «QuitGPT»، اعتراض خود را به سیاست‌های جدید اوپن‌ای‌آی نشان دادند که منجر به صعود چشمگیر اپلیکیشن کلاد در فروشگاه‌های اپلیکیشن شده است.

توضیحات بیشتر:

Pentagon ditches Anthropic AI over “security risk” and OpenAI takes over