وزارت دفاع ایالات متحده، پنتاگون در اقدامی بیسابقه، همکاری خود را با شرکت هوش مصنوعی انتروپیک، سازنده مدل کلاد قطع کرد. پیت هگست، وزیر دفاع آمریکا این شرکت مستقر در سانفرانسیسکو را بهعنوان «خطر زنجیره تامین برای امنیت ملی» معرفی کرد.
این برچسب امنیتی که پیشتر تنها برای شرکتهای متخاصم خارجی مانند هواوی استفاده میشد، اکنون علیه یک شرکت آمریکایی به کار رفته و به معنای ممنوعیت کامل معامله تمامی پیمانکاران و شرکای نظامی با این مجموعه است. گزارشها حاکی از آن است که دونالد ترامپ، رئیسجمهور آمریکا نیز دستور توقف استفاده از فناوریهای این شرکت را در تمامی نهادهای فدرال صادر کرده است.
ریشه این درگیری به پافشاری انتروپیک بر حفظ چارچوبهای اخلاقی در استفاده نظامی از هوش مصنوعی بازمیگردد. انتروپیک که نخستین شرکت پیشرو در حوزه هوش مصنوعی بود که در شبکههای محرمانه نظامی مستقر شد، خواستار گنجاندن دو محدودیت کلیدی در قرارداد خود بود: عدم استفاده از فناوری این شرکت برای نظارت جمعی داخلی بر شهروندان آمریکایی و پرهیز از بهکارگیری آن در سلاحهای کاملا خودمختار. در مقابل، پنتاگون خواستار پذیرش عبارت «تمامی اهداف قانونی» در قراردادها است که راه را برای عبور از خطوط قرمز انتروپیک هموار میکند. وزیر دفاع با لغو قرارداد ۲۰۰ میلیون دلاری این شرکت، انتروپیک را به تلاش برای بهدست گرفتن حق وتو در عملیات نظامی متهم کرد.
در پی این تحولات، پنتاگون بلافاصله با شرکت اوپنایآی، سازنده چتجیپیتی وارد توافق شد. سام آلتمن، مدیرعامل اوپنایآی اعلام کرد که این قرارداد اصول مدنظر آنها را نیز حفظ میکند، اما تفاوت در سازوکار اجرایی است.
اوپنایآی بهجای پافشاری بر بندهای صریح قراردادی، چارچوب «تمامی اهداف قانونی» را پذیرفته اما لایههای کنترلی فنی و مهندسان مستقر خود را برای نظارت بر ایمنی سیستمها به کار گرفته است. آلتمن معتقد است رویکرد انتروپیک بیش از حد بر کنترل عملیاتی متمرکز بوده است، در حالی که اوپنایآی به حفاظتهای قانونی موجود تکیه میکند.
با وجود این تنشها، گزارشها نشان میدهد که مدل کلاد همچنان در عملیاتهای جاری، از جمله عملیات اخیر «خشم حماسی» در همکاری با اسرائیل برای تحلیلهای اطلاعاتی و مدلسازی عملیاتی مورد استفاده قرار گرفته است.
به دلیل ادغام عمیق این فناوری در سیستمهای محرمانه، جداسازی آن فرآیندی دشوار توصیف شده و پنتاگون یک بازه زمانی ششماهه را برای حذف کامل محصولات انتروپیک تعیین کرده است.
همزمان، این تقابل واکنشهای گستردهای را در صنعت برانگیخته است؛ بیش از ۸۷۵ کارمند از گوگل و اوپنایآی در نامهای سرگشاده از موضع اخلاقی انتروپیک حمایت کردهاند و کاربران نیز با راهاندازی کمپین «QuitGPT»، اعتراض خود را به سیاستهای جدید اوپنایآی نشان دادند که منجر به صعود چشمگیر اپلیکیشن کلاد در فروشگاههای اپلیکیشن شده است.
توضیحات بیشتر:
Pentagon ditches Anthropic AI over “security risk” and OpenAI takes over