جدال پنتاگون با خالق هوش مصنوعی؛ کنترل AI در دست کیست؟
به گزارش زومان، اگر تنها ۹۰ ثانیه تا برخورد یک موشک بالستیک با کلاهک هستهای به خاک آمریکا باقی مانده باشد و تنها راه فعالسازی سیستم دفاعی، استفاده از یک هوش مصنوعی باشد که محدودیتهای ایمنی شرکت مانع از عملکرد آن میشود، چه باید کرد؟ این پرسش که نقطه تقاطع میان اخلاق، فناوری و امنیت ملی است را یک مقام ارشد دفاعی آمریکا برای داریو آمودی، مدیرعامل محتاط شرکت آنتروپیک مطرح کرد. این تماس تلفنی، که در ماه دسامبر برقرار شد، نقطه اوج یک کشمکش فزاینده میان وزارت دفاع آمریکا و شرکت آنتروپیک (Anthropic)، یکی از پیشگامان هوش مصنوعی بود.
براساس آنچه بلومبرگ گزارش داده است، این سناریو، نشاندهنده تغییر بیسابقه در استراتژی نظامی و وابستگی پنتاگون به یک شرکت خصوصی ۳۸۰ میلیارد دلاری است که در خط مقدم توسعه هوش مصنوعی قرار دارد و نگرانیها درباره اشتباهات فناوری نوظهور را افزایش میدهد.
سخنگوی آنتروپیک این روایت پنتاگون را رد و آن را «کاملاً نادرست» خواند و گفت: « هر نسخه پیشنهادی از قرارداد ما امکان استفاده از مدلها برای دفاع موشکی و کاربردهای مشابه را فراهم میکند.»
با این حال، منابع نزدیک به مذاکرات اعلام کردند که آنتروپیک پذیرفته است ابزارهای هوش مصنوعیاش برای دفاع موشکی و عملیات سایبری مورد استفاده قرار گیرد، اما پنتاگون همچنان فشار میآورد تا محدودیتهای استفاده را بیشتر کاهش دهد.
در جلسهای پرتنش بین آمودی و پیت هگست، وزیر دفاع سختگیر ترامپ، مطرح شد که پنتاگون از قانون تولید دفاعی ۱۹۵۰ استفاده خواهد کرد تا آنتروپیک را مجبور کند ابزارهای خود را بدون محدودیت در اختیار ارتش قرار دهد.
این کشمکش، وابستگی پنتاگون به آنتروپیک را در رقابت نظامی با دشمنانی مانند چین آشکار کرده و همچنین تنش بین سیلیکون ولی و وزارت دفاع بر سر کنترل آینده هوش مصنوعی در جنگ و نظارت را برجسته میکند.
آمودی در مصاحبه با پادکست نیویورک تایمز نگرانی خود را درباره کمبود نظارت بر استفاده از هوش مصنوعی در گروههای پهپادهای خودکار بیان کرد و گفت:
در برخی موارد، ما باید در برابر هوش مصنوعی محافظت شویم.
آخرین فرصت برای آنتروپیک
با این حال، اگر آنتروپیک تا روز جمعه به خواستههای پنتاگون پاسخ ندهد، پیت هگست تهدید کرده است که از قانون تولید دفاعی استفاده کند و در صورت عدم همکاری، شرکت ممکن است به عنوان ریسک زنجیره تأمین معرفی شود.
«ریسک زنجیره تأمین» یعنی این شرکت از سوی پنتاگون به عنوان یک نقطه ضعف در تامین تجهیزات و نرمافزارهای حیاتی نظامی تلقی شود و دیگر شرکتها، مانند پالانتیر که از ابزارهای آنتروپیک در سیستم مدیریت نبرد خود استفاده میکنند، مجبور شوند تضمین دهند که بدون استفاده از مدلهای این شرکت قادر به ادامه عملیات خود هستند.
این وضعیت میتواند همکاریهای نظامی و قراردادی این شرکتها را دچار اختلال کرده و تاثیر بزرگی بر عملکرد عملیاتی آنها داشته باشد.
این درگیری، نگرانیها درباره کنترل استفاده نظامی از هوش مصنوعی و مرزهای اخلاقی فناوری نوظهور را برجسته میکند. آنتروپیک اخیراً محدودیتهای خود را در برخی قراردادهای دولتی کاهش داده و قصد دارد توسعه هوش مصنوعی خطرناک را متوقف نکند تا در رقابت باقی بماند.
شرکت آنتروپیک اولین شرکت تولیدکننده هوش مصنوعی است که با پنتاگون قرارداد بسته و ابزارهای آن در عملیاتهای حساس، از جمله عملیات دستگیری نیکلاس مادورو در ونزوئلا، به کار رفتهاند.
با وجود درآمد سالانه ۱۴ میلیارد دلاری آنتروپیک، اختلاف با پنتاگون میتواند درآمد بلندمدت شرکت و روابطش با پالانتیر را تهدید کند. آمودی همچنین با تصمیم ترامپ برای فروش تراشههای H200 انویدیا به چین مخالفت کرده و بر ضرورت قوانین و محدودیتهای ایمن برای هوش مصنوعی تأکید دارد.
کشمکش میان پنتاگون و آنتروپیک، تنها یک اختلاف قراردادی نیست؛ بلکه نمادی از نبرد بزرگتری است که بر سر کنترل آینده قدرتمندترین فناوری تاریخ بشر در جریان است.
مرز اخلاق و امنیت ملی در عصر هوش مصنوعی کجاست؟ دیدگاه خود را با ما در میان بگذارید.