دستگیری مادورو با هوش مصنوعی؛ استفاده پنتاگون از AI دردسرساز شد
ارتش ایالات متحده در عملیات نظامی دستگیری نیکلاس مادورو، رئیسجمهور ونزوئلا، از مدل هوش مصنوعی کلود استفاده کرده است. این افشاگری، شرکت سازنده این مدل یعنی آنتروپیک را در موقعیتی بغرنج قرار داده و شراکت نوپای آن با پنتاگون را تا مرز فروپاشی کشانده است.
این خبر که نخستین بار بهگزارش دو منبع آگاه در خبرگزاری آکسیوس منتشر شد، یک زنگ خطر جدی برای غولهای فناوری است که میکوشند مرزهای اخلاقی روشنی برای استفاده از محصولات خود ترسیم کنند. پنتاگون حالا در حال بازبینی کامل همکاری خود با آنتروپیک است؛ شرکتی که جسارت کرده و پرسیده آیا فناوریاش در این عملیات بهکار رفته است یا نه؟
این اتفاق، تنشها و چالشهایی که آزمایشگاههای بزرگ هوش مصنوعی هنگام ورود به همکاری با نظامیان با آن مواجه هستند را نشان میدهد؛ آنها تلاش میکنند محدودیتهایی برای استفاده از ابزارهای خود اعمال کنند، اما در عین حال پنتاگون خواستار استفاده کامل از این فناوریها در محیطهای نظامی است.
هوش مصنوعی مانند کلود میتواند دادهها را در زمان واقعی پردازش کند، قابلیتی که در محیطهای پیچیده و پرهرجومرج عملیات نظامی برای پنتاگون ارزشمند است. منابع مطلع گفتهاند که کلود در زمان واقعی و در جریان عملیات فعال دستگیری مادورو نیز بهکار رفته است، نه صرفاً در مرحله برنامهریزی و آمادهسازی. البته آکسیوس نتوانسته نقش دقیق این هوش مصنوعی در عملیات را تأیید کند.
مقامهای پنتاگون میخواهند شرکتهای بزرگ هوش مصنوعی اجازه دهند مدلهایشان در هر سناریویی مورد استفاده قرار گیرد، تا زمانی که قوانین رعایت شود. آنتروپیک که خود را پیشرو در امنیت و محدودیتهای ایمنی هوش مصنوعی معرفی کرده، در حال مذاکره با پنتاگون درباره شرایط استفاده از کلود است. این شرکت بهویژه میخواهد مطمئن شود که تکنولوژی آنها برای نظارت گسترده بر شهروندان آمریکایی یا استفاده در سلاحهای کاملاً خودکار بهکار گرفته نمیشود.
سخنگوی آنتروپیک در این باره به آکسیوس گفت: «ما نمیتوانیم درباره اینکه آیا کلود یا هر مدل هوش مصنوعی دیگر در عملیات مشخصی — اعم از طبقهبندیشده یا غیرطبقهبندیشده — بهکار رفته، اظهار نظر کنیم. هر استفاده از کلود، چه در بخش خصوصی و چه در دولت، باید مطابق با سیاستهای استفاده ما باشد و ما با شرکای خود همکاری نزدیک داریم تا رعایت این سیاستها تضمین شود.»
پیت هگست، وزیر دفاع آمریکا، به هوش مصنوعی اهمیت ویژهای داده و گفته که میخواهد آن را سریعاً در همه بخشهای کاری ارتش ادغام کند؛ برنامهای که بخشی از آن برای حفظ برتری در مقابل چین است.
آنتروپیک یکی از چند شرکت بزرگ تولیدکننده مدلهای هوش مصنوعی است که در ظرفیتهای مختلف با پنتاگون همکاری دارد. OpenAI، گوگل و xAI نیز قراردادهایی برای دسترسی بدون محدودیت کاربران نظامی به مدلهای خود دارند. اما هنوز مشخص نیست آیا مدلهای دیگر در عملیات ونزوئلا بهکار رفتهاند یا خیر.
کارهای حساس نظامی — از آزمایش سلاحها تا ارتباطات در عملیات فعال — معمولاً روی سیستمهای طبقهبندیشده انجام میشود و تا کنون تنها سیستم آنتروپیک روی این پلتفرمها در دسترس است.
در نهایت، مذاکرات بین پنتاگون و شرکتهای OpenAI، گوگل و xAI درباره اجازه استفاده از ابزارهایشان در سیستمهای طبقهبندیشده ادامه دارد و آنتروپیک نیز در حال بحث درباره احتمال کاهش محدودیتهای کلود برای استفاده در محیطهای نظامی است.
به نظر شما شرکتهای هوش مصنوعی باید اجازه دهند فناوریشان در عملیات نظامی استفاده شود؟