دستگیری مادورو با هوش مصنوعی؛ استفاده پنتاگون از AI دردسرساز شد

شنبه 25 بهمن 1404 - 12:45
مطالعه 3 دقیقه
دستگیری نیکلاس مادورو
ارتش آمریکا برای دستگیری رئیس‌جمهور ونزوئلا از یک هوش مصنوعی تجاری استفاده کرد؛ حالا پنتاگون و شرکت سازنده‌ آن رو در روی هم قرار گرفته‌اند.

ارتش ایالات متحده در عملیات نظامی دستگیری نیکلاس مادورو، رئیس‌جمهور ونزوئلا، از مدل هوش مصنوعی کلود استفاده کرده است. این افشاگری، شرکت سازنده‌ این مدل یعنی آنتروپیک را در موقعیتی بغرنج قرار داده و شراکت نوپای آن با پنتاگون را تا مرز فروپاشی کشانده است.

این خبر که نخستین بار به‌گزارش دو منبع آگاه در خبرگزاری آکسیوس منتشر شد، یک زنگ خطر جدی برای غول‌های فناوری است که می‌کوشند مرزهای اخلاقی روشنی برای استفاده از محصولات خود ترسیم کنند. پنتاگون حالا در حال بازبینی کامل همکاری خود با آنتروپیک است؛ شرکتی که جسارت کرده و پرسیده آیا فناوری‌اش در این عملیات به‌کار رفته است یا نه؟

این اتفاق، تنش‌ها و چالش‌هایی که آزمایشگاه‌های بزرگ هوش مصنوعی هنگام ورود به همکاری با نظامیان با آن مواجه هستند را نشان می‌دهد؛ آن‌ها تلاش می‌کنند محدودیت‌هایی برای استفاده از ابزارهای خود اعمال کنند، اما در عین حال پنتاگون خواستار استفاده کامل از این فناوری‌ها در محیط‌های نظامی است.

هوش مصنوعی مانند کلود می‌تواند داده‌ها را در زمان واقعی پردازش کند، قابلیتی که در محیط‌های پیچیده و پرهرج‌ومرج عملیات نظامی برای پنتاگون ارزشمند است. منابع مطلع گفته‌اند که کلود در زمان واقعی و در جریان عملیات فعال دستگیری مادورو نیز به‌کار رفته است، نه صرفاً در مرحله برنامه‌ریزی و آماده‌سازی. البته آکسیوس نتوانسته نقش دقیق این هوش مصنوعی در عملیات را تأیید کند.

مقام‌های پنتاگون می‌خواهند شرکت‌های بزرگ هوش مصنوعی اجازه دهند مدل‌هایشان در هر سناریویی مورد استفاده قرار گیرد، تا زمانی که قوانین رعایت شود. آنتروپیک که خود را پیشرو در امنیت و محدودیت‌های ایمنی هوش مصنوعی معرفی کرده، در حال مذاکره با پنتاگون درباره شرایط استفاده از کلود است. این شرکت به‌ویژه می‌خواهد مطمئن شود که تکنولوژی آن‌ها برای نظارت گسترده بر شهروندان آمریکایی یا استفاده در سلاح‌های کاملاً خودکار به‌کار گرفته نمی‌شود.

سخنگوی آنتروپیک در این باره به آکسیوس گفت: «ما نمی‌توانیم درباره اینکه آیا کلود یا هر مدل هوش مصنوعی دیگر در عملیات مشخصی — اعم از طبقه‌بندی‌شده یا غیرطبقه‌بندی‌شده — به‌کار رفته، اظهار نظر کنیم. هر استفاده از کلود، چه در بخش خصوصی و چه در دولت، باید مطابق با سیاست‌های استفاده ما باشد و ما با شرکای خود همکاری نزدیک داریم تا رعایت این سیاست‌ها تضمین شود.»

پیت هگست، وزیر دفاع آمریکا، به هوش مصنوعی اهمیت ویژه‌ای داده و گفته که می‌خواهد آن را سریعاً در همه بخش‌های کاری ارتش ادغام کند؛ برنامه‌ای که بخشی از آن برای حفظ برتری در مقابل چین است.

آنتروپیک یکی از چند شرکت بزرگ تولیدکننده مدل‌های هوش مصنوعی است که در ظرفیت‌های مختلف با پنتاگون همکاری دارد. OpenAI، گوگل و xAI نیز قراردادهایی برای دسترسی بدون محدودیت کاربران نظامی به مدل‌های خود دارند. اما هنوز مشخص نیست آیا مدل‌های دیگر در عملیات ونزوئلا به‌کار رفته‌اند یا خیر.

کارهای حساس نظامی — از آزمایش سلاح‌ها تا ارتباطات در عملیات فعال — معمولاً روی سیستم‌های طبقه‌بندی‌شده انجام می‌شود و تا کنون تنها سیستم آنتروپیک روی این پلتفرم‌ها در دسترس است.

در نهایت، مذاکرات بین پنتاگون و شرکت‌های OpenAI، گوگل و xAI درباره اجازه استفاده از ابزارهایشان در سیستم‌های طبقه‌بندی‌شده ادامه دارد و آنتروپیک نیز در حال بحث درباره احتمال کاهش محدودیت‌های کلود برای استفاده در محیط‌های نظامی است.

به نظر شما شرکت‌های هوش مصنوعی باید اجازه دهند فناوری‌شان در عملیات نظامی استفاده شود؟

نظرات

© 1404 کپی بخش یا کل هر کدام از مطالب زومان تنها با کسب مجوز مکتوب امکان پذیر است.