جدال پنتاگون با خالق هوش مصنوعی؛‌ کنترل AI در دست کیست؟

پنج‌شنبه 7 اسفند 1404 - 19:44
مطالعه 3 دقیقه
پنتاگون
پنتاگون و شرکت هوش مصنوعی آنتروپیک بر سر استفاده از هوش مصنوعی در دفاع موشکی و مرزهای اخلاقی فناوری به اختلاف خوردند.

به گزارش زومان، اگر تنها ۹۰ ثانیه تا برخورد یک موشک بالستیک با کلاهک هسته‌ای به خاک آمریکا باقی مانده باشد و تنها راه فعال‌سازی سیستم دفاعی، استفاده از یک هوش مصنوعی باشد که محدودیت‌های ایمنی شرکت مانع از عمل‌کرد آن می‌شود، چه باید کرد؟ این پرسش که نقطه‌ تقاطع میان اخلاق، فناوری و امنیت ملی است را یک مقام ارشد دفاعی آمریکا برای داریو آمودی، مدیرعامل محتاط شرکت آنتروپیک مطرح کرد. این تماس تلفنی، که در ماه دسامبر برقرار شد، نقطه‌ اوج یک کشمکش فزاینده میان وزارت دفاع آمریکا و شرکت آنتروپیک (Anthropic)، یکی از پیشگامان هوش مصنوعی بود.

براساس آنچه بلومبرگ گزارش داده است، این سناریو، نشان‌دهنده تغییر بی‌سابقه در استراتژی نظامی و وابستگی پنتاگون به یک شرکت خصوصی ۳۸۰ میلیارد دلاری است که در خط مقدم توسعه هوش مصنوعی قرار دارد و نگرانی‌ها درباره اشتباهات فناوری نوظهور را افزایش می‌دهد.

سخنگوی آنتروپیک این روایت پنتاگون را رد و آن را «کاملاً نادرست» خواند و گفت: « هر نسخه پیشنهادی از قرارداد ما امکان استفاده از مدل‌ها برای دفاع موشکی و کاربردهای مشابه را فراهم می‌کند.»

با این حال، منابع نزدیک به مذاکرات اعلام کردند که آنتروپیک پذیرفته است ابزارهای هوش مصنوعی‌اش برای دفاع موشکی و عملیات سایبری مورد استفاده قرار گیرد، اما پنتاگون همچنان فشار می‌آورد تا محدودیت‌های استفاده را بیش‌تر کاهش دهد.

در جلسه‌ای پرتنش بین آمودی و پیت هگست، وزیر دفاع سخت‌گیر ترامپ، مطرح شد که پنتاگون از قانون تولید دفاعی ۱۹۵۰ استفاده خواهد کرد تا آنتروپیک را مجبور کند ابزارهای خود را بدون محدودیت در اختیار ارتش قرار دهد.

این کشمکش، وابستگی پنتاگون به آنتروپیک را در رقابت نظامی با دشمنانی مانند چین آشکار کرده و همچنین تنش بین سیلیکون ولی و وزارت دفاع بر سر کنترل آینده هوش مصنوعی در جنگ و نظارت را برجسته می‌کند.

آمودی در مصاحبه با پادکست نیویورک تایمز نگرانی خود را درباره کمبود نظارت بر استفاده از هوش مصنوعی در گروه‌های پهپادهای خودکار بیان کرد و گفت:

در برخی موارد، ما باید در برابر هوش مصنوعی محافظت شویم.

آخرین فرصت برای آنتروپیک

با این حال، اگر آنتروپیک تا روز جمعه به خواسته‌های پنتاگون پاسخ ندهد، پیت هگست تهدید کرده است که از قانون تولید دفاعی استفاده کند و در صورت عدم همکاری، شرکت ممکن است به عنوان ریسک زنجیره تأمین معرفی شود.

«ریسک زنجیره تأمین» یعنی این شرکت از سوی پنتاگون به عنوان یک نقطه ضعف در تامین تجهیزات و نرم‌افزارهای حیاتی نظامی تلقی شود و دیگر شرکت‌ها، مانند پالانتیر که از ابزارهای آنتروپیک در سیستم مدیریت نبرد خود استفاده می‌کنند، مجبور شوند تضمین دهند که بدون استفاده از مدل‌های این شرکت قادر به ادامه عملیات خود هستند.

این وضعیت می‌تواند همکاری‌های نظامی و قراردادی این شرکت‌ها را دچار اختلال کرده و تاثیر بزرگی بر عملکرد عملیاتی آن‌ها داشته باشد.

این درگیری، نگرانی‌ها درباره کنترل استفاده نظامی از هوش مصنوعی و مرزهای اخلاقی فناوری نوظهور را برجسته می‌کند. آنتروپیک اخیراً محدودیت‌های خود را در برخی قراردادهای دولتی کاهش داده و قصد دارد توسعه هوش مصنوعی خطرناک را متوقف نکند تا در رقابت باقی بماند.

شرکت آنتروپیک اولین شرکت تولیدکننده هوش مصنوعی است که با پنتاگون قرارداد بسته و ابزارهای آن در عملیات‌های حساس، از جمله عملیات دستگیری نیکلاس مادورو در ونزوئلا، به کار رفته‌اند.

با وجود درآمد سالانه ۱۴ میلیارد دلاری آنتروپیک، اختلاف با پنتاگون می‌تواند درآمد بلندمدت شرکت و روابطش با پالانتیر را تهدید کند. آمودی همچنین با تصمیم ترامپ برای فروش تراشه‌های H200 انویدیا به چین مخالفت کرده و بر ضرورت قوانین و محدودیت‌های ایمن برای هوش مصنوعی تأکید دارد.

کشمکش میان پنتاگون و آنتروپیک، تنها یک اختلاف قراردادی نیست؛ بلکه نمادی از نبرد بزرگ‌تری است که بر سر کنترل آینده‌ قدرتمندترین فناوری تاریخ بشر در جریان است.

مرز اخلاق و امنیت ملی در عصر هوش مصنوعی کجاست؟ دیدگاه خود را با ما در میان بگذارید.

تبلیغات

نظرات

© 1404 کپی بخش یا کل هر کدام از مطالب زومان تنها با کسب مجوز مکتوب امکان پذیر است.