فایننشال‌تایمز: چه کسی باید خط قرمزهای هوش مصنوعی را تعیین کند؟

سه‌شنبه 11 فروردین 1405 - 08:00
مطالعه 3 دقیقه
هوش مصنوعی
دعوای پنتاگون و یک استارتاپ سیلیکون‌ولی سؤالی را مطرح کرد که دهه‌ها با ما خواهد ماند.

ترجمه مطالب از رسانه‌های خارجی به معنای تایید آن محتوا نیست. هدف صرفا اطلاع مخاطب از رویکرد و نگاه رسانه‌های جهان به جنگ کنونی است.

به گزارش زومان به نقل از فایننشال‌تایمز، در ۴ مارس (۱۴ اسفند)، وزارت دفاع آمریکا اقدامی کم‌سابقه انجام داد و یک شرکت فناوری داخلی را «ریسک زنجیره تأمین» اعلام کرد؛ عنوانی که معمولاً برای فناوری‌های کشورهای رقیب به کار می‌رود. این‌بار، هدف شرکت «آنتروپیک» بود؛ یکی از بازیگران اصلی حوزه هوش مصنوعی در ایالات متحده. منشأ این تصمیم، اختلافی قراردادی میان دولت و این شرکت عنوان شده است.

این پرونده که هفته گذشته با حکم یک قاضی در ایالت کالیفرنیا موقتاً متوقف شد، در ظاهر بر سر مفاد یک قرارداد است؛ اما در لایه عمیق‌تر، به پرسشی بنیادین می‌رسد: مرزهای استفاده از هوش مصنوعی را چه کسی تعیین می‌کند—دولت یا شرکت‌های سازنده؟

دعوایی فراتر از یک قرارداد

بر اساس این گزارش، دولت به ریاست دونالد ترامپ در پی بازنگری در شرایط همکاری پنتاگون با آنتروپیک بوده است. این شرکت از معدود توسعه‌دهندگانی است که مدل‌های زبانی بزرگ آن برای استفاده در محیط‌های طبقه‌بندی‌شده نظامی آمریکا تأیید شده‌اند.

مقام‌های دولتی تأکید کرده‌اند هدفشان عبور از خطوط قرمز اخلاقی—مانند توسعه سلاح‌های کاملاً خودکار—نیست، بلکه معتقدند چارچوب‌های قانونی باید توسط دولت تعیین شود، نه از طریق شروط یک شرکت خصوصی.

در مقابل، قاضی پرونده، «ریتا لین»، رویکرد دولت را «خودسرانه و فاقد مبنای کافی» توصیف کرده و پیشنهاد داده است به‌جای اعمال فشار قراردادی، مسیر قانون‌گذاری شفاف دنبال شود. این حکم هنوز نهایی نیست و احتمال پیگیری آن در مراحل بالاتر وجود دارد.

قیاسی که بحث را پیچیده‌تر می‌کند

در فضای تحلیل، برخی کارشناسان هوش مصنوعی پیشرفته را با سلاح‌های هسته‌ای مقایسه می‌کنند و نتیجه می‌گیرند چنین فناوری‌ای نباید در اختیار بخش خصوصی باقی بماند. با این حال، فایننشال‌تایمز به تفاوت‌های مهمی اشاره می‌کند: برخلاف سلاح هسته‌ای، هوش مصنوعی کاربردهای گسترده غیرنظامی و اقتصادی دارد و به‌سرعت در زندگی روزمره ادغام شده است.

از همین رو، ایده تعیین ارزش‌های اخلاقی توسط دولت نیز با چالش‌هایی روبه‌روست؛ از جمله نگرانی‌هایی درباره محدود شدن آزادی‌های مدنی یا مداخله بیش از حد در حوزه فناوری.

خطر واقعی کجاست؟

با وجود این تردیدها، نگرانی‌ها درباره پیامدهای امنیتی هوش مصنوعی همچنان جدی است. حتی برخی شرکت‌های بزرگ فناوری نیز اذعان کرده‌اند مدل‌های پیشرفته می‌توانند در حوزه‌هایی مانند حملات سایبری یا توسعه عوامل زیستی مورد سوءاستفاده قرار گیرند.

اینجاست که شکاف میان «سرعت نوآوری» و «توان تنظیم‌گری» خود را نشان می‌دهد؛ شکافی که اگر مدیریت نشود، می‌تواند به ریسک‌های پیش‌بینی‌ناپذیر منجر شود.

تجربه‌های قبلی چه می‌گویند؟

فایننشال‌تایمز یادآور می‌شود که اقتصادهای پیشرفته پیش‌تر نیز با فناوری‌های تحول‌آفرین مواجه شده‌اند—از برق و خودرو تا رایانه و اینترنت. در اغلب این موارد، راه‌حل نه ملی‌سازی کامل بوده و نه رهاسازی کامل بازار، بلکه ایجاد ترکیبی از مقررات دولتی و خودتنظیمی بخش خصوصی.

با این حال، ساختن چنین توازنی در حوزه هوش مصنوعی دشوارتر به نظر می‌رسد. اختلاف اخیر میان پنتاگون و آنتروپیک نشان می‌دهد حتی دولت‌هایی که خود را حامی فناوری می‌دانند، ممکن است در مواجهه با این حوزه به سمت رویکردهای سخت‌گیرانه متمایل شوند.

رقابتی که زمان در آن تعیین‌کننده است

در نهایت، این پرونده فراتر از یک اختلاف حقوقی، به رقابت جهانی بر سر هوش مصنوعی گره خورده است؛ رقابتی که در آن، سرعت توسعه فناوری به اندازه توان محاسباتی اهمیت دارد.

از این منظر، هرگونه تصمیم‌گیری شتاب‌زده—چه در جهت محدودسازی بیش از حد و چه در جهت رهاسازی کامل—می‌تواند پیامدهایی بلندمدت برای جایگاه کشورها در این رقابت داشته باشد.

© 1404 کپی بخش یا کل هر کدام از مطالب زومان تنها با کسب مجوز مکتوب امکان پذیر است.