فایننشالتایمز: چه کسی باید خط قرمزهای هوش مصنوعی را تعیین کند؟
ترجمه مطالب از رسانههای خارجی به معنای تایید آن محتوا نیست. هدف صرفا اطلاع مخاطب از رویکرد و نگاه رسانههای جهان به جنگ کنونی است.
به گزارش زومان به نقل از فایننشالتایمز، در ۴ مارس (۱۴ اسفند)، وزارت دفاع آمریکا اقدامی کمسابقه انجام داد و یک شرکت فناوری داخلی را «ریسک زنجیره تأمین» اعلام کرد؛ عنوانی که معمولاً برای فناوریهای کشورهای رقیب به کار میرود. اینبار، هدف شرکت «آنتروپیک» بود؛ یکی از بازیگران اصلی حوزه هوش مصنوعی در ایالات متحده. منشأ این تصمیم، اختلافی قراردادی میان دولت و این شرکت عنوان شده است.
این پرونده که هفته گذشته با حکم یک قاضی در ایالت کالیفرنیا موقتاً متوقف شد، در ظاهر بر سر مفاد یک قرارداد است؛ اما در لایه عمیقتر، به پرسشی بنیادین میرسد: مرزهای استفاده از هوش مصنوعی را چه کسی تعیین میکند—دولت یا شرکتهای سازنده؟
دعوایی فراتر از یک قرارداد
بر اساس این گزارش، دولت به ریاست دونالد ترامپ در پی بازنگری در شرایط همکاری پنتاگون با آنتروپیک بوده است. این شرکت از معدود توسعهدهندگانی است که مدلهای زبانی بزرگ آن برای استفاده در محیطهای طبقهبندیشده نظامی آمریکا تأیید شدهاند.
مقامهای دولتی تأکید کردهاند هدفشان عبور از خطوط قرمز اخلاقی—مانند توسعه سلاحهای کاملاً خودکار—نیست، بلکه معتقدند چارچوبهای قانونی باید توسط دولت تعیین شود، نه از طریق شروط یک شرکت خصوصی.
در مقابل، قاضی پرونده، «ریتا لین»، رویکرد دولت را «خودسرانه و فاقد مبنای کافی» توصیف کرده و پیشنهاد داده است بهجای اعمال فشار قراردادی، مسیر قانونگذاری شفاف دنبال شود. این حکم هنوز نهایی نیست و احتمال پیگیری آن در مراحل بالاتر وجود دارد.
قیاسی که بحث را پیچیدهتر میکند
در فضای تحلیل، برخی کارشناسان هوش مصنوعی پیشرفته را با سلاحهای هستهای مقایسه میکنند و نتیجه میگیرند چنین فناوریای نباید در اختیار بخش خصوصی باقی بماند. با این حال، فایننشالتایمز به تفاوتهای مهمی اشاره میکند: برخلاف سلاح هستهای، هوش مصنوعی کاربردهای گسترده غیرنظامی و اقتصادی دارد و بهسرعت در زندگی روزمره ادغام شده است.
از همین رو، ایده تعیین ارزشهای اخلاقی توسط دولت نیز با چالشهایی روبهروست؛ از جمله نگرانیهایی درباره محدود شدن آزادیهای مدنی یا مداخله بیش از حد در حوزه فناوری.
خطر واقعی کجاست؟
با وجود این تردیدها، نگرانیها درباره پیامدهای امنیتی هوش مصنوعی همچنان جدی است. حتی برخی شرکتهای بزرگ فناوری نیز اذعان کردهاند مدلهای پیشرفته میتوانند در حوزههایی مانند حملات سایبری یا توسعه عوامل زیستی مورد سوءاستفاده قرار گیرند.
اینجاست که شکاف میان «سرعت نوآوری» و «توان تنظیمگری» خود را نشان میدهد؛ شکافی که اگر مدیریت نشود، میتواند به ریسکهای پیشبینیناپذیر منجر شود.
تجربههای قبلی چه میگویند؟
فایننشالتایمز یادآور میشود که اقتصادهای پیشرفته پیشتر نیز با فناوریهای تحولآفرین مواجه شدهاند—از برق و خودرو تا رایانه و اینترنت. در اغلب این موارد، راهحل نه ملیسازی کامل بوده و نه رهاسازی کامل بازار، بلکه ایجاد ترکیبی از مقررات دولتی و خودتنظیمی بخش خصوصی.
با این حال، ساختن چنین توازنی در حوزه هوش مصنوعی دشوارتر به نظر میرسد. اختلاف اخیر میان پنتاگون و آنتروپیک نشان میدهد حتی دولتهایی که خود را حامی فناوری میدانند، ممکن است در مواجهه با این حوزه به سمت رویکردهای سختگیرانه متمایل شوند.
رقابتی که زمان در آن تعیینکننده است
در نهایت، این پرونده فراتر از یک اختلاف حقوقی، به رقابت جهانی بر سر هوش مصنوعی گره خورده است؛ رقابتی که در آن، سرعت توسعه فناوری به اندازه توان محاسباتی اهمیت دارد.
از این منظر، هرگونه تصمیمگیری شتابزده—چه در جهت محدودسازی بیش از حد و چه در جهت رهاسازی کامل—میتواند پیامدهایی بلندمدت برای جایگاه کشورها در این رقابت داشته باشد.