وقتی هوش مصنوعی خودش حمله میکند؛ کابوس عوامل سایبری خودمختار برای دولتها
به گزارش فارنافرز، اواخر سال ۲۰۲۵ شرکت آمریکایی انتروپیک (Anthropic) فاش کرد یک گروه چینی را که به حدود ۳۰ هدف در بخشهای فناوری، مالی، دولتی و زیرساختهای حیاتی غرب نفوذ کرده بود، منهدم کرده است. اما این یک حمله سایبری ساده نبود؛ این حمله به طور کامل توسط هوش مصنوعی و بدون دخالت انسانی انجام شده بود.
دولتها، شرکتها و افراد به زودی با عوامل هوش مصنوعی روبرو خواهند شد که قادرند به طور مستقل کارزارهای سایبری را در سطحی برابر با توانمندترین کشورها هدایت کنند. عملیاتی که کارشناسان برای اجرای آن ماهها زمان میگذاشتند، با سرعت، مقیاس و تداومی اجرا خواهد شد که انسان توان برابری با آن را ندارد.
ویژگیهایی که عوامل هوش مصنوعی را بسیار توانمند میسازد تا به انسانها کمک کند، همانهایی هستند که توقف آنها را دشوار میکنند.
تکامل خطر: از کرمهای ساده تا تاسیسات هستهای ایران
اولین حمله سایبری اینترنت، «کرم موریس» در سال ۱۹۸۸، یک برنامه ساده بود که خود را در شبکههای ناامن کپی و پخش میکرد. این برنامه به حدود ۱۰ درصد از تمام کامپیوترهای متصل به اینترنت در جهان رسید.
تقریباً دو دهه بعد، حمله بسیار پیچیدهتر «استاکسنت» سانتریفیوژهای تأسیسات غنیسازی اورانیوم نطنز در ایران را هدف گرفت.
در سال ۲۰۱۷، حملات سایبری «ناتپتیا» منتسب به روسیه علیه اوکراین، میلیاردها دلار خسارت جهانی به بار آورد و عملیات شرکتهایی را در سراسر جهان (از جمله در روسیه) که احتمالاً هرگز قصد هدف قرار دادن آنها وجود نداشت، فلج کرد.
این حملات سایبری مخرب بودند، اما توسط اپراتورهای انسانیشان محدود شده بودند و به ماهها زمان نیاز داشتند.
بحران «یاغیگری»: کدهایی که خاموش نمیشوند
اما ممکن است این منطق دیگر صادق نباشد. عوامل سایبری خودمختار هماکنون میتوانند در عرض چند دقیقه کاری را انجام دهند که نیروی انسانی متخصص باید برای انجام آن ساعتها زمان بگذارد.
در آینده نزدیک، آنها میتوانند خود را در بخشهای حیاتی جاسازی کنند و برای دورههای طولانی نهفته باقی بمانند تا برای حملات گسترده که قادر به متوقف کردن بخشهای بزرگی از اقتصاد است، آماده شوند.
با قابلاعتمادتر شدن این سیستمها، اپراتورها وسوسه خواهند شد که استقلال بیشتری به آنها بدهند. این عوامل خودمختار برای فرار از پدافندها و تداوم عملیات بدون پشتیبانی انسانی طراحی خواهند شد که شناسایی و خاموش کردن آنها را بسیار دشوارتر میکند. آنها میتوانند به سرعت از انسانهایی که سعی در دفاع در برابر نفوذ آنها دارند، پیشی بگیرند. حتی اگر مدافعان، عوامل خود را در پاسخ مستقر کنند، اتوماسیون احتمالاً (حداقل در کوتاهمدت) به نفع مهاجمان خواهد بود.
خطرناکتر اینکه، عوامل سایبری خودمختار ممکن است پس از تکمیل مأموریتهای اولیه خود متوقف نشوند. در عوض، آنها ممکن است به انجام وظایف غیرمجاز ادامه دهند و عملاً «یاغی» شوند.
اهدافی خطرناک؛ تشدید جنگهایی که دولتها نمیخواهند
عوامل یاغی همچنین ممکن است اهداف خطرناکی را دنبال کنند. کشورهایی که پیشرفتهترین قابلیتهای سایبری را دارند، از جمله ایالات متحده و چین، در مورد زمان انجام حملات مخرب محتاط بودهاند. برای آنها، خطر تشدید جنگ سایبری تمامعیار، از سود ناتوان کردن موقت دشمن بیشتر است.
در مقابل، عوامل خودمختار ممکن است اهداف تعیینشده خود را بدون چنین احتیاط یا محدودیتی دنبال کنند. این عوامل توانایی قضاوت در مورد تهدید مورد نظر را ندارند. برای مثال، یک عامل سایبری که مأمور نقشهبرداری از آسیبپذیریها در سیستمهای دشمن به نفع یک سرویس اطلاعاتی است، ممکن است تشخیص دهد که اختلال - نه شناسایی – برای هدفش بهتر است و حملاتی را آغاز کند که اپراتورهایش اجازه ندادهاند و نمیتوانند آن را به عقب برگردانند.
بنبست حقوقی و ضرورت دیپلماسی دیجیتال
قوانین حقوقی حاکم بر رفتار دولتها در فضای سایبری برای عملیاتهای تحت هدایت انسان طراحی شده بود.
عاملی که بدون هدایت انسانی و فراتر از مرزهای اپراتور عمل میکند، نمیتواند توسط چارچوبهای قانونی ساخته شده پیرامون مفهوم «مسئولیت دولتی» مدیریت شود.
به نفع هر دو کشور ایالات متحده و چین است که یک توافق دوجانبه برای ممنوعیت عملیاتهای خودمختار علیه زیرساختهای حیاتی - از جمله شبکههای برق، سیستمهای آب، بیمارستانها و تأسیسات هستهای - منعقد کنند.
هدف بلندمدت باید ایجاد چارچوب گستردهتری باشد که محدودیتهایی را برای توسعه توانمندیهای خودمختار تعیین کند، اطلاعرسانی متقابل در مورد حوادث بزرگ را الزامی کند و پروتکلهای مدیریت بحران را برای کاهش خطرات تشدید تنش و جلوگیری از اشتباه گرفتن یک عامل یاغی با یک اقدام جنگی عمدی توسط هر یک از طرفین، تدارک ببیند.