وقتی هوش مصنوعی خودش حمله می‌کند؛ کابوس عوامل سایبری خودمختار برای دولت‌ها

سه‌شنبه 1 اردیبهشت 1405 - 18:30
مطالعه 3 دقیقه
هکر هک
هوش مصنوعی به نقطه‌ای خطرناک رسیده؛ عصر حملات سایبری که در آن ماشین‌ها می‌توانند بدون نیاز به دستور انسان، زیرساخت‌ها را فلج ‌کنند.
تبلیغات

به گزارش فارن‌افرز، اواخر سال ۲۰۲۵ شرکت آمریکایی انتروپیک (Anthropic) فاش کرد یک گروه چینی را که به حدود ۳۰ هدف در بخش‌های فناوری، مالی، دولتی و زیرساخت‌های حیاتی غرب نفوذ کرده بود، منهدم کرده است. اما این یک حمله سایبری ساده نبود؛ این حمله به طور کامل توسط هوش مصنوعی و بدون دخالت انسانی انجام شده بود.

دولت‌ها، شرکت‌ها و افراد به ‌زودی با عوامل هوش مصنوعی روبرو خواهند شد که قادرند به‌ طور مستقل کارزارهای سایبری را در سطحی برابر با توانمندترین کشورها هدایت کنند. عملیاتی که کارشناسان برای اجرای آن ماه‌ها زمان می‌گذاشتند، با سرعت، مقیاس و تداومی اجرا خواهد شد که انسان توان برابری با آن را ندارد.

ویژگی‌هایی که عوامل هوش مصنوعی را بسیار توانمند می‌سازد تا به انسان‌ها کمک کند، همان‌‌هایی هستند که توقف آن‌ها را دشوار می‌کنند.

تکامل خطر: از کرم‌های ساده تا تاسیسات هسته‌ای ایران

اولین حمله سایبری اینترنت، «کرم موریس» در سال ۱۹۸۸، یک برنامه ساده بود که خود را در شبکه‌های ناامن کپی و پخش می‌کرد. این برنامه به حدود ۱۰ درصد از تمام کامپیوترهای متصل به اینترنت در جهان رسید.

تقریباً دو دهه بعد، حمله بسیار پیچیده‌تر «استاکس‌نت» سانتریفیوژهای تأسیسات غنی‌سازی اورانیوم نطنز در ایران را هدف گرفت.

در سال ۲۰۱۷، حملات سایبری «نات‌پتیا» منتسب به روسیه علیه اوکراین، میلیاردها دلار خسارت جهانی به بار آورد و عملیات شرکت‌هایی را در سراسر جهان (از جمله در روسیه) که احتمالاً هرگز قصد هدف قرار دادن آن‌ها وجود نداشت، فلج کرد.

این حملات سایبری مخرب بودند، اما توسط اپراتورهای انسانی‌شان محدود شده بودند و به ماه‌ها زمان نیاز داشتند.

بحران «یاغی‌گری»: کدهایی که خاموش نمی‌شوند

اما ممکن است این منطق دیگر صادق نباشد. عوامل سایبری خودمختار هم‌اکنون می‌توانند در عرض چند دقیقه کاری را انجام دهند که نیروی انسانی متخصص باید برای انجام آن ساعت‌ها زمان بگذارد.

در آینده نزدیک، آن‌ها می‌توانند خود را در بخش‌های حیاتی جاسازی کنند و برای دوره‌های طولانی نهفته باقی بمانند تا برای حملات گسترده که قادر به متوقف کردن بخش‌های بزرگی از اقتصاد است، آماده شوند.

با قابل‌اعتمادتر شدن این سیستم‌ها، اپراتورها وسوسه خواهند شد که استقلال بیشتری به آن‌ها بدهند. این عوامل خودمختار برای فرار از پدافندها و تداوم عملیات بدون پشتیبانی انسانی طراحی خواهند شد که شناسایی و خاموش کردن آن‌ها را بسیار دشوارتر می‌کند. آن‌ها می‌توانند به ‌سرعت از انسان‌هایی که سعی در دفاع در برابر نفوذ آن‌ها دارند، پیشی بگیرند. حتی اگر مدافعان، عوامل خود را در پاسخ مستقر کنند، اتوماسیون احتمالاً (حداقل در کوتاه‌مدت) به نفع مهاجمان خواهد بود.

خطرناک‌تر اینکه، عوامل سایبری خودمختار ممکن است پس از تکمیل مأموریت‌های اولیه خود متوقف نشوند. در عوض، آن‌ها ممکن است به انجام وظایف غیرمجاز ادامه دهند و عملاً «یاغی» شوند.

اهدافی خطرناک؛ تشدید جنگ‌هایی که دولت‌ها نمی‌خواهند

عوامل یاغی همچنین ممکن است اهداف خطرناکی را دنبال کنند. کشورهایی که پیشرفته‌ترین قابلیت‌های سایبری را دارند، از جمله ایالات متحده و چین، در مورد زمان انجام حملات مخرب محتاط بوده‌اند. برای آن‌ها، خطر تشدید جنگ سایبری تمام‌عیار، از سود ناتوان کردن موقت دشمن بیشتر است.

در مقابل، عوامل خودمختار ممکن است اهداف تعیین‌شده خود را بدون چنین احتیاط یا محدودیتی دنبال کنند. این عوامل توانایی قضاوت در مورد تهدید مورد نظر را ندارند. برای مثال، یک عامل سایبری که مأمور نقشه‌برداری از آسیب‌پذیری‌ها در سیستم‌های دشمن به نفع یک سرویس اطلاعاتی است، ممکن است تشخیص دهد که اختلال - نه شناسایی – برای هدفش بهتر است و حملاتی را آغاز کند که اپراتورهایش اجازه نداده‌اند و نمی‌توانند آن را به عقب برگردانند.

بن‌بست حقوقی و ضرورت دیپلماسی دیجیتال

قوانین حقوقی حاکم بر رفتار دولت‌ها در فضای سایبری برای عملیات‌های تحت هدایت انسان طراحی شده بود.

عاملی که بدون هدایت انسانی و فراتر از مرزهای اپراتور عمل می‌کند، نمی‌تواند توسط چارچوب‌های قانونی ساخته شده پیرامون مفهوم «مسئولیت دولتی» مدیریت شود.

به نفع هر دو کشور ایالات متحده و چین است که یک توافق دوجانبه برای ممنوعیت عملیات‌های خودمختار علیه زیرساخت‌های حیاتی - از جمله شبکه‌های برق، سیستم‌های آب، بیمارستان‌ها و تأسیسات هسته‌ای - منعقد کنند.

هدف بلندمدت باید ایجاد چارچوب گسترده‌تری باشد که محدودیت‌هایی را برای توسعه توانمندی‌های خودمختار تعیین کند، اطلاع‌رسانی متقابل در مورد حوادث بزرگ را الزامی کند و پروتکل‌های مدیریت بحران را برای کاهش خطرات تشدید تنش و جلوگیری از اشتباه گرفتن یک عامل یاغی با یک اقدام جنگی عمدی توسط هر یک از طرفین، تدارک ببیند.

نظرات

© 1404 کپی بخش یا کل هر کدام از مطالب زومان تنها با کسب مجوز مکتوب امکان پذیر است.