سه شنبه ۱۴۰۵/۰۲/۰۱

جایگاه هوش مصنوعی در جنگ رمضان

  :اندیشکده
:نویسنده
رصدخونه اندیشکده ها  :رصدگر
لینک منبع اصلی

جنگ آمریکا و اسرائیل با ایران نگرانی‌های دیرینه در مورد استفاده از هوش مصنوعی در هدف‌گیری در جنگ را تشدید کرده است.

این نگرانی‌ها پس از حمله ۲۸ فوریه به مدرسه دخترانه شجره طیبه در میناب، جنوب ایران، که به گفته ایران حداقل ۱۶۸ نفر را که بیشتر آنها دانش‌آموز بودند، کشته است، به اوج خود رسید.

دولت ترامپ در ابتدا ایران را مسئول این حمله دانست، اگرچه هیچ مدرکی ارائه نکرد. ایالات متحده می‌گوید اکنون در حال بررسی این بمب‌گذاری است. واشنگتن پست گزارش داده است که این مدرسه در فهرست اهداف ایالات متحده بوده است.

دموکرات‌های سنای ایالات متحده به پیت هگست، وزیر جنگ، نامه نوشته‌اند و خواستار اطلاعاتی در مورد این حمله، از جمله شفاف‌سازی در مورد هرگونه استفاده از هوش مصنوعی در انتخاب هدف شده‌اند. تاکنون هیچ تأییدی مبنی بر استفاده یا عدم استفاده از هوش مصنوعی در برنامه‌ریزی یا اجرای حمله به مدرسه وجود نداشته است.

دریاسالار برد کوپر، فرمانده آمریکایی که رهبری جنگ در ایران را بر عهده دارد، استفاده از «انواع ابزارهای پیشرفته هوش مصنوعی» را برای بررسی حجم زیادی از داده‌ها در این درگیری تأیید کرده است، بدون اینکه از هیچ ابزار خاصی نام ببرد. او گفت که این ابزارها به رهبران اجازه می‌دهند «تصمیمات هوشمندانه‌تری سریع‌تر از آنچه دشمن می‌تواند واکنش نشان دهد» بگیرند و فرآیندها را از ساعت‌ها یا روزها به چند ثانیه تسریع کنند. دریاسالار کوپر همچنین اظهار داشت: «انسان‌ها همیشه در مورد اینکه چه چیزی را شلیک کنند و چه چیزی را شلیک نکنند و چه زمانی شلیک کنند، تصمیمات نهایی را خواهند گرفت.»

ایران اولین جنگی نیست که سیستم‌های هوش مصنوعی را در خود جای داده است، اما این نشان می‌دهد که هدف‌گیری با پشتیبانی هوش مصنوعی در حال تبدیل شدن به یک هنجار در جنگ است. در حالی که ارتش‌ها ممکن است پتانسیل افزایش کارایی را بپذیرند، خطرات قابل توجهی همچنان باقی است.

افزایش پذیرش نظامی
هوش مصنوعی امکان پردازش و تجزیه و تحلیل سریع اطلاعات از منابع مختلف و دسترسی به داده‌های قابل تنظیم را فراهم می‌کند. پذیرش آن در سراسر حوزه نظامی پتانسیل افزایش آگاهی موقعیتی، تسهیل اشتراک‌گذاری اطلاعات در زمان واقعی و امکان تصمیم‌گیری آگاهانه‌تر در عملیات نظامی را دارد.

در بیانیه‌ای از وزارت جنگ ایالات متحده در سال ۲۰۲۴، چگونگی کمک سیستم هوشمند Maven مجهز به هوش مصنوعی به سربازان خط مقدم در شناسایی و حمله به اهداف نظامی و کمک به تأیید زنجیره فرماندهی برای حملات تشریح شده است. ناتو همچنین در سال ۲۰۲۵ نسخه‌ای از سیستم هوشمند ماون را از شرکت پالانتیر خریداری کرد. طبق گزارش‌ها، ارتش آمریکا اکنون از نسخه مخصوص خود از ماون برای کمک به ارائه اطلاعات هدف‌گیری برای عملیات نظامی خود در ایران استفاده می‌کند. اما دقیقاً مشخص نیست که ماون و سایر ابزارهای هوش مصنوعی چگونه و تا چه حد در ایران مورد استفاده قرار می‌گیرند.

در جنگ اوکراین، هر دو طرف از هوش مصنوعی برای پردازش داده‌ها و انتخاب هدف استفاده می‌کنند. معاون وزیر دفاع اوکراین سال گذشته گفت که هوش مصنوعی هر ماه بیش از ۵۰ هزار جریان ویدیویی از خط مقدم را تجزیه و تحلیل می‌کند که به «پردازش سریع این داده‌های عظیم، شناسایی اهداف و قرار دادن آنها روی نقشه» کمک می‌کند.

نیویورک تایمز گزارش داده است که اسرائیل از هوش مصنوعی به عنوان بخشی از فرآیند شناسایی اهداف بالقوه برای حملات هوایی علیه حماس در غزه استفاده کرده است. ارتش اسرائیل گفته است که «سیستم‌های اطلاعاتی صرفاً ابزارهایی برای تحلیلگران در فرآیند شناسایی هدف هستند.»

کاربردهای دیگر فناوری هوش مصنوعی در حوزه نظامی شامل آموزش پرسنل نظامی از طریق شبیه‌سازی‌های مجازی، برنامه‌ریزی خودکار تدارکات لجستیکی یا شناسایی نیازهای نگهداری تجهیزات از طریق سیستم‌های تشخیص تصویر است. اینها تنها برخی از کاربردهای بالقوه هستند.

خطرات
بسیاری از کشورها می‌خواهند در ابزارهایی سرمایه‌گذاری کنند که به آنها نسبت به دشمنان برتری می‌دهد، مطابق با جستجوی عدم تقارن، که در طول تاریخ جنگ ثابت بوده است. اما استفاده از هوش مصنوعی در محیط‌های پیچیده و پرخطر مانند درگیری‌های مسلحانه نیز با خطرات جدی همراه است.

بخشی از نگرانی مربوط به توسعه خود فناوری هوش مصنوعی و چگونگی تأثیر آن بر عملکرد سیستم است. به عنوان مثال، یک مدل هوش مصنوعی می‌تواند با داده‌های معیوب یا با موادی متفاوت از آنچه هنگام استقرار در دنیای واقعی با آن مواجه می‌شود، آموزش ببیند. این می‌تواند منجر به تولید اطلاعات نادرست یا نقص در هنگام استفاده در خارج از محیط آموزشی شود.

مدل‌های زبان بزرگ هوش مصنوعی با پیش‌بینی توالی کلمات، بر اساس احتمال آماری کار می‌کنند - آنها احتمالاً بیشتر اوقات درست حدس می‌زنند، اما همیشه درست حدس نمی‌زنند.

از نظر عملی، این بدان معناست که تصمیم‌گیری بر اساس اطلاعات تولید شده توسط هوش مصنوعی، حاوی عنصری از خطر و عدم دقت است.

تصمیمات هدف‌گیری پشتیبانی شده توسط هوش مصنوعی، موردی پرخطر است. اگر ابزارهای هوش مصنوعی به طور گسترده برای تولید اهداف با حداقل نظارت انسانی به کار گرفته شوند، تصور اینکه چگونه ممکن است خطا رخ دهد، دشوار نیست.

یکی از مسائل اصلی که با استفاده از هوش مصنوعی در جنگ برجسته می‌شود، این است که بین آنچه سیستم‌های دارای هوش مصنوعی می‌توانند انجام دهند و رویه‌ها یا قوانین مربوط به نحوه استفاده انسان‌ها از این سیستم‌ها تفاوت وجود دارد.

چه کاری می‌تواند بهتر انجام شود؟

جنگ ایران نشان می‌دهد که قرار است ابزارهای هوش مصنوعی به طور فزاینده‌ای در درگیری‌های مسلحانه مورد استفاده قرار گیرند. در حالی که قوانین جنگ برای همه درگیری‌ها اعمال می‌شود، بحث‌های فزاینده‌ای در مورد اینکه آیا هوش مصنوعی بُعد جدیدی را معرفی می‌کند که نیاز به قوانین اضافی دارد، وجود دارد. به عنوان مثال، نگرانی‌هایی در مورد چگونگی کاهش فضای قضاوت انسانی مورد نیاز برای تعیین قوانین بین‌المللی بشردوستانه توسط هوش مصنوعی مطرح شده است.

بعید است که در کوتاه‌مدت یک چارچوب بین‌المللی الزام‌آور ایجاد شود. با این وجود، به نفع خود ارتش‌هاست که قوانینی برای استفاده از هوش مصنوعی تدوین کنند. این امر به آنها کمک می‌کند تا از خطر اتکای بیش از حد به هدف‌گیری مبتنی بر هوش مصنوعی بکاهند، که می‌تواند خطاهایی را که منجر به اصابت اهداف اشتباه و مرگ غیرنظامیان می‌شود، کاهش دهد.

ایجاد این قوانین می‌تواند شامل ایجاد درک مشترک بین کشورها، ارتش‌ها، شرکت‌های فناوری، دانشگاه‌ها و جامعه مدنی در مورد چگونگی تقویت همکاری انسان و ماشین - یا چگونگی تعامل انسان‌ها و سیستم‌های هوش مصنوعی به گونه‌ای باشد که هر یک در آنچه در آن بهتر هستند، عمل کنند. همچنین باید در مورد چگونگی نظارت بر نقص‌های مبتنی بر هوش مصنوعی و تقویت بهبود سیستم‌ها در محیط‌های پیچیده ملاحظاتی در نظر گرفته شود.

قطعنامه سازمان ملل متحد در مورد «هوش مصنوعی در حوزه نظامی و پیامدهای آن برای صلح و امنیت بین‌المللی» که در دسامبر ۲۰۲۵ تصویب شد، گامی در مسیر درست است. این قطعنامه بحث‌های چندجانبه و چندجانبه را تشویق می‌کند. یک جلسه سه روزه چندجانبه که برای ژوئن ۲۰۲۶ تعیین شده است، باید فرصتی برای تبادل نظر و مشاوره غیررسمی در مورد استفاده از هوش مصنوعی در درگیری‌های مسلحانه فراهم کند.

این بحث‌ها راه‌هایی برای اعتمادسازی فراهم می‌کنند و می‌توانند راه را برای بهترین شیوه‌های مشترک هموار کنند. بدون این، خطرات احتمالی استفاده از هوش مصنوعی در درگیری‌ها بسیار زیاد است.

منبع گزارش:
https://www.chathamhouse.org/2026/03/iran-war-highlights-creeping-use-ai-warfare

مقالات مشابه

انسداد تنگه هرمز از منظر حقوق بین‌الملل
مسیر گشایش تنگه هرمز
تنگه هرمز پس از آتش‌بس

انتخاب سردبیر

user