جنگ آمریکا و اسرائیل با ایران نگرانیهای دیرینه در مورد استفاده از هوش مصنوعی در هدفگیری در جنگ را تشدید کرده است.
این نگرانیها پس از حمله ۲۸ فوریه به مدرسه دخترانه شجره طیبه در میناب، جنوب ایران، که به گفته ایران حداقل ۱۶۸ نفر را که بیشتر آنها دانشآموز بودند، کشته است، به اوج خود رسید.
دولت ترامپ در ابتدا ایران را مسئول این حمله دانست، اگرچه هیچ مدرکی ارائه نکرد. ایالات متحده میگوید اکنون در حال بررسی این بمبگذاری است. واشنگتن پست گزارش داده است که این مدرسه در فهرست اهداف ایالات متحده بوده است.
دموکراتهای سنای ایالات متحده به پیت هگست، وزیر جنگ، نامه نوشتهاند و خواستار اطلاعاتی در مورد این حمله، از جمله شفافسازی در مورد هرگونه استفاده از هوش مصنوعی در انتخاب هدف شدهاند. تاکنون هیچ تأییدی مبنی بر استفاده یا عدم استفاده از هوش مصنوعی در برنامهریزی یا اجرای حمله به مدرسه وجود نداشته است.
دریاسالار برد کوپر، فرمانده آمریکایی که رهبری جنگ در ایران را بر عهده دارد، استفاده از «انواع ابزارهای پیشرفته هوش مصنوعی» را برای بررسی حجم زیادی از دادهها در این درگیری تأیید کرده است، بدون اینکه از هیچ ابزار خاصی نام ببرد. او گفت که این ابزارها به رهبران اجازه میدهند «تصمیمات هوشمندانهتری سریعتر از آنچه دشمن میتواند واکنش نشان دهد» بگیرند و فرآیندها را از ساعتها یا روزها به چند ثانیه تسریع کنند. دریاسالار کوپر همچنین اظهار داشت: «انسانها همیشه در مورد اینکه چه چیزی را شلیک کنند و چه چیزی را شلیک نکنند و چه زمانی شلیک کنند، تصمیمات نهایی را خواهند گرفت.»
ایران اولین جنگی نیست که سیستمهای هوش مصنوعی را در خود جای داده است، اما این نشان میدهد که هدفگیری با پشتیبانی هوش مصنوعی در حال تبدیل شدن به یک هنجار در جنگ است. در حالی که ارتشها ممکن است پتانسیل افزایش کارایی را بپذیرند، خطرات قابل توجهی همچنان باقی است.
افزایش پذیرش نظامی
هوش مصنوعی امکان پردازش و تجزیه و تحلیل سریع اطلاعات از منابع مختلف و دسترسی به دادههای قابل تنظیم را فراهم میکند. پذیرش آن در سراسر حوزه نظامی پتانسیل افزایش آگاهی موقعیتی، تسهیل اشتراکگذاری اطلاعات در زمان واقعی و امکان تصمیمگیری آگاهانهتر در عملیات نظامی را دارد.
در بیانیهای از وزارت جنگ ایالات متحده در سال ۲۰۲۴، چگونگی کمک سیستم هوشمند Maven مجهز به هوش مصنوعی به سربازان خط مقدم در شناسایی و حمله به اهداف نظامی و کمک به تأیید زنجیره فرماندهی برای حملات تشریح شده است. ناتو همچنین در سال ۲۰۲۵ نسخهای از سیستم هوشمند ماون را از شرکت پالانتیر خریداری کرد. طبق گزارشها، ارتش آمریکا اکنون از نسخه مخصوص خود از ماون برای کمک به ارائه اطلاعات هدفگیری برای عملیات نظامی خود در ایران استفاده میکند. اما دقیقاً مشخص نیست که ماون و سایر ابزارهای هوش مصنوعی چگونه و تا چه حد در ایران مورد استفاده قرار میگیرند.
در جنگ اوکراین، هر دو طرف از هوش مصنوعی برای پردازش دادهها و انتخاب هدف استفاده میکنند. معاون وزیر دفاع اوکراین سال گذشته گفت که هوش مصنوعی هر ماه بیش از ۵۰ هزار جریان ویدیویی از خط مقدم را تجزیه و تحلیل میکند که به «پردازش سریع این دادههای عظیم، شناسایی اهداف و قرار دادن آنها روی نقشه» کمک میکند.
نیویورک تایمز گزارش داده است که اسرائیل از هوش مصنوعی به عنوان بخشی از فرآیند شناسایی اهداف بالقوه برای حملات هوایی علیه حماس در غزه استفاده کرده است. ارتش اسرائیل گفته است که «سیستمهای اطلاعاتی صرفاً ابزارهایی برای تحلیلگران در فرآیند شناسایی هدف هستند.»
کاربردهای دیگر فناوری هوش مصنوعی در حوزه نظامی شامل آموزش پرسنل نظامی از طریق شبیهسازیهای مجازی، برنامهریزی خودکار تدارکات لجستیکی یا شناسایی نیازهای نگهداری تجهیزات از طریق سیستمهای تشخیص تصویر است. اینها تنها برخی از کاربردهای بالقوه هستند.
خطرات
بسیاری از کشورها میخواهند در ابزارهایی سرمایهگذاری کنند که به آنها نسبت به دشمنان برتری میدهد، مطابق با جستجوی عدم تقارن، که در طول تاریخ جنگ ثابت بوده است. اما استفاده از هوش مصنوعی در محیطهای پیچیده و پرخطر مانند درگیریهای مسلحانه نیز با خطرات جدی همراه است.
بخشی از نگرانی مربوط به توسعه خود فناوری هوش مصنوعی و چگونگی تأثیر آن بر عملکرد سیستم است. به عنوان مثال، یک مدل هوش مصنوعی میتواند با دادههای معیوب یا با موادی متفاوت از آنچه هنگام استقرار در دنیای واقعی با آن مواجه میشود، آموزش ببیند. این میتواند منجر به تولید اطلاعات نادرست یا نقص در هنگام استفاده در خارج از محیط آموزشی شود.
مدلهای زبان بزرگ هوش مصنوعی با پیشبینی توالی کلمات، بر اساس احتمال آماری کار میکنند - آنها احتمالاً بیشتر اوقات درست حدس میزنند، اما همیشه درست حدس نمیزنند.
از نظر عملی، این بدان معناست که تصمیمگیری بر اساس اطلاعات تولید شده توسط هوش مصنوعی، حاوی عنصری از خطر و عدم دقت است.
تصمیمات هدفگیری پشتیبانی شده توسط هوش مصنوعی، موردی پرخطر است. اگر ابزارهای هوش مصنوعی به طور گسترده برای تولید اهداف با حداقل نظارت انسانی به کار گرفته شوند، تصور اینکه چگونه ممکن است خطا رخ دهد، دشوار نیست.
یکی از مسائل اصلی که با استفاده از هوش مصنوعی در جنگ برجسته میشود، این است که بین آنچه سیستمهای دارای هوش مصنوعی میتوانند انجام دهند و رویهها یا قوانین مربوط به نحوه استفاده انسانها از این سیستمها تفاوت وجود دارد.
چه کاری میتواند بهتر انجام شود؟
جنگ ایران نشان میدهد که قرار است ابزارهای هوش مصنوعی به طور فزایندهای در درگیریهای مسلحانه مورد استفاده قرار گیرند. در حالی که قوانین جنگ برای همه درگیریها اعمال میشود، بحثهای فزایندهای در مورد اینکه آیا هوش مصنوعی بُعد جدیدی را معرفی میکند که نیاز به قوانین اضافی دارد، وجود دارد. به عنوان مثال، نگرانیهایی در مورد چگونگی کاهش فضای قضاوت انسانی مورد نیاز برای تعیین قوانین بینالمللی بشردوستانه توسط هوش مصنوعی مطرح شده است.
بعید است که در کوتاهمدت یک چارچوب بینالمللی الزامآور ایجاد شود. با این وجود، به نفع خود ارتشهاست که قوانینی برای استفاده از هوش مصنوعی تدوین کنند. این امر به آنها کمک میکند تا از خطر اتکای بیش از حد به هدفگیری مبتنی بر هوش مصنوعی بکاهند، که میتواند خطاهایی را که منجر به اصابت اهداف اشتباه و مرگ غیرنظامیان میشود، کاهش دهد.
ایجاد این قوانین میتواند شامل ایجاد درک مشترک بین کشورها، ارتشها، شرکتهای فناوری، دانشگاهها و جامعه مدنی در مورد چگونگی تقویت همکاری انسان و ماشین - یا چگونگی تعامل انسانها و سیستمهای هوش مصنوعی به گونهای باشد که هر یک در آنچه در آن بهتر هستند، عمل کنند. همچنین باید در مورد چگونگی نظارت بر نقصهای مبتنی بر هوش مصنوعی و تقویت بهبود سیستمها در محیطهای پیچیده ملاحظاتی در نظر گرفته شود.
قطعنامه سازمان ملل متحد در مورد «هوش مصنوعی در حوزه نظامی و پیامدهای آن برای صلح و امنیت بینالمللی» که در دسامبر ۲۰۲۵ تصویب شد، گامی در مسیر درست است. این قطعنامه بحثهای چندجانبه و چندجانبه را تشویق میکند. یک جلسه سه روزه چندجانبه که برای ژوئن ۲۰۲۶ تعیین شده است، باید فرصتی برای تبادل نظر و مشاوره غیررسمی در مورد استفاده از هوش مصنوعی در درگیریهای مسلحانه فراهم کند.
این بحثها راههایی برای اعتمادسازی فراهم میکنند و میتوانند راه را برای بهترین شیوههای مشترک هموار کنند. بدون این، خطرات احتمالی استفاده از هوش مصنوعی در درگیریها بسیار زیاد است.