دوشنبه ۱۴۰۵/۰۱/۳۱

نقش هوش مصنوعی در نبرد روایت‌های جنگ رمضان

  :اندیشکده
:نویسنده
مرکز رصد و ارزیابی دبیرخانه شورای عالی انقلاب فرهنگی  :رصدگر
لینک منبع اصلی

در ۲۸ فوریه ۲۰۲۶، یک عملیات نظامی مشترک ایالات متحده و اسرائیل، تأسیسات هسته‌ای، زیرساخت‌های نظامی و اهداف رهبری ایران را در آنچه رسماً عملیات خشم حماسی نامیده شد، هدف قرار داد. رسانه‌های اجتماعی به سرعت مملو از فیلم‌های دروغین از این درگیری، از جمله انفجارهای عظیم در تل‌آویو، حملات موشکی موفقیت‌آمیز ایران به کشتی‌های جنگی ایالات متحده و تصاویر ماهواره‌ای که ظاهراً خسارات وارده به پایگاه‌های نظامی آمریکا در خلیج فارس را نشان می‌داد، شدند.

برخی از این فیلم‌ها از درگیری‌های نامرتبط، از جمله در اوکراین، و حتی از بازی‌های ویدیویی بازیابی شده بودند. با این حال، برخی از آنها کاملاً ساختگی بودند و با ابزارهای هوش مصنوعی مولد که اکنون همه جا حاضر هستند و می‌توانند محتوای واقع‌گرایانه‌تری را در مقیاس تولید کنند، ایجاد شده بودند. چندین ناظر این حوزه بر حجم بی‌سابقه محتوای تولید شده توسط هوش مصنوعی و پیچیدگی فزاینده آن تأکید کردند.

در حالی که مطالب زیادی در مورد پتانسیل تصاویر، ویدیوها و صداهای تولید شده توسط هوش مصنوعی برای پر کردن اکوسیستم اطلاعات و دشوار کردن تجزیه و تحلیل آنچه درست است، نوشته شده است، محتوای هوش مصنوعی پیش از این تنها بخش کوچکی از محتوای گمراه‌کننده‌ای را که در سراسر وب در گردش است، تشکیل می‌داد. در طول سال ۲۰۲۴، که «سال انتخابات» تلقی می‌شد، محتوای تولید شده توسط هوش مصنوعی - در حالی که وجود داشت - فرآیندهای انتخاباتی را در سراسر جهان مختل نکرد. و در روزهای اولیه جنگ اسرائیل و حماس، محتوای هوش مصنوعی دوباره وجود داشت، اما تنها بخش کوچکی از ادعاهای گمراه‌کننده کلی و تصاویر بازیافتی منتشر شده در اینترنت را نشان می‌داد. آیا درگیری جاری فعلی در ایران واقعاً نشان‌دهنده جهشی قابل توجه در تصاویر تولید شده توسط هوش مصنوعی است؟ و اگر چنین است، چه چیزی می‌تواند چنین تغییر معناداری را توضیح دهد؟

آنچه که همچنان ثابت مانده است
افزایش محتوای نادرست، گمراه‌کننده و بی‌محتوا در زمان بحران چیز جدیدی نیست. در سال ۲۰۲۳، در آغاز جنگ اسرائیل و حماس، ادعاهای دروغین به دلیل شکاف عرضه و تقاضا برای اطلاعات معتبر، انگیزه‌های مالی برای انتشار ویروسی، پیامدهای تغییرات سیاست‌های پلتفرم و تکه‌تکه شدن فضاهایی که روزنامه‌نگاران و محققان زمانی برای بینش میدانی به آنها متکی بودند، وب را فرا گرفت.

بسیاری از پویایی‌هایی که اکوسیستم اطلاعات را پیچیده کرده بودند، اکنون نیز وجود دارند. فاصله بین تقاضا برای اطلاعات معتبر در مورد درگیری و عرضه آن همچنان ادامه دارد و در این خلأ، محتوای نادرست در گردش است. انگیزه‌های مالی برای انتشار ویروسی نیز تغییر نکرده است. برنامه‌های تقسیم درآمد، از جمله در پلتفرم اجتماعی X، به کاربران بر اساس میزان بازدید ایجاد شده توسط پست‌هایشان پول می‌دهند و انگیزه مالی مستقیمی برای تولید محتوای جنجالی که ویروسی می‌شود، ایجاد می‌کنند. در طول دو هفته اول درگیری ایران، ویدیوهای تولید شده توسط هوش مصنوعی که حملات ساختگی را به تصویر می‌کشند، میلیون‌ها بازدید به دست آوردند.۱

هم پلتفرم‌های توییتر و هم متا بیشتر به سمت تعدیل محتوای جمعی متمایل شده‌اند، که در تئوری چیز بدی نیست، اما در مواقع بحران چالش برانگیز می‌شود. برخلاف قابلیت‌های داخلی که می‌توانند برای رسیدگی به افزایش ناگهانی در یک لحظه خاص منحرف یا تخصیص داده شوند، جمعیت ممکن است در مواقع بحران افزایش یابد اما ممکن است این کار را به گونه‌ای انجام ندهد که منجر به تعدیل به موقع‌تر شود. الگوریتمی که تصمیم می‌گیرد آیا یک یادداشت مفید است یا خیر، صرف نظر از زمینه، یکسان باقی می‌ماند. و ممکن است جمعیت به ابزارهای تشخیص تخصصی مورد نیاز برای ارزیابی قابل اعتماد محتوای تولید شده توسط هوش مصنوعی دسترسی نداشته باشند - اگر اصلاً در حال حاضر چنین چیزی ممکن باشد.

مشکل محتوای تولید شده توسط هوش مصنوعی چقدر بزرگ است؟

برای بررسی میزان استفاده از هوش مصنوعی مولد در مناقشه ایران، داده‌های یادداشت‌های انجمن X را ارزیابی کردم، که همچنان ابزاری بسیار قابل مشاهده برای تعدیل محتوا در سراسر پلتفرم است.۲ در این برنامه که زمینه‌های جمع‌سپاری شده را با اجماع جامعه ترکیب می‌کند، کاربران X مسئول ارائه اطلاعات اضافی در مورد پست‌ها، از جمله علامت‌گذاری پست‌هایی هستند که ممکن است گمراه‌کننده، بی‌محتوا، نادرست یا - مهم‌تر از همه - تولید شده توسط هوش مصنوعی باشند. سپس شرکت‌کنندگان در برنامه می‌توانند این زمینه اضافه شده را ارزیابی کنند و اگر تعداد کافی از شرکت‌کنندگان از "دیدگاه‌های متنوع" - که بر اساس الگوریتمی تعریف می‌شوند که دیدگاه‌ها را بر اساس نحوه ارزیابی سایر یادداشت‌ها توسط مشارکت‌کنندگان استنباط می‌کند - موافق باشند که این اضافه شدن مفید است، به پست اضافه می‌شود. کاربران می‌توانند به هر پستی زمینه اضافه کنند، اما به دلیل ماهیت مبتنی بر اجماع این ابتکار، تنها بخش کوچکی از آن یادداشت‌ها به صورت عمومی قابل مشاهده خواهند بود. نکته مهم این است که تمام داده‌های یادداشت‌های انجمن عمومی می‌شوند، که دریچه‌ای به دامنه محتوای مورد بحث در سراسر پلتفرم فراهم می‌کند.

با استفاده از این داده‌ها، متوجه شدم که در هفته‌های اخیر، محتوای مورد مناقشه که در توییتر به عنوان بهره‌بردار از هوش مصنوعی مولد علامت‌گذاری شده است، از زمان گسترش ابزارهای هوش مصنوعی مولد به بالاترین نقطه خود رسیده است، به طوری که از زمان آغاز درگیری‌ها بیش از ۵۰۰۰ یادداشت به محتوای تولید شده توسط هوش مصنوعی اشاره کرده‌اند (شکل ۱).۳ این به دنبال افزایش مداوم یادداشت‌هایی است که در دو ماه گذشته به اصطلاحات مرتبط با هوش مصنوعی اشاره کرده‌اند (از جمله افزایش محتوای مرتبط با هوش مصنوعی پس از حمله تروریستی ساحل بوندی و خشونت‌های مرتبط با اداره مهاجرت و گمرک ایالات متحده در مینه سوتا). نکته مهم این است که این هنوز درصد کمی از کل اکوسیستم اطلاعاتی مورد مناقشه در توییتر را نشان می‌دهد و به این معنی نیست که در واقع از هوش مصنوعی استفاده شده است. همچنین احتمالاً سود دروغگو، که در آن محتوای واقعی به دلیل ناراحت‌کننده یا نامناسب بودن به عنوان تولید شده توسط هوش مصنوعی رد می‌شود، در حال اجرا است. با این وجود، این امر افزایش شیوع هوش مصنوعی را به عنوان یک عامل پیچیده‌کننده در یک اکوسیستم اطلاعاتی از قبل آشفته نشان می‌دهد - روندی که بعید است با آسان‌تر شدن استفاده از این ابزارها و ادغام بیشتر آنها در زندگی روزمره، کاهش یابد.

مشکل لایه‌بندی اطلاعات
چندین پیشرفت، لحظه فعلی را از بحران‌های اطلاعاتی قبلی متمایز می‌کند و ممکن است به شیوع روزافزون هوش مصنوعی مولد به عنوان بخشی از اکوسیستم اطلاعاتی مورد مناقشه در حال پیشرفت کمک کند. شاید قابل توجه‌ترین آنها، خود فناوری به طرز چشمگیری بهبود یافته باشد و اکنون توسط چت‌بات‌های مبتنی بر هوش مصنوعی که در نتایج جستجو و پلتفرم‌هایی مانند توییتر تعبیه شده‌اند، تکمیل شده است. این چت‌بات‌ها به لایه‌های جدیدی در اکوسیستم اطلاعات تبدیل شده‌اند. با وجود پیشرفت‌ها، آنها هنوز هم ممکن است برای همگام شدن با پیشرفت‌های بلادرنگ مشکل داشته باشند، اما به طور فزاینده‌ای به عنوان منبع اول اطلاعات مورد استفاده قرار می‌گیرند. در درگیری فعلی، گروک، چت‌بات توییتر، ویدیوهای بنیامین نتانیاهو، نخست وزیر اسرائیل، را به عنوان دیپ‌فیک علامت‌گذاری کرده است که موج سردرگمی خود را ایجاد کرده و شایعاتی را در مورد محل اختفای او دامن زده است.

برای افزودن به پیچیدگی، تشخیص هوش مصنوعی نیز به طور فزاینده‌ای به فضایی پر هرج و مرج تبدیل می‌شود. تشخیص محتوای تولید شده توسط هوش مصنوعی به ابزارهایی متکی است که کیفیت متغیری دارند و در آنها ممکن است پیچیدگی فنی لازم باشد. "جمعیت" ممکن است مجهز به استفاده از این ابزارها با سطح مناسب شک و تردید مورد نیاز برای کسب بینش‌های مفید نباشد. در زمینه درگیری‌های جاری در ایران، چندین محقق نحوه استفاده محققان متن‌باز از قابلیت‌های ادعایی تشخیص هوش مصنوعی برای انکار تصاویر معتبر را مستند کرده‌اند که باعث افزایش عدم قطعیت در مورد واقعیت می‌شود.

این امر به ویژه در شرایطی نگران‌کننده است که پلتفرم‌ها به طور فزاینده‌ای برای ارزیابی و علامت‌گذاری محتوای گمراه‌کننده به جامعه متکی هستند. در آغاز جنگ اسرائیل و حماس در اواخر سال ۲۰۲۳، X پلتفرم اصلی برای استفاده از تعدیل جامعه مبتنی بر اجماع بود. از آن زمان، متا به طور فزاینده‌ای این رویکرد را در فیس‌بوک، اینستاگرام و Threads اتخاذ کرده است، زیرا همزمان سرمایه‌گذاری خود را در بررسی واقعیت کاهش داده است. در حالی که تعدیل مبتنی بر جامعه می‌تواند مسیری حیاتی برای تقویت اعتماد ارائه دهد، با چالش‌های قابل توجهی نیز روبرو است، به ویژه در مواقع بحرانی که تقاضای فزاینده‌ای برای اطلاعات وجود دارد. با قابلیت‌های داخلی بیشتر، یک شرکت ممکن است منابع را به جایی که نیاز به طور ویژه حاد است، معطوف کند. با این حال، اگر شرکتی به جمعیت متکی باشد، استفاده از این اهرم‌ها به طور فزاینده‌ای دشوار می‌شود.

شکل ۲ نشان می‌دهد که درصد یادداشت‌هایی که جامعه در نهایت «مفید» ارزیابی کرده است، با گذشت زمان کاهش یافته است، حتی با اینکه درصد یادداشت‌هایی که به محتوای تولید شده توسط هوش مصنوعی اشاره می‌کنند، از زمان انتخابات ۲۰۲۴ ایالات متحده، زمانی که تنها ۱.۵٪ از کل محتوای مورد بحث را تشکیل می‌داد، به طور قابل توجهی افزایش یافته است. در دو ماه گذشته، این درصد حدود ۷٪ تا ۸٪ بوده است، به این معنی که از هر ۱۲ یادداشت نوشته شده در توییتر، حدود یک یادداشت به تولید هوش مصنوعی اشاره داشته است. در این زمینه، توانایی سیستم برای ضمیمه کردن یادداشت‌ها به پست‌ها به عنوان زمینه اضافی، همچنان به اندازه و مشارکت پایگاه مشارکت‌کنندگان داوطلب آن (و توانایی آن برای رسیدن به اجماع معنادار) محدود است، در حالی که حجم محتوایی که نیاز به بررسی دارد، متفاوت است. در توییتر، و احتمالاً در سایر پلتفرم‌هایی که به تازگی از مشارکت‌های مبتنی بر جامعه استفاده می‌کنند، ممکن است تعدیل محتوا نتواند با میزان محتوای گمراه‌کننده در طول بحران هماهنگ شود، زیرا پلتفرم نمی‌تواند کنترل کند چه کسی با توانایی نوشتن و ارزیابی یادداشت‌ها در هر روز مشخص، حضور می‌یابد.

دیپ‌فیک به عنوان سلاح جنگی
اگرچه افزایش محتوای تولید شده توسط هوش مصنوعی در سراسر منطقه ایکس بخشی از رشد گسترده‌تر در چند ماه گذشته است، اما درگیری فعلی از یک نظر قابل توجه است: محتوای تولید شده توسط هوش مصنوعی به عنوان امتدادی از تلاش‌های جنگی ظهور کرده است. سال‌هاست که محققان پتانسیل استفاده از محتوای تولید شده توسط هوش مصنوعی را به عنوان بخشی از تلاش‌های زمان جنگ برای ایجاد سردرگمی، بی‌اعتبار کردن رهبران، تضعیف حمایت مردمی و قطبی کردن جامعه، در میان سایر کاربردها، تشخیص داده‌اند.

در درگیری جاری، ماهیت چندوجهی جنگ اطلاعاتی مبتنی بر هوش مصنوعی، محیط اطلاعاتی را برای همه طرف‌های درگیر پیچیده کرده است. با این حال، استفاده از تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی - از جمله استفاده آشکار و پنهان - ممکن است برای ایران که در برابر نیروهای ترکیبی ایالات متحده و اسرائیل در وضعیت نامساعد نظامی قرار دارد، به ویژه مهم باشد. ایجاد هرج و مرج و تضعیف اعتماد به اهداف نظامی ایالات متحده ممکن است برای بقای نظام اساسی باشد. بنابراین جای تعجب نیست که ایران برای تسریع در استراتژی جنگ اطلاعاتی موجود خود به هوش مصنوعی مولد روی آورده است. یک گزارش اخیر، رد یک کمپین هماهنگ جعل عمیق با ویدیوها و زیرنویس‌های یکسان، پنجره‌های ارسال همزمان و خوشه‌های هشتگ را تا ایران دنبال کرده است. این در پی تلاش‌های گذشته حکومت برای آزمایش استفاده از هوش مصنوعی مولد برای تأثیرگذاری بر افکار عمومی، از جمله پیرامون انتخابات ایالات متحده، صورت گرفته است.

در درگیری فعلی، اختلال آنلاین - که از محتوای هوش مصنوعی به خوبی استفاده می‌کند اما کاملاً توسط آن هدایت نمی‌شود - ممکن است به گونه‌ای طراحی شده باشد که به دولت ایران کمک کند تا از تمایل دولت ترامپ برای جنگ بیشتر دوام بیاورد. بخشی از جذابیت دونالد ترامپ، رئیس جمهور، در طول مبارزات انتخاباتی ریاست جمهوری ۲۰۲۴ ناشی از وعده او برای قرار دادن «آمریکا در اولویت» و پایان دادن به «جنگ‌های ابدی» گذشته بود. بسیاری از هواداران او، انتخابات را به عنوان انتخابی بین جنگ جهانی سوم و غذا و بنزین ارزان‌تر مطرح کردند. اگرچه پایگاه او فعلاً از تلاش‌های جنگی حمایت می‌کند، اما نشانه‌هایی از شکاف در آن وجود دارد. به طور گسترده‌تر، این درگیری به شدت قطبی شده است و یک کمپین نظامی طولانی مدت برخلاف وعده‌های انتخاباتی رئیس جمهور خواهد بود.

در این زمینه، بخش عمده‌ای از محتوایی که در حمایت از ایران - و گاهی اوقات مستقیماً توسط ایران - منتشر می‌شود، برای نمایش قدرت نظامی که ندارد و اغراق در خسارات وارده به ایالات متحده و اسرائیل طراحی شده است. تهران با پر کردن اکوسیستم اطلاعاتی، امیدوار است سردرگمی ایجاد کند و شاید مهم‌تر از همه، نارضایتی عمومی را تشدید کند و حمایت عمومی متزلزل از کمپین نظامی ایالات متحده را از بین ببرد. هوش مصنوعی این کار را ارزان‌تر، بالقوه جذاب‌تر و سریع‌تر از گذشته می‌کند.

نگاهی به آینده
همگرایی قابلیت‌های بهبود یافته هوش مصنوعی، یک اکوسیستم اطلاعاتی چندلایه، کاهش بیشتر در تعدیل محتوا و یک بازیگر دولتی با انگیزه منحصر به فرد، شرایطی را ایجاد کرده است که گفتمان عمومی آگاهانه را در طول درگیری‌های مسلحانه به چالش می‌کشد. در این زمینه، سیاسی شدن تعدیل محتوا با نیاز فعال به آن در تضاد است، زیرا محتوای تولید شده توسط هوش مصنوعی به طور فزاینده‌ای در درگیری‌های مسلحانه رواج می‌یابد.

درگیری ایران ارزش ملموس تعدیل محتوا را نشان می‌دهد. حداقل، چنین تعدیلی باید از نظر ساختاری برای رفع عدم قطعیت یا قابلیت اطمینان منبع در شرایط بحرانی مناسب‌تر باشد، که دقیقاً در لحظه‌ای رخ می‌دهد که افکار عمومی بیشترین انعطاف‌پذیری را دارد و به طور فعال توسط یک دشمن خارجی هدف قرار می‌گیرد. همچنین بر اهمیت سرمایه‌گذاری در قابلیت‌های تشخیص قابل اعتماد، به ویژه با بهبود مداوم مدل‌ها، و توجه بیشتر به فرآیندهای احراز هویت برای محتوای دیجیتال تأکید می‌کند. داده‌های ارائه شده توسط پلتفرم یادداشت‌های انجمن X نگاهی اجمالی به درک مقیاس چالش ارائه می‌دهد، که سنجش آن همچنان بسیار دشوار است، اما همچنین شکاف بین آنچه سیستم‌های فعلی می‌توانند انجام دهند و آنچه در آن لحظه نیاز است را آشکار می‌کند.

منبع گزارش:
https://www.brookings.edu/articles/generative-ai-as-a-weapon-of-war-in-iran/

مقالات مشابه

پیامدهای قطع اینترنت بر ناآرامی‌های اجتماعی
مردم داخل ایران، جبهه دوم جنگ رمضان
نگرش عمومی در ایران به جنگ رمضان

انتخاب سردبیر

user