در ۲۸ فوریه ۲۰۲۶، یک عملیات نظامی مشترک ایالات متحده و اسرائیل، تأسیسات هستهای، زیرساختهای نظامی و اهداف رهبری ایران را در آنچه رسماً عملیات خشم حماسی نامیده شد، هدف قرار داد. رسانههای اجتماعی به سرعت مملو از فیلمهای دروغین از این درگیری، از جمله انفجارهای عظیم در تلآویو، حملات موشکی موفقیتآمیز ایران به کشتیهای جنگی ایالات متحده و تصاویر ماهوارهای که ظاهراً خسارات وارده به پایگاههای نظامی آمریکا در خلیج فارس را نشان میداد، شدند.
برخی از این فیلمها از درگیریهای نامرتبط، از جمله در اوکراین، و حتی از بازیهای ویدیویی بازیابی شده بودند. با این حال، برخی از آنها کاملاً ساختگی بودند و با ابزارهای هوش مصنوعی مولد که اکنون همه جا حاضر هستند و میتوانند محتوای واقعگرایانهتری را در مقیاس تولید کنند، ایجاد شده بودند. چندین ناظر این حوزه بر حجم بیسابقه محتوای تولید شده توسط هوش مصنوعی و پیچیدگی فزاینده آن تأکید کردند.
در حالی که مطالب زیادی در مورد پتانسیل تصاویر، ویدیوها و صداهای تولید شده توسط هوش مصنوعی برای پر کردن اکوسیستم اطلاعات و دشوار کردن تجزیه و تحلیل آنچه درست است، نوشته شده است، محتوای هوش مصنوعی پیش از این تنها بخش کوچکی از محتوای گمراهکنندهای را که در سراسر وب در گردش است، تشکیل میداد. در طول سال ۲۰۲۴، که «سال انتخابات» تلقی میشد، محتوای تولید شده توسط هوش مصنوعی - در حالی که وجود داشت - فرآیندهای انتخاباتی را در سراسر جهان مختل نکرد. و در روزهای اولیه جنگ اسرائیل و حماس، محتوای هوش مصنوعی دوباره وجود داشت، اما تنها بخش کوچکی از ادعاهای گمراهکننده کلی و تصاویر بازیافتی منتشر شده در اینترنت را نشان میداد. آیا درگیری جاری فعلی در ایران واقعاً نشاندهنده جهشی قابل توجه در تصاویر تولید شده توسط هوش مصنوعی است؟ و اگر چنین است، چه چیزی میتواند چنین تغییر معناداری را توضیح دهد؟
آنچه که همچنان ثابت مانده است
افزایش محتوای نادرست، گمراهکننده و بیمحتوا در زمان بحران چیز جدیدی نیست. در سال ۲۰۲۳، در آغاز جنگ اسرائیل و حماس، ادعاهای دروغین به دلیل شکاف عرضه و تقاضا برای اطلاعات معتبر، انگیزههای مالی برای انتشار ویروسی، پیامدهای تغییرات سیاستهای پلتفرم و تکهتکه شدن فضاهایی که روزنامهنگاران و محققان زمانی برای بینش میدانی به آنها متکی بودند، وب را فرا گرفت.
بسیاری از پویاییهایی که اکوسیستم اطلاعات را پیچیده کرده بودند، اکنون نیز وجود دارند. فاصله بین تقاضا برای اطلاعات معتبر در مورد درگیری و عرضه آن همچنان ادامه دارد و در این خلأ، محتوای نادرست در گردش است. انگیزههای مالی برای انتشار ویروسی نیز تغییر نکرده است. برنامههای تقسیم درآمد، از جمله در پلتفرم اجتماعی X، به کاربران بر اساس میزان بازدید ایجاد شده توسط پستهایشان پول میدهند و انگیزه مالی مستقیمی برای تولید محتوای جنجالی که ویروسی میشود، ایجاد میکنند. در طول دو هفته اول درگیری ایران، ویدیوهای تولید شده توسط هوش مصنوعی که حملات ساختگی را به تصویر میکشند، میلیونها بازدید به دست آوردند.۱
هم پلتفرمهای توییتر و هم متا بیشتر به سمت تعدیل محتوای جمعی متمایل شدهاند، که در تئوری چیز بدی نیست، اما در مواقع بحران چالش برانگیز میشود. برخلاف قابلیتهای داخلی که میتوانند برای رسیدگی به افزایش ناگهانی در یک لحظه خاص منحرف یا تخصیص داده شوند، جمعیت ممکن است در مواقع بحران افزایش یابد اما ممکن است این کار را به گونهای انجام ندهد که منجر به تعدیل به موقعتر شود. الگوریتمی که تصمیم میگیرد آیا یک یادداشت مفید است یا خیر، صرف نظر از زمینه، یکسان باقی میماند. و ممکن است جمعیت به ابزارهای تشخیص تخصصی مورد نیاز برای ارزیابی قابل اعتماد محتوای تولید شده توسط هوش مصنوعی دسترسی نداشته باشند - اگر اصلاً در حال حاضر چنین چیزی ممکن باشد.
مشکل محتوای تولید شده توسط هوش مصنوعی چقدر بزرگ است؟
برای بررسی میزان استفاده از هوش مصنوعی مولد در مناقشه ایران، دادههای یادداشتهای انجمن X را ارزیابی کردم، که همچنان ابزاری بسیار قابل مشاهده برای تعدیل محتوا در سراسر پلتفرم است.۲ در این برنامه که زمینههای جمعسپاری شده را با اجماع جامعه ترکیب میکند، کاربران X مسئول ارائه اطلاعات اضافی در مورد پستها، از جمله علامتگذاری پستهایی هستند که ممکن است گمراهکننده، بیمحتوا، نادرست یا - مهمتر از همه - تولید شده توسط هوش مصنوعی باشند. سپس شرکتکنندگان در برنامه میتوانند این زمینه اضافه شده را ارزیابی کنند و اگر تعداد کافی از شرکتکنندگان از "دیدگاههای متنوع" - که بر اساس الگوریتمی تعریف میشوند که دیدگاهها را بر اساس نحوه ارزیابی سایر یادداشتها توسط مشارکتکنندگان استنباط میکند - موافق باشند که این اضافه شدن مفید است، به پست اضافه میشود. کاربران میتوانند به هر پستی زمینه اضافه کنند، اما به دلیل ماهیت مبتنی بر اجماع این ابتکار، تنها بخش کوچکی از آن یادداشتها به صورت عمومی قابل مشاهده خواهند بود. نکته مهم این است که تمام دادههای یادداشتهای انجمن عمومی میشوند، که دریچهای به دامنه محتوای مورد بحث در سراسر پلتفرم فراهم میکند.
با استفاده از این دادهها، متوجه شدم که در هفتههای اخیر، محتوای مورد مناقشه که در توییتر به عنوان بهرهبردار از هوش مصنوعی مولد علامتگذاری شده است، از زمان گسترش ابزارهای هوش مصنوعی مولد به بالاترین نقطه خود رسیده است، به طوری که از زمان آغاز درگیریها بیش از ۵۰۰۰ یادداشت به محتوای تولید شده توسط هوش مصنوعی اشاره کردهاند (شکل ۱).۳ این به دنبال افزایش مداوم یادداشتهایی است که در دو ماه گذشته به اصطلاحات مرتبط با هوش مصنوعی اشاره کردهاند (از جمله افزایش محتوای مرتبط با هوش مصنوعی پس از حمله تروریستی ساحل بوندی و خشونتهای مرتبط با اداره مهاجرت و گمرک ایالات متحده در مینه سوتا). نکته مهم این است که این هنوز درصد کمی از کل اکوسیستم اطلاعاتی مورد مناقشه در توییتر را نشان میدهد و به این معنی نیست که در واقع از هوش مصنوعی استفاده شده است. همچنین احتمالاً سود دروغگو، که در آن محتوای واقعی به دلیل ناراحتکننده یا نامناسب بودن به عنوان تولید شده توسط هوش مصنوعی رد میشود، در حال اجرا است. با این وجود، این امر افزایش شیوع هوش مصنوعی را به عنوان یک عامل پیچیدهکننده در یک اکوسیستم اطلاعاتی از قبل آشفته نشان میدهد - روندی که بعید است با آسانتر شدن استفاده از این ابزارها و ادغام بیشتر آنها در زندگی روزمره، کاهش یابد.
مشکل لایهبندی اطلاعات
چندین پیشرفت، لحظه فعلی را از بحرانهای اطلاعاتی قبلی متمایز میکند و ممکن است به شیوع روزافزون هوش مصنوعی مولد به عنوان بخشی از اکوسیستم اطلاعاتی مورد مناقشه در حال پیشرفت کمک کند. شاید قابل توجهترین آنها، خود فناوری به طرز چشمگیری بهبود یافته باشد و اکنون توسط چتباتهای مبتنی بر هوش مصنوعی که در نتایج جستجو و پلتفرمهایی مانند توییتر تعبیه شدهاند، تکمیل شده است. این چتباتها به لایههای جدیدی در اکوسیستم اطلاعات تبدیل شدهاند. با وجود پیشرفتها، آنها هنوز هم ممکن است برای همگام شدن با پیشرفتهای بلادرنگ مشکل داشته باشند، اما به طور فزایندهای به عنوان منبع اول اطلاعات مورد استفاده قرار میگیرند. در درگیری فعلی، گروک، چتبات توییتر، ویدیوهای بنیامین نتانیاهو، نخست وزیر اسرائیل، را به عنوان دیپفیک علامتگذاری کرده است که موج سردرگمی خود را ایجاد کرده و شایعاتی را در مورد محل اختفای او دامن زده است.
برای افزودن به پیچیدگی، تشخیص هوش مصنوعی نیز به طور فزایندهای به فضایی پر هرج و مرج تبدیل میشود. تشخیص محتوای تولید شده توسط هوش مصنوعی به ابزارهایی متکی است که کیفیت متغیری دارند و در آنها ممکن است پیچیدگی فنی لازم باشد. "جمعیت" ممکن است مجهز به استفاده از این ابزارها با سطح مناسب شک و تردید مورد نیاز برای کسب بینشهای مفید نباشد. در زمینه درگیریهای جاری در ایران، چندین محقق نحوه استفاده محققان متنباز از قابلیتهای ادعایی تشخیص هوش مصنوعی برای انکار تصاویر معتبر را مستند کردهاند که باعث افزایش عدم قطعیت در مورد واقعیت میشود.
این امر به ویژه در شرایطی نگرانکننده است که پلتفرمها به طور فزایندهای برای ارزیابی و علامتگذاری محتوای گمراهکننده به جامعه متکی هستند. در آغاز جنگ اسرائیل و حماس در اواخر سال ۲۰۲۳، X پلتفرم اصلی برای استفاده از تعدیل جامعه مبتنی بر اجماع بود. از آن زمان، متا به طور فزایندهای این رویکرد را در فیسبوک، اینستاگرام و Threads اتخاذ کرده است، زیرا همزمان سرمایهگذاری خود را در بررسی واقعیت کاهش داده است. در حالی که تعدیل مبتنی بر جامعه میتواند مسیری حیاتی برای تقویت اعتماد ارائه دهد، با چالشهای قابل توجهی نیز روبرو است، به ویژه در مواقع بحرانی که تقاضای فزایندهای برای اطلاعات وجود دارد. با قابلیتهای داخلی بیشتر، یک شرکت ممکن است منابع را به جایی که نیاز به طور ویژه حاد است، معطوف کند. با این حال، اگر شرکتی به جمعیت متکی باشد، استفاده از این اهرمها به طور فزایندهای دشوار میشود.
شکل ۲ نشان میدهد که درصد یادداشتهایی که جامعه در نهایت «مفید» ارزیابی کرده است، با گذشت زمان کاهش یافته است، حتی با اینکه درصد یادداشتهایی که به محتوای تولید شده توسط هوش مصنوعی اشاره میکنند، از زمان انتخابات ۲۰۲۴ ایالات متحده، زمانی که تنها ۱.۵٪ از کل محتوای مورد بحث را تشکیل میداد، به طور قابل توجهی افزایش یافته است. در دو ماه گذشته، این درصد حدود ۷٪ تا ۸٪ بوده است، به این معنی که از هر ۱۲ یادداشت نوشته شده در توییتر، حدود یک یادداشت به تولید هوش مصنوعی اشاره داشته است. در این زمینه، توانایی سیستم برای ضمیمه کردن یادداشتها به پستها به عنوان زمینه اضافی، همچنان به اندازه و مشارکت پایگاه مشارکتکنندگان داوطلب آن (و توانایی آن برای رسیدن به اجماع معنادار) محدود است، در حالی که حجم محتوایی که نیاز به بررسی دارد، متفاوت است. در توییتر، و احتمالاً در سایر پلتفرمهایی که به تازگی از مشارکتهای مبتنی بر جامعه استفاده میکنند، ممکن است تعدیل محتوا نتواند با میزان محتوای گمراهکننده در طول بحران هماهنگ شود، زیرا پلتفرم نمیتواند کنترل کند چه کسی با توانایی نوشتن و ارزیابی یادداشتها در هر روز مشخص، حضور مییابد.
دیپفیک به عنوان سلاح جنگی
اگرچه افزایش محتوای تولید شده توسط هوش مصنوعی در سراسر منطقه ایکس بخشی از رشد گستردهتر در چند ماه گذشته است، اما درگیری فعلی از یک نظر قابل توجه است: محتوای تولید شده توسط هوش مصنوعی به عنوان امتدادی از تلاشهای جنگی ظهور کرده است. سالهاست که محققان پتانسیل استفاده از محتوای تولید شده توسط هوش مصنوعی را به عنوان بخشی از تلاشهای زمان جنگ برای ایجاد سردرگمی، بیاعتبار کردن رهبران، تضعیف حمایت مردمی و قطبی کردن جامعه، در میان سایر کاربردها، تشخیص دادهاند.
در درگیری جاری، ماهیت چندوجهی جنگ اطلاعاتی مبتنی بر هوش مصنوعی، محیط اطلاعاتی را برای همه طرفهای درگیر پیچیده کرده است. با این حال، استفاده از تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی - از جمله استفاده آشکار و پنهان - ممکن است برای ایران که در برابر نیروهای ترکیبی ایالات متحده و اسرائیل در وضعیت نامساعد نظامی قرار دارد، به ویژه مهم باشد. ایجاد هرج و مرج و تضعیف اعتماد به اهداف نظامی ایالات متحده ممکن است برای بقای نظام اساسی باشد. بنابراین جای تعجب نیست که ایران برای تسریع در استراتژی جنگ اطلاعاتی موجود خود به هوش مصنوعی مولد روی آورده است. یک گزارش اخیر، رد یک کمپین هماهنگ جعل عمیق با ویدیوها و زیرنویسهای یکسان، پنجرههای ارسال همزمان و خوشههای هشتگ را تا ایران دنبال کرده است. این در پی تلاشهای گذشته حکومت برای آزمایش استفاده از هوش مصنوعی مولد برای تأثیرگذاری بر افکار عمومی، از جمله پیرامون انتخابات ایالات متحده، صورت گرفته است.
در درگیری فعلی، اختلال آنلاین - که از محتوای هوش مصنوعی به خوبی استفاده میکند اما کاملاً توسط آن هدایت نمیشود - ممکن است به گونهای طراحی شده باشد که به دولت ایران کمک کند تا از تمایل دولت ترامپ برای جنگ بیشتر دوام بیاورد. بخشی از جذابیت دونالد ترامپ، رئیس جمهور، در طول مبارزات انتخاباتی ریاست جمهوری ۲۰۲۴ ناشی از وعده او برای قرار دادن «آمریکا در اولویت» و پایان دادن به «جنگهای ابدی» گذشته بود. بسیاری از هواداران او، انتخابات را به عنوان انتخابی بین جنگ جهانی سوم و غذا و بنزین ارزانتر مطرح کردند. اگرچه پایگاه او فعلاً از تلاشهای جنگی حمایت میکند، اما نشانههایی از شکاف در آن وجود دارد. به طور گستردهتر، این درگیری به شدت قطبی شده است و یک کمپین نظامی طولانی مدت برخلاف وعدههای انتخاباتی رئیس جمهور خواهد بود.
در این زمینه، بخش عمدهای از محتوایی که در حمایت از ایران - و گاهی اوقات مستقیماً توسط ایران - منتشر میشود، برای نمایش قدرت نظامی که ندارد و اغراق در خسارات وارده به ایالات متحده و اسرائیل طراحی شده است. تهران با پر کردن اکوسیستم اطلاعاتی، امیدوار است سردرگمی ایجاد کند و شاید مهمتر از همه، نارضایتی عمومی را تشدید کند و حمایت عمومی متزلزل از کمپین نظامی ایالات متحده را از بین ببرد. هوش مصنوعی این کار را ارزانتر، بالقوه جذابتر و سریعتر از گذشته میکند.
نگاهی به آینده
همگرایی قابلیتهای بهبود یافته هوش مصنوعی، یک اکوسیستم اطلاعاتی چندلایه، کاهش بیشتر در تعدیل محتوا و یک بازیگر دولتی با انگیزه منحصر به فرد، شرایطی را ایجاد کرده است که گفتمان عمومی آگاهانه را در طول درگیریهای مسلحانه به چالش میکشد. در این زمینه، سیاسی شدن تعدیل محتوا با نیاز فعال به آن در تضاد است، زیرا محتوای تولید شده توسط هوش مصنوعی به طور فزایندهای در درگیریهای مسلحانه رواج مییابد.
درگیری ایران ارزش ملموس تعدیل محتوا را نشان میدهد. حداقل، چنین تعدیلی باید از نظر ساختاری برای رفع عدم قطعیت یا قابلیت اطمینان منبع در شرایط بحرانی مناسبتر باشد، که دقیقاً در لحظهای رخ میدهد که افکار عمومی بیشترین انعطافپذیری را دارد و به طور فعال توسط یک دشمن خارجی هدف قرار میگیرد. همچنین بر اهمیت سرمایهگذاری در قابلیتهای تشخیص قابل اعتماد، به ویژه با بهبود مداوم مدلها، و توجه بیشتر به فرآیندهای احراز هویت برای محتوای دیجیتال تأکید میکند. دادههای ارائه شده توسط پلتفرم یادداشتهای انجمن X نگاهی اجمالی به درک مقیاس چالش ارائه میدهد، که سنجش آن همچنان بسیار دشوار است، اما همچنین شکاف بین آنچه سیستمهای فعلی میتوانند انجام دهند و آنچه در آن لحظه نیاز است را آشکار میکند.