انتشار عامدانه اطلاعات نادرست[۱] در حال گسترش است. ابزار اصلی جنگ دروغ پراکنی (انتشار اطلاعات نادرست)، یک الگوی عملیاتی ساده[۲] است که شامل یک تصویر، ویدئو یا متنی که در رسانههای اجتماعی به اشتراک گذاشته شده و یک فکر یا احساس خاص را منتقل میکند، میشود. کسانی که به دنبال شبه افکنی و زیر سؤال بردن واکسنهای کرونا بودند از الگوهای مذکور استفاده کردند. اخبار جعلی در پستهای گسترده فیسبوک و توییتر توانستند با موفقیت اعتماد به انتخابات ایالات متحده را تضعیف و از این طریق پذیرش تئوریهای توطئه را برای رأیدهندگان آمریکایی تسهیل کنند. با پیشرفت در علوم کامپیوتر و هوش مصنوعی یک روش جدید و بسیار قانعکننده برای باور پذیرکردن اخبار جعلی در مخاطب ظهور یافته است که در اصطلاح با عنوان «جعل عمیق»[۳] شناخته میشود که توسط آن میتوان یک ویدیوی سخنرانی جعلی از هر شخصیتی ساخت. جعل عمیق نام یک تکنیک نرمافزاری مبتنیبر هوشمصنوعی است که در محتوای صوتی و تصویری دست میبرد و آن را بهدلخواه دگرگون میسازد. بنابراین نتیجهی نهایی که بهدست میآید، چیزی کاملا متفاوت از حقیقت خواهد بود. درواقع نام این تکنیک نیز بهدرستی عملکرد آن را آشکار میسازد؛ دیپفیک، ترکیبی از یادگیری عمیق[۴] و جعل[۵] است. چنین ویدئوهایی به طور بسیار دقیق واقعی مینماید؛ بهنحویکه تشخیص غیرواقعی بودن آنها بسیار دشوار است. ازاینرو بسیاری از این بیم دارند که این فناوری به شکل چشمگیری خطر انتشار اطلاعات غلط توسط دولتهای خارجی و دشمنان داخلی را افزایش دهد. جعل عمیق سال ۲۰۱۸ از باراک اوباما با محتوای فحاشی و جعل عمیق سال ۲۰۲۰ از سخنرانی ریچارد نیکسون (سخنرانیای که نیکسون هرگز انجام نداد) از نمونههای پیشین جعل عمیق هستند. دیپفیکها و محتوای جعلی تولید شده توسط هوش مصنوعی موجبات آسیبپذیری برای کشورها و حتی جامعه بینالمللی فراهم میکند. ویدئوهای ساختگی، شبیهسازی صدا و تصاویر و جعل در متنها از شیوههای مرسوم حاصل…
دریافت اشتراک
جهت مشاهده این مطلب لطفا اشتراک تهیه کنید یا با حساب کاربری سازمانی وارد شوید.
در رصدخونه می توانید به ازاء به اشتراک گذاری رصدهای اقتصادی، سیاسی، فرهنگی و…به رصد سایر افراد دسترسی داشته باشید.