ورود چت جیبیتی در نوامبر ۲۰۲۲، هم هیجان و هم ترس عظیمی را در سراسر جهان در مورد پتانسیل و خطرات هوش مصنوعی برانگیخت. در پاسخ، چندین آزمایشگاه هوش مصنوعی تحت نظارت برخی دولتها و نهادهای بینالمللی تلاشهای تحقیقاتی و سیاستی جدیدی را برای کاهش خطرات گسترده هوش مصنوعی آغاز کردهاند. با این حال، تلاشهای روبهرُشد برای کاهش این خطرات، بحثی اختلافبرانگیز و اغلب گیجکننده در مورد چگونگی تعریف، تمایز و اولویتبندی خطرات جدی هوش مصنوعی ایجاد کرده است. این سردرگمی در خصوص طبقهبندی این موارد، ممکن است تلاشهای سیاستگذاران برای تشخیص ویژگیهای منحصربهفرد و پیامدهای امنیت ملی تهدیدهای ناشی از هوش مصنوعی را پیچیده کرده و مانع تلاشها برای پردازش آن شود. به طور مشخص، خطرات فاجعهبار پدیدههای نوظهور در نسبت با پیامدهای سنگین آنها برای امنیت ملی، اغلب در گفتمان عمومی بین دو بحث غالب در مورد نگرانیهای هوش مصنوعی نادیده گرفته میشوند: اول آسیبهای سیستمی کنونی ناشی از هوش مصنوعی درباره تعصب و تبعیض سیستماتیک آن از یک سو، و بحثهای رادیکال و آیندهمحور در مورد خطرات وجودی ناشی از هوش مصنوعی از سوی دیگر. خطرات فاجعهبار هوش مصنوعی، مانند تمام خطرات دیگر پدیدههای نوظهور، نیازمند توجه نهادهای امنیت ملی به این موضوع به عنوان یک تهدید حیاتی برای سلامت، امنیت و اقتصاد کشور است. در جوامع پیشرفته علمی مانند ایالات متحده، فناوریهای قدرتمند میتوانند خطرات بزرگی برای جوامع ایجاد کنند، به ویژه در مواردی مانند هوش مصنوعی که این فناوری نوظهور، پُرشتاب و نسبتاً آزمایشنشده است. با توجه به طیف گسترده کاربردهای بالقوه هوش مصنوعی، از جمله در امنیت زیستی، سیستمهای نظامی و سایر حوزههای پرخطر، تلاشهای فعالانه و محتاطانه برای تمایز، اولویتبندی و کاهش خطرات آن ضروری است. در واقع، حوادث گذشته مربوط به امور مالی، سلاحهای بیولوژیکی و شیمیایی، امنیت سایبری و فرماندهی و کنترل هستهای، همگی به فجایع احتمالی مرتبط با هوش مصنوعی…
دریافت اشتراک
جهت مشاهده این مطلب لطفا اشتراک تهیه کنید یا با حساب کاربری سازمانی وارد شوید.
در رصدخونه می توانید به ازاء به اشتراک گذاری رصدهای اقتصادی، سیاسی، فرهنگی و…به رصد سایر افراد دسترسی داشته باشید.