مقدمه: فرضیات اصلی سیاستگذاری هوش مصنوعی به شدت نیازمند بازنگری و تنظیم مجدد هستند. بهرهگیری از طیف گستردهتری از شواهد و دیدگاهها، منجر به نتایج ایمنتر و عادلانهتری برای سیاستگذاری هوش مصنوعی خواهد شد. با یکنواختی شگفتانگیزی، سیاستگذاری هوش مصنوعی بر اساس فرضیات رایجی استوار است در مورد اینکه هوش مصنوعی چگونه به مزیتهای اقتصادی، اجتماعی و نظامی کمک خواهد کرد، چگونه میتوان از این «قدرت هوش مصنوعی» بهرهبرداری کرد، و چگونه میتوان از خطرات شناختهشده این فناوری جلوگیری کرد. با گذشتن سیاستهای هوش مصنوعی در سراسر جهان از مرحله تئوری به عمل در سالهای آینده، این فرضیات رایج باید با حقایق همگام شوند. آنها همچنین باید به اندازهی کافی واقعبینانه باشند تا تمام خطرات احتمالی را در نظر بگیرند. مهمتر از همه، این فرضیات باید نماینده منافع تمام ذینفعانی باشند که تحت تأثیر این فناوری و قوانین حاکم بر آن قرار خواهند گرفت. تاکنون، اینگونه نبوده است. فرضیات رایج هوش مصنوعی آنقدر تکرار میشوند که گویی منعکسکننده غلبه شواهد هستند. اما بسیاری از این فرضیات بیشتر شبیه نظر هستند تا حقیقت. آنها صرفاً به این دلیل غالب هستند که در برابر حقایقی که وضعیت آنها را به چالش میکشند، سرسخت هستند، با اخطارها خصومت دارند و با ظرافت مخالفند. و این دیدگاهها جهانی نیستند. بلکه، آنها تمایل دارند مجموعهای محدود اما قدرتمند از منافع را منعکس کنند. این برای سالهای آینده سیاستگذاری هوش مصنوعی خطرناک است. هرچه شکاف بین یک فرض سیاستگذاری و حقایق و افرادی که قرار است نماینده آنها باشد بیشتر باشد، خطر اینکه اقداماتی که بر اساس آن فرض ساخته شدهاند، منجر به آسیب شوند، بیشتر است. هرچه یک سیاست به فرضیاتی که به منافع محدود یک مجموعه از ذینفعان خدمت میکنند، پایبندتر باشد، احتمال توزیع گسترده یا عادلانه مزایای آن سیاست کمتر است. هرچه حوزه سیاستگذاری خود را کمتر پذیرای صداهایی کند که حقایق دریافتی…
دریافت اشتراک
جهت مشاهده این مطلب لطفا اشتراک تهیه کنید یا با حساب کاربری سازمانی وارد شوید.
در رصدخونه می توانید به ازاء به اشتراک گذاری رصدهای اقتصادی، سیاسی، فرهنگی و…به رصد سایر افراد دسترسی داشته باشید.