4 - 11 - 2019
پنتاگون برای استفاده از هوش مصنوعی خط مشی اخلاقی تعیین میکند
وزارت دفاع آمریکا پیشنویس خط مشیهای استفاده اخلاقی از هوش مصنوعی را تدوین کرده تا استفاده از این سیستمها قاعدهمند شده و از سرکشی آنها جلوگیری شود.
به گزارش فارس به نقل از انگجت، با توجه به اینکه استفاده از هوش مصنوعی برای تولید انواع تسلیحات میتواند به ابداع سلاحهای مرگباری منجر شود که خارج از کنترل انسان دست به کشتارهای مرگبار و بیضابطه بزنند، برخی کشورهای جهان در تلاش هستند تا قوانینی را برای استفاده اخلاقی از هوش مصنوعی در صحنههای نبرد وضع کنند و پنتاگون هم در این زمینه وارد عمل شد.
در همین راستا وزارت دفاع آمریکا، پیشنویس دستورالعملی را با موضوع اخلاق هوش مصنوعی به نگارش درآورده که کنترل و مدیریت این فناوری نوظهور را تسهیل میکند. در این دستورالعمل به مسوولیتهای انسانها برای کنترل هوش مصنوعی اشاره شده و پیشنهادهایی برای مهار آن در حین حفظ کارایی و قابلیتهای خاص هوش مصنوعی ارائه شده است.
در بخشی از این پیشنویس تصریح شده الگوریتمهای هوش مصنوعی باید بهگونهای تدوین شوند که از رفتار متعصبانه ناخواسته محصولات مبتنی بر هوش مصنوعی جلوگیری شود و جلوی نژادپرستی یا رفتار جنسیت زده آنها گرفته شود، همچنین نباید محصولات هوش مصنوعی بهگونهای طراحی شوند که با مردم مختلف به دلایل گوناگون ناعادلانه رفتار شود، همچنین ارتش آمریکا باید تضمین کند که علاوه بر کدهای برنامهنویسی، منابع داده آن هم بیطرف و بدون غرضورزی باقی بمانند تا از سلاحهای هوش مصنوعی برای کشتار طیفها و گروههایی خاص از غیرنظامیان سوءاستفاده نشود.
در ادامه این پیشنویس چنین آمده که هوش مصنوعی باید به گونهای قابل مدیریت و کنترل طراحی شود تا اگر از آن برای وارد آوردن آسیبهای غیرضروری سوءاستفاده شد، امکان متوقف کردن این روند وجود داشته باشد. همچنین باید امکان کنترل محصولات هوش مصنوعی توسط اپراتور انسانی و با استفاده از ابزار یا سوئیچ خاص وجود داشته باشد.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد