3 - 08 - 2024
آینده «AI» در دستان دولتها؟
گروه فناوری- هوش مصنوعی (AI) به عنوان یکی از پیشرفتهترین تکنولوژیهای قرن بیست و یکم، تاثیرات عمیقی بر جنبههای مختلف زندگی انسانی گذاشته است. در این میان، شرکت OpenAI به عنوان یکی از پیشگامان توسعه این فناوری، نقشی کلیدی ایفا میکند. اخیرا مدیرعامل این شرکت اعلام کرده است که هوش مصنوعی بعدی OpenAI در اختیار دولت آمریکا قرار خواهد گرفت. این اظهارات تاثیرات گستردهای بر نگرانیهای جهانی پیرامون استفاده و سوء استفاده از هوش مصنوعی داشته است. این تصمیم میتواند به منظور جلوگیری از استفادههای نادرست و افزایش امنیت و شفافیت در بهرهبرداری از فناوریهای پیشرفته هوش مصنوعی اتخاذ شده باشد. این اقدام نشاندهنده تغییر نگرش شرکتهای فناوری نسبت به مسوولیتپذیری در مقابل تاثیرات اجتماعی و سیاسی هوش مصنوعی است. با این حال با قرار گرفتن هوش مصنوعی در اختیار دولت آمریکا، احتمال افزایش نظارت و کنترل بر استفاده از این فناوری وجود دارد و با وضع قوانین و مقررات سختگیرانه، از سوءاستفادههای احتمالی جلوگیری کنند. این اقدام میتواند موجب کاهش نگرانیها درباره امنیت ملی و سوءاستفاده از اطلاعات شود.
از طرفی همانطور که تککرانچ در گزارش خود توضیح میدهد، درحالحاضر نگرانیهای زیادی از این بابت وجود دارد که OpenAI بیشتر به دنبال توسعه مدلهای هوشمصنوعی قدرتمند است و بههمین ایمنی را چندان در اولویتهای خود قرار نداده است. با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتآپ میگوید: «همانطور که در ژوییه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20درصد از منابع محاسباتی خود را به تلاشهای مربوط به ایمنی کل شرکت اختصاص دهیم. تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینهای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم میکند تا بتوانیم با همکاری یکدیگر علم ارزیابیهای هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجانزده هستیم!»
در ماههای گذشته، گفتهشده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستمهای هوش مصنوعی کار میکردند. همین موضوع باعث شده بود تا دو رهبر این استارتآپ با نامها «جان لیکه» که اکنون تحقیقات ایمنی استارتآپ هوشمصنوعی آنتروپیک را رهبری میکند و «ایلیا سوتسکور» که شرکت هوشمصنوعی متمرکز بر ایمنی خود با نام
«Safe Superintelligence» را تاسیس کرده است از OpenAI جدا شوند. همچنین موسسه ایمنی هوشمصنوعی در اوایل سالجاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وبسایت NIST، هدف آن «توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازهگیریها و سیاستهای هوش مصنوعی و ایجاد پایهای برای ایمنی هوشمصنوعی در سراسر جهان» یادشده است.
از طرفی «آنا ماکانجو»، معاون امور جهانی OpenAI، درباره حمایت OpenAI از لایحه مجلس سنا در لینکدین گفت: «همواره از ماموریت این موسسه که هدایت دولت آمریکا برای اطمینان از توسعه و استقرار ایمن سیستمهای پیشرفته هوش مصنوعی است، حمایت کردهایم. این لایحه حمایت کنگره را برای این موسسه جدید فراهم میکند تا خطرهای ناشی از فناوری جدید را بهحداقل برساند.» «ماکانجو» بهنمایندگی از OpenA از لایحه آموزش هوش مصنوعی (NSF) و لایحه ایجاد هوش مصنوعی حمایت کرد. این لایحهها انواع مختلفی از بورسیه فدرال را برای تحقیقات در زمینه هوش مصنوعی فراهم میکند و منابع آموزش هوشمصنوعی را در اختیار مدارس ابتدایی تا دانشگاه قرار میدهد. از نظر کارشناسان، حمایت OpenAI از لایحههای اخیر مجلس سنای آمریکا بیدلیل نیست چراکه این شرکت در زمینه ارائه خدمات مبتنی بر هوش مصنوعی در سطح بینالملل پیشرو است و حمایتها به این شرکت کمک میکند تا حسن نیت قانونگذاران فدرال را جلب کند. فراتر از این، چنین حمایتهایی به OpenAI کمک میکند تا در گفتوگوهای آینده درباره مقررات هوشمصنوعی جایگاهی داشته باشد و بتواند پیشروبودن خود را به عنوان شرکت ارائهدهنده خدمات هوش مصنوعی در جهان تثبیت کند. با این حال یکی از مشکلات بزرگ در حوزه هوش مصنوعی، کمبود شفافیت در الگوریتمها و تصمیمگیریهای مبتنی بر هوش مصنوعی است. امید است که با ورود دولتها به این عرصه، احتمال افزایش شفافیت و حسابرسی از سیستمهای هوشمصنوعی بیشتر خواهد شد. این مساله میتواند به افزایش اعتماد عمومی نسبت به استفاده از هوش مصنوعی کمک کند. همچنین قرار گرفتن هوش مصنوعی در اختیار دولتها ممکن است به افزایش رقابت بینالمللی در حوزه فناوری منجر شود. کشورهایی که از توانمندیهای هوش مصنوعی بیشتری برخوردارند، میتوانند با استفاده از این فناوری در عرصههای مختلف اقتصادی و نظامی، قدرت خود را افزایش دهند. این مساله میتواند به نگرانیهای ژئوپلیتیکی و رقابتهای تسلیحاتی دامن بزند. یکی از نگرانیهای عمده در مورد استفاده دولتی از هوش مصنوعی، نقض حقوق بشری است. دولتها ممکن است از این فناوری برای کنترل و نظارت بر شهروندان استفاده کنند که میتواند به محدود شدن آزادیها و حقوق فردی منجر شود. این مساله نیازمند وضع مقررات بینالمللی برای حفاظت از حقوق بشر در مقابل استفادههای نادرست از هوش مصنوعی است.
در نهایت اظهارات مدیرعامل شرکت OpenAI درباره قرار دادن هوش مصنوعی بعدی این شرکت در اختیار دولت، میتواند تاثیرات گستردهای بر نگرانیهای جهانی پیرامون استفاده از هوش مصنوعی داشته باشد. افزایش نظارت و کنترل، شفافیت بیشتر، رقابت بینالمللی و نگرانیهای حقوق بشری از جمله تاثیرات اصلی این تصمیم هستند بنابراین ضروری است که با وضع مقررات مناسب و همکاریهای بینالمللی، استفاده از هوش مصنوعی به گونهای مدیریت شود که به نفع جوامع انسانی باشد و از سوءاستفادههای احتمالی جلوگیری شود.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد