18 - 05 - 2023
مهار هرج و مرج جهانی
«جهانصنعت»- مدیرعامل OpenAI، سازنده چتبات ChatGPT، به همراه مدیر بخش حریم خصوصی IBM و یک محقق هوش مصنوعی روز سهشنبه به کنگره آمریکا رفتند تا درباره خطرات هوش مصنوعی و نیاز به قانونگذاری در این حوزه با سناتورهای ایالاتمتحده حرف بزنند. درمجموع بهنظر میرسد که طرفین خواستار ایجاد مقرراتی تازه برای کنترل این فناوری هستند. در این جلسه، سناتور «ریچارد بلومنتال» که ریاست این استماع را بر عهده داشت، جلسه را با ویدیویی آغاز کرد که با استفاده از مدلهای هوش مصنوعی از خود او ساخته شده بود. در ادامه «سم آلتمن»، مدیرعامل OpenAI، در بیانیه آغازین خود گفت: «معتقدیم مزایای ابزارهایی که تاکنون پیادهسازی کردهایم، بسیار بیشتر از معایب آن است اما فکر میکنیم که مداخله قانونی از سوی دولت برای کاهش ریسکهای فزاینده این مدلهای قدرتمند حیاتی خواهد بود.»
سپس سناتورها یکبهیک درباره قانونگذاری در زمینه هوش مصنوعی صحبت کردند. با این حال، بهنظر میرسید که آنها لحنی دوستانهتر از برخورد با مدیران شبکههای اجتماعی را در مقابل «آلتمن» در پیش گرفته بودند. احتمالا دلیل این اتفاق تمایل مدیرعامل OpenAI برای ساخت نهادی جدید بهمنظور کنترل فعالیت و صدور مجوز برای شرکتهای هوش مصنوعی و محصولات آنها بود. «بلومنتال» در مورد همین موضوع گفت: «باید مزایای این فناوری را بیشتر از معایب آن پررنگ کنیم. کنگره حالا با انتخابی روبهرو است. ما با همان انتخابی روبهرو هستیم که در زمان ظهور شبکههای اجتماعی با آن مواجه بودیم. در آن زمان نتوانستیم از فرصت استفاده کنیم. اما حالا مسوولیم تا کارهای لازم را درباره هوش مصنوعی انجام دهیم و از محققشدن تهدیدها و ریسکها جلوگیری کنیم.» ایجاد نهادی تازه برای کنترل صنعت هوش مصنوعی یکی از مهمترین ایدههای مطرحشده در این جلسه بود. «آلتمن» پیشنهاد داد که این نهاد اختیارات مختلفی داشته باشد و به شرکتها برای فعالیت و عرضه محصولات مختلف مجوز دهد یا مجوز آنها را باطل کند. او با ابراز نگرانی درباره وضعیت فعلی گفت: «[صنعت هوش مصنوعی] میتواند آسیبهای بزرگی به جهان وارد کند.»
نهادی مانند FDA میتواند کنترل صنعت هوش مصنوعی را در دست بگیرد
همچنین «گری مارکوس» که به عنوان محقق هوش مصنوعی از دانشگاه نیویورک در این جلسه حضور داشت، گفت دولت میتواند نهادی شبیه به سازمان غذا و دارو (FDA) ایجاد کند تا با بررسی سطح ایمنی محصولات هوش مصنوعی، پیش از عرضه آنها تصمیم بگیرد که یک محصول میتواند در دسترس عموم قرار بگیرد یا خیر. «کریستینا مونتگومری»، مدیر بخش حریم خصوصی IBM که دیگر مهمان این جلسه بود، درباره نیاز به شفافیت در صنعت هوش مصنوعی صحبت کرد. او گفت کاربران باید بدانند که چه زمانی درحال صحبت با هوش مصنوعی هستند. او همچنین گفت شرکتها باید مسوول عرضه ابزارهایی باشند که با کمک هوش مصنوعی در مباحثی مثل انتخابات اطلاعات نادرست نشر میدهند.
«آلتمن» نیز با ابراز نگرانی درباره اثر محتواهای ساختهشده با هوش مصنوعی بر انتخابات پیش رو گفت: «با توجه به اینکه سال آینده با یک انتخابات مواجه هستیم و این مدلها درحال بهترشدن هستند، فکر میکنم به این موضوع باید بسیار توجه شود. معتقدم که قانونگذاری در این زمینه بسیار عاقلانه خواهد بود.» آلتمن همچنین اذعان کرد که فناوری هوش مصنوعی میتواند اشتباه کند و این اشتباهات میتوانند بسیار بزرگ باشند؛ برای همین آنها آماده همکاری با قانونگذاران هستند.
با این حال نماینده IBM باور داشت که قانونگذاری باید درباره موارد خاص استفاده از هوش مصنوعی انجام شود، نه در مورد خود این فناوری. «مونتگومری» گفت کنگره باید بهروشنی ریسکهای هوش مصنوعی را تعریف کند و قوانین مختلفی را برای ریسکهای گوناگون این فناوری تدوین کند. سختترین قوانین باید برای مواردی در نظر گرفته شود که بیشترین ریسک را برای مردم و جامعه به دنبال دارند.
با تمام این صحبتها «بلومنتال» اذعان کرد که متوقفکردن توسعه هوش مصنوعی منطقی نیست. او گفت: «جهان منتظر نمیماند؛ بقیه جوامع علمی در جهان قرار نیست متوقف شوند. ما رقبایی داریم که درحال حرکت به جلو هستند و سر به زیر برف کردن پاسخ این مشکل نیست.» کنگره قرار است در تابستان پیش رو چندین جلسه استماع دیگر هم با حضور فعالان حوزه هوش مصنوعی برگزار کند تا در نهایت برای قانونگذاری در این زمینه آماده شود.
هوش مصنوعی؛ تهدید یا فرصت؟
در همین خصوص دکتر احمد احمدی پژوهشگر فناوریهای نوین و تکنولوژیهای پیشرفته به «جهان صنعت» گفت: بعد از ورود هوش مصنوعی و مهندسی پلتفرمهایی مانند ChatGPT و ارتباطی که هوش مصنوعی با تعاملات کسبوکارها و همچنین تحلیل و بررسی که با افراد مختلف با این پلتفرمها انجام شد، نتایجی به دست آمده است. در این نتایج، بسیاری از روشنفکران و افرادی که در زمینه چالشهای زندگی اجتماعی، شغلی و فاصلهای را که به واسطه ورود هوش مصنوعی میتواند برای افراد و طبقات مختلف ایجاد کند، صبحتهایی شد که آیا هوش مصنوعی میتواند به جایی که به عنوان فرصت و پیشرفت باشد به عنوان یک تهدید جدی و غیرقابل انتظار تعریف شود؟
او در ادامه گفت: آسیبشناسان و جامعهشناسان سعی کردند این موضوع را بررسی کنند و به این نتیجه رسیدند که قبل از اینکه قوانین و راهکارهایی برای کنترل و هدایت هوش مصنوعی در فرآیندها و نقاطی که تهدیدهای کاری و اجتماعی را ایجاد میکند، ورود این فناوری بیش از آنچیزی که منفعت دارد، آسیب میرساند. این آسیبها در موضوعات مختلفی بررسی و سعی شد که آگاه شوند اگر هوش مصنوعی تبعات بیشتری از اثرات مثبت آن دارد، تا جایی که در توان است شرایطی را در بحث بهرهوری از آن ایجاد و حتی روند پیشرفت آن را دچار اختلال کنند. این تهدیدها تا حدی بود که جوامع کارگری و مهندسی احساس خطر کردند و وارد این داستان شدند.
آثار مخرب هوش مصنوعی
احمدی افزود: این موضوع در چند بخش اثرات منفی خودش را بیشتر نشان داد. اولین موضوع این بود که نقاط ابهام و تهدیداتی را که در آینده شغلی یا افرادی که در رشتههای کامپیوتری به خصوص برنامهنویسی فعالیت میکنند، نشان داد. موضوع دیگر در بحث بازارهای مالی بود که میتوانست اثرات بسیار مخربی را برای افرادی که در این بازارها کار میکنند، به همراه داشته باشد.همچنین بحث دیگر روابط کاری و اجتماعی بین انسانها بود. هوش مصنوعی تحلیلهایش را از دادههایی که در اینترنت جستوجو شده بود، ارائه میداد و رفتارهای تنشزایی را بین افراد به وجود آورد. موضوع دیگری که بسیار اهمیت دارد قوانین کاربرد هوش مصنوعی در صنایع بود. در بعضی از موارد مشاهده شده که هوش مصنوعی باعث میشود علاوهبر اینکه خطرات شغلیای را ایجاد کند، یکنوع بار روانی منفی را برای محیطهای کاری به وجود آورد. این بار منفی در کارایی و نوع کیفیت افراد تاثیرگذاری منفی را به همراه دارد.
هوش مصنوعی اول باید تحلیل شود
این پژوهشگر فناوریهای نوین و تکنولوژیهای پیشرفته در پایان خاطرنشان کرد: بحث دیگر که حائز اهمیت است این است که هوش مصنوعی فرصت رسیدن به یکسری از اهداف را برای بعضی از کسبوکارها تغییر داد و این تغییر به نوعی بود که به یک تهدید غیرقابل محاسبه تبدیل شد. اما به عنوان نکته پایانی ورود هوش مصنوعی به بخش کسبوکار، اثراتی برجای گذاشت که افرادی که تصمیمگیرنده این شرایط هستند را به این نتیجه رسانده که باید چالشهای رفتاری و ارتباطی و به خصوص کاربردی هوش مصنوعی را اول تحلیل کرد و چهره هوش مصنوعی را نشان داد تا در ادامه هوش مصنوعی پیشرفت خودش را در این مشخصهها نشان دهد.