تبعیض دیجیتالی؛ دنیای ناعادلانه هوش‌مصنوعی

گروه تحلیل
کدخبر: 602359
نتایج بررسی‌ها نشان می‌دهد که درپاسخ به پرسش‌هایی درباره کیفیت‌های انسانی، اجتماعی و حتی ظاهرا عینی مناطق ثروتمند و عمدتا غربی جهان به‌طور سیستماتیک در جایگاه‌های بالاتر قرار می‌گیرند.
تبعیض دیجیتالی؛ دنیای ناعادلانه هوش‌مصنوعی

جهان‌ صنعت‌– نتایج بررسی‌ها نشان می‌دهد که درپاسخ به پرسش‌هایی درباره کیفیت‌های انسانی، اجتماعی و حتی ظاهرا عینی مناطق ثروتمند و عمدتا غربی جهان به‌طور سیستماتیک در جایگاه‌های بالاتر قرار می‌گیرند. کشورهایی مانند ایالات‌متحده بخش بزرگی از اروپای غربی و برخی مناطق شرق آسیا اغلب به‌عنوان بهتر، باهوش‌تر، شادتر یا نوآورتر معرفی می‌شوند. درمقابل بخش‌های وسیعی از آفریقا، خاورمیانه و قسمت‌هایی از آسیا و آمریکای‌لاتین مکررا در انتهای این رتبه‌بندی‌ها قرار می‌گیرند.

نکته مهم این است که این الگو صرفا به پرسش‌های ذهنی و سلیقه‌ای محدود نمی‌شود. حتی در سوالاتی که در ظاهر رنگ‌وبوی عینی و قابل سنجش دارند همین گرایش تکرار می‌شود. به بیان دیگر تفاوتی ندارد پرسش درباره زیبایی، هوشمندی، امنیت یا کیفیت زندگی باشد بلکه خروجی‌ها به شکلی قابل پیش‌بینی به‌نفع مناطق ثروتمند و پرنفوذ جهان متمایل است.

برای ملموس‌کردن این الگوها داده‌های به‌دست‌آمده درقالب نقشه‌ها و مقایسه‌های مکانی ارائه شدند. درسطح جهانی نقشه‌هایی که کشورها را براساس پرسش‌هایی مانند «کجا مردم باهوش‌ترند؟» رتبه‌بندی می‌کنند تقریبا تمام کشورهای کم‌درآمد به‌ویژه در قاره آفریقا را در پایین‌ترین سطوح نشان می‌دهند. این تصویر نه‌تنها ساده‌سازی افراطی واقعیت بوده بلکه بازتابی از همان سلسله‌مراتب‌های قدیمی در تولید و توزیع دانش محسوب می‌شود.

در مقیاس شهری و محلی نیز وضعیت تفاوت چندانی ندارد. بررسی نتایج مربوط به محله‌های شهرهایی مانند لندن، نیویورک و ریو دو ژانیرو نشان می‌دهد که رتبه‌بندی‌های ارائه‌شده به‌شدت با شکاف‌های اجتماعی، اقتصادی و حتی نژادی موجود هم‌راستاست. این رتبه‌ها نه حاصل ویژگی‌های واقعی و پیچیده جوامع محلی بلکه تکرار همان کلیشه‌ها و الگوهای تثبیت‌شدند که پیشتر در داده‌ها وجود داشتند.

درکنار انتشار نتایج پژوهش ابزاری عمومی طراحی شده که به کاربران امکان می‌دهد ببینند این مدل زبانی چگونه کشور، شهر یا حتی محله آنها را در موضوعاتی مانند غذا، فرهنگ، امنیت، محیط‌زیست یا کیفیت زندگی رتبه‌بندی می‌کند. چنین ابزاری اگرچه می‌تواند به افزایش آگاهی عمومی کمک کند اما همزمان تصویری نگران‌کننده از قدرت شکل‌دهی این سیستم‌ها به ادراک عمومی ارائه می‌دهد.

کارشناسان حوزه جغرافیای اینترنت و مطالعات دیجیتال هشدار می‌دهند که وقتی یک‌سیستم هوش‌مصنوعی از داده‌های سوگیرانه یاد می‌گیرد همان سوگیری‌ها را تقویت کرده و درمقیاسی بسیار بزرگ بازنشر می‌کند. اگر یک ابزار پرکاربرد به‌طور مداوم شهرها یا کشورهایی خاص را با برچسب‌های منفی همراه کند این‌ارتباط‌ها به‌سرعت در ذهن کاربران جا می‌افتد و می‌تواند بر نگرش‌ها و تصمیم‌ها اثر بگذارد حتی زمانی‌که این قضاوت‌ها بر اطلاعات ناقص، قدیمی یا آشفته استوار باشد.

ریشه‌های ساختاری سوگیری در مدل‌های زبانی

یکی از نکات کلیدی این تحلیل آن است که این سوگیری‌ها به‌عنوان خطاهای ساده تلقی نمی‌شوند که بتوان با چند اصلاح فنی آنها را برطرف کرد. برعکس این نابرابری‌ها ویژگی‌های ساختاری مدل‌های زبانی مولد به شمار می‌روند. این مدل‌ها از داده‌هایی آموزش می‌بینند که خود محصول قرن‌ها نابرابری در تولید اطلاعات هستند.

بخش بزرگی از داده‌های در دسترس به زبان انگلیسی و درباره مناطقی تولید شده که از پوشش رسانه‌ای گسترده، حضور پررنگ در فضای دیجیتال و قدرت اقتصادی و سیاسی برخوردارند. درنتیجه مکان‌هایی که کمتر دیده و نوشته شدند نه‌تنها در داده‌ها کم‌رنگ‌ هستند بلکه اغلب از خلال کلیشه‌ها و روایت‌های سطحی بازنمایی می‌شوند.

دراین‌چارچوب چندنوع سوگیری به‌صورت درهم‌تنیده عمل می‌کنند: سوگیری ناشی از دسترس‌پذیری داده‌ها، الگوگیری از داده‌های غالب، میانگین‌سازی که تفاوت‌های درون‌منطقه‌ای را محو می‌کند، تکیه بر کلیشه‌ها و استفاده از شاخص‌های جانشین که به‌جای واقعیت‌های پیچیده نشانه‌های ساده و اغلب گمراه‌کننده را مبنا قرار می‌دهند. حاصل این ترکیب تصویری است که به‌طور مزمن به نفع مناطق ثروتمند و پرمستند جهان عمل می‌کند.

پیامدها برای سیاستگذاری و استفاده عمومی

با گسترش استفاده از هوش‌مصنوعی مولد در آموزش، خدمات عمومی، کسب‌وکار و تصمیم‌سازی‌های فردی خطر اتکا به خروجی‌هایی که نابرابری را تشدید می‌کنند جدی‌تر می‌شود. اگر این پاسخ‌ها به‌عنوان منابعی خنثی و بی‌طرف تلقی شوند به‌طور ناخواسته همان شکاف‌هایی را تقویت می‌کنند که ادعا می‌شود فناوری می‌تواند آنها را کاهش دهد.

از همین‌رو بر لزوم شفافیت بیشتر ازسوی توسعه‌دهندگان و نهادهایی که از این ابزارها استفاده می‌کنند تاکید می‌شود. طراحی چارچوب‌های نظارتی و ارزیابی مستقل برای بررسی رفتار مدل‌ها نیز به‌عنوان شرطی ضروری برای استفاده مسوولانه از آنها مطرح است. برای کاربران عادی نیز پیام روشن است: هوش‌مصنوعی نقشه‌ای بی‌طرف از جهان ارائه نداده بلکه بازتابی از تعصب‌ها و نابرابری‌های نهفته در داده‌هایی بوده که بر پایه آن ساخته شده است.

آخرین اخبار