وعده دروغین هوش مصنوعی برای خیر اجتماعی

جهانصنعت– آببا بیرهان، بنیانگذار «آزمایشگاه پاسخگویی هوش مصنوعی» در کالج ترینیتی دوبلین در مقالهای مینویسد: «در ترویج ابتکارات «هوشمصنوعی برای خیر اجتماعی»، شرکتهای فناوری و بنیادهای خیریه چنین القا میکنند که مسائل پیچیده سیاسی، تاریخی و اجتماعی را میتوان به مشکلات فنی فروکاست اما با توجه به نحوه کارکرد سامانههای هوش مصنوعی امروزه، هیچ دلیلی برای باور به این ادعا وجود ندارد و دلایل فراوانی برای بدبینی نسبت به آن هست.
دوبلین – همزمان با شور و شوق فزاینده برای ادغام هوش مصنوعی در زیرساختهای حیاتی اجتماعی، موسسات خیریه و انحصارگران فناوری مجموعهای از ابتکارات موسوم به «هوش مصنوعی برای خیر اجتماعی» (AI4SG) را راهاندازی کردهاند. این تلاشها ادعا میکنند که میخواهند با چالشهای جهانی بزرگی مانند فقر، نابرابری جنسیتی و تغییرات اقلیمی مقابله کنند اما شواهد نشان میدهد که سامانههای هوش مصنوعی همین مشکلات را تشدید کرده و همزمان مشکلات دیگری را پنهان میکنند. به عنوان نمونه این سامانهها معمولا به وعدههای توسعهدهندگان خود عمل نمیکنند؛ دیدگاههای اروپامحور، نابرابریهای ساختاری و بیعدالتیهای تاریخی را بازتولید میکنند و در قالب مدلی بهرهکشانه از درآمد فعالیت میکنند که اغلب بر مرزهای قانونی حرکت میکند. در نتیجه بیشتر ابتکارات AI4SG قادر به ایجاد تغییر اجتماعی معنادار نیستند و در عمل چیزی جز «تکنو-راهحلگرایی» بهشمار نمیروند: مسائل سیاسی، تاریخی و اجتماعی پیچیده به مشکلات فنی تقلیل مییابند، به این معنا که گویا با «نوآوری» حل شدنی هستند.
البته مروجان این ابتکارات گاه از زبان مناسب برای بیان مشکلات فوری استفاده میکنند. در اجلاس «AI for Good» در سال ۲۰۲۵ دبیرکل اتحادیه بینالمللی مخابرات، دورین بوگدان- مارتین تاکید کرد که باید «مطمئن شویم هوش مصنوعی هرگز به معنای گسترش نابرابری نباشد.» مایکروسافت به خود میبالد که «از حقوق بنیادین محافظت میکند» و راه را برای «سیارهای پایدار و شکوفا برای نسلهای آینده» هموار میسازد. گوگل نیز مدعی است که میخواهد «تغییرات مثبت در جوامع محروم ایجاد کند» اما مشکل آنجاست که همان نهادها و شرکتهایی که هوش مصنوعی را به عنوان راهحل عرضه میکنند، در عمل خود موجب بروز یا تشدید همین مشکلات هستند. افزون بر این هوشمصنوعی ابزار مناسبی برای حل اغلب مسائل پیچیده اجتماعی و ساختاری نیست. وقتی این فناوری از سوی شرکتهای قدرتمند ترویج میشود هدف اصلی بیشتر کسب پیروزیهای تبلیغاتی، افزایش استفاده از هوش مصنوعی (فارغ از کارآمدی واقعی محصولات) و شستوشوی مسوولیتپذیری در قبال فناوریهای زیانبار، روشهای بهرهکشانه و حتی همراهی با جنایات است. مدلهای زایشی هوشمصنوعی ذاتا غیرقابل اعتمادند. برخلاف ادعاهای اغراقآمیز، بیشتر این سامانهها پیش از بهکارگیری در نظامهای اجتماعی پیچیده، به طور شفاف و دقیق ارزیابی نشدهاند؛ جایی که برای طبقهبندی، پیشبینی یا تسهیل نتایج خاصی استفاده میشوند. مستقل از تبلیغات صنعت و اینفلوئنسرها، شواهد مستقل نشان میدهد که این ابزارها حتی در حوزههایی چون تشخیص پزشکی یا خلاصهسازی متن قابل اعتماد نیستند. برای مثال سامانههای تشخیص کنونی ۳۱درصد از موارد ملانومای کشنده را از قلم میاندازند. همچنین بررسیهای رسمی در استرالیا نشان داد که خلاصهسازی هوش مصنوعی تنها نیمی از کیفیت خلاصهسازی انسانی را دارد.
مساله دیگر آن است که خروجیهای این مدلها ذاتا بازتولید الگوهای گذشتهاند و بنابراین تعصبات و کلیشهها را تقویت میکنند. پژوهشهای فزایندهای نشان میدهند که هوش مصنوعی زایشی پیچیدگی فرهنگی را سادهسازی کرده و ارزشهای جوامع غربی، صنعتی و ثروتمند را تثبیت میکند. از نظر دادههای آموزشی نیز مشکلات عمیقی وجود دارد: سرشار از محتوای توهینآمیز، سوگیریهای فرهنگی و زبانی و بازنمایی نامتوازن جغرافیایی است. افزون بر این، فرآیند توسعه این مدلها به کارگرانی در جنوب جهانی وابسته است که با دستمزد ناچیز و در شرایط روانی دشوار به برچسبگذاری دادهها میپردازند. حتی دادههای مورد استفاده نیز غالبا بدون اجازه جمعآوری میشوند؛ چنان که گزارش شده متا مدلهایش را با کتابهای دزدی آموزش داده است. اثرات زیستمحیطی نیز قابل چشمپوشی نیست. پیشبینی میشود تا سال ۲۰۳۰ مصرف برق مراکز داده تقریبا دو برابر شود و به اندازه کل تقاضای برق ژاپن برسد. این در حالی است که برخی شرکتها مانند مایکروسافت همزمان با ادعای حرکت بهسوی سیارهای پایدار، قراردادهایی با صنایع نفت و گاز برای افزایش تولید امضا کردهاند.از منظر مسائل اجتماعی و حقوق بشری نیز کارنامه این شرکتها تاریک است: ارائه زیرساخت به ارتش رژیم صهیونیستی در تخریب غزه، همکاری با حکومتهای سرکوبگر و حتی سانسور و انتقامگیری از منتقدان. در نتیجه فناوریهایی که ذاتا غیرقابل اعتمادند و بیعدالتیهای تاریخی را بازتولید میکنند، نمیتوانند مسائل پیچیده اجتماعی و سیاسی را حل کنند. بسیاری از همان شرکتهایی که ابتکارات AI4SG را تبلیغ میکنند، خود در بحرانهای حقوق بشری، فجایع زیستمحیطی و جنایات جنگی شریک هستند. تغییر اجتماعی واقعی از شناسایی ریشههای نابرابری – از خشونت جنسیتی تا فقر و گرسنگی – آغاز میشود و نیازمند تخصیص منابع و تلاش پایدار است. «تکنو-راهحلگرایی» با منحرف کردن توجه از این واقعیتها بخشی از مشکل است، نه راهحل.