وعده دروغین هوش مصنوعی برای خیر اجتماعی

گروه تحلیل
کدخبر: 557755
آببا بیرهان، بنیان‌گذار «آزمایشگاه پاسخگویی هوش مصنوعی» در کالج ترینیتی دوبلین، با انتقاد از ابتکارات «هوش مصنوعی برای خیر اجتماعی»، تأکید می‌کند که مسائل پیچیده سیاسی و اجتماعی را نمی‌توان به مشکلات فنی تقلیل داد و این سامانه‌ها در واقع مشکلات را تشدید می‌کنند.
وعده دروغین هوش مصنوعی برای خیر اجتماعی

جهان‌صنعت– آببا بیرهان، بنیان‌گذار «آزمایشگاه پاسخگویی هوش مصنوعی» در کالج ترینیتی دوبلین در مقاله‌ای می‌نویسد: «در ترویج ابتکارات «هوش‌مصنوعی برای خیر اجتماعی»، شرکت‌های فناوری و بنیادهای خیریه چنین القا می‌کنند که مسائل پیچیده سیاسی، تاریخی و اجتماعی را می‌توان به مشکلات فنی فروکاست اما با توجه به نحوه کارکرد سامانه‌های هوش مصنوعی امروزه، هیچ دلیلی برای باور به این ادعا وجود ندارد و دلایل فراوانی برای بدبینی نسبت به آن هست.

دوبلین – همزمان با شور و شوق فزاینده برای ادغام هوش مصنوعی در زیرساخت‌های حیاتی اجتماعی، موسسات خیریه و انحصارگران فناوری مجموعه‌ای از ابتکارات موسوم به «هوش مصنوعی برای خیر اجتماعی» (AI4SG) را راه‌اندازی کرده‌اند. این تلاش‌ها ادعا می‌کنند که می‌خواهند با چالش‌های جهانی بزرگی مانند فقر، نابرابری جنسیتی و تغییرات اقلیمی مقابله کنند اما شواهد نشان می‌دهد که سامانه‌های هوش مصنوعی همین مشکلات را تشدید کرده و همزمان مشکلات دیگری را پنهان می‌کنند. به‌ عنوان نمونه این سامانه‌ها معمولا به وعده‌های توسعه‌دهندگان خود عمل نمی‌کنند؛ دیدگاه‌های اروپامحور، نابرابری‌های ساختاری و بی‌عدالتی‌های تاریخی را بازتولید می‌کنند و در قالب مدلی بهره‌کشانه از درآمد فعالیت می‌کنند که اغلب بر مرزهای قانونی حرکت می‌کند. در نتیجه بیشتر ابتکارات AI4SG قادر به ایجاد تغییر اجتماعی معنادار نیستند و در عمل چیزی جز «تکنو-راه‌حل‌گرایی» به‌شمار نمی‌روند: مسائل سیاسی، تاریخی و اجتماعی پیچیده به مشکلات فنی تقلیل می‌یابند، به این معنا که گویا با «نوآوری» حل ‌شدنی‌ هستند.

البته مروجان این ابتکارات گاه از زبان مناسب برای بیان مشکلات فوری استفاده می‌کنند. در اجلاس «AI for Good» در سال ۲۰۲۵ دبیرکل اتحادیه بین‌المللی مخابرات، دورین بوگدان- مارتین تاکید کرد که باید «مطمئن شویم هوش مصنوعی هرگز به معنای گسترش نابرابری نباشد.» مایکروسافت به خود می‌بالد که «از حقوق بنیادین محافظت می‌کند» و راه را برای «سیاره‌ای پایدار و شکوفا برای نسل‌های آینده» هموار می‌سازد. گوگل نیز مدعی است که می‌خواهد «تغییرات مثبت در جوامع محروم ایجاد کند» اما مشکل آنجاست که همان نهادها و شرکت‌هایی که هوش مصنوعی را به‌ عنوان راه‌حل عرضه می‌کنند، در عمل خود موجب بروز یا تشدید همین مشکلات  هستند. افزون بر این هوش‌مصنوعی ابزار مناسبی برای حل اغلب مسائل پیچیده اجتماعی و ساختاری نیست. وقتی این فناوری از سوی شرکت‌های قدرتمند ترویج می‌شود هدف اصلی بیشتر کسب پیروزی‌های تبلیغاتی، افزایش استفاده از هوش مصنوعی (فارغ از کارآمدی واقعی محصولات) و شست‌وشوی مسوولیت‌پذیری در قبال فناوری‌های زیان‌بار، روش‌های بهره‌کشانه و حتی همراهی با جنایات است. مدل‌های زایشی هوش‌مصنوعی ذاتا غیرقابل‌ اعتمادند. برخلاف ادعاهای اغراق‌آمیز، بیشتر این سامانه‌ها پیش از به‌کارگیری در نظام‌های اجتماعی پیچیده، به ‌طور شفاف و دقیق ارزیابی نشده‌اند؛ جایی که برای طبقه‌بندی، پیش‌بینی یا تسهیل نتایج خاصی استفاده می‌شوند. مستقل از تبلیغات صنعت و اینفلوئنسرها، شواهد مستقل نشان می‌دهد که این ابزارها حتی در حوزه‌هایی چون تشخیص پزشکی یا خلاصه‌سازی متن قابل ‌اعتماد نیستند. برای مثال سامانه‌های تشخیص کنونی ۳۱درصد از موارد ملانومای کشنده را از قلم می‌اندازند. همچنین بررسی‌های رسمی در استرالیا نشان داد که خلاصه‌سازی هوش مصنوعی تنها نیمی از کیفیت خلاصه‌سازی انسانی را دارد.

مساله دیگر آن است که خروجی‌های این مدل‌ها ذاتا بازتولید الگوهای گذشته‌اند و بنابراین تعصبات و کلیشه‌ها را تقویت می‌کنند. پژوهش‌های فزاینده‌ای نشان می‌دهند که هوش مصنوعی زایشی پیچیدگی فرهنگی را ساده‌سازی کرده و ارزش‌های جوامع غربی، صنعتی و ثروتمند را تثبیت می‌کند. از نظر داده‌های آموزشی نیز مشکلات عمیقی وجود دارد: سرشار از محتوای توهین‌آمیز، سوگیری‌های فرهنگی و زبانی و بازنمایی نامتوازن جغرافیایی است. افزون بر این، فرآیند توسعه این مدل‌ها به کارگرانی در جنوب جهانی وابسته است که با دستمزد ناچیز و در شرایط روانی دشوار به برچسب‌گذاری داده‌ها می‌پردازند. حتی داده‌های مورد استفاده نیز غالبا بدون اجازه جمع‌آوری می‌شوند؛ چنان که گزارش شده متا مدل‌هایش را با کتاب‌های دزدی آموزش داده است. اثرات زیست‌محیطی نیز قابل چشم‌پوشی نیست. پیش‌بینی می‌شود تا سال ۲۰۳۰ مصرف برق مراکز داده تقریبا دو برابر شود و به اندازه کل تقاضای برق ژاپن برسد. این در حالی است که برخی شرکت‌ها مانند مایکروسافت همزمان با ادعای حرکت به‌سوی سیاره‌ای پایدار، قراردادهایی با صنایع نفت و گاز برای افزایش تولید امضا کرده‌اند.از منظر مسائل اجتماعی و حقوق بشری نیز کارنامه این شرکت‌ها تاریک است: ارائه زیرساخت به ارتش رژیم صهیونیستی در تخریب غزه، همکاری با حکومت‌های سرکوبگر و حتی سانسور و انتقام‌گیری از منتقدان. در نتیجه فناوری‌هایی که ذاتا غیرقابل ‌اعتمادند و بی‌عدالتی‌های تاریخی را بازتولید می‌کنند، نمی‌توانند مسائل پیچیده اجتماعی و سیاسی را حل کنند. بسیاری از همان شرکت‌هایی که ابتکارات AI4SG را تبلیغ می‌کنند، خود در بحران‌های حقوق بشری، فجایع زیست‌محیطی و جنایات جنگی شریک‌ هستند. تغییر اجتماعی واقعی از شناسایی ریشه‌های نابرابری – از خشونت جنسیتی تا فقر و گرسنگی – آغاز می‌شود و نیازمند تخصیص منابع و تلاش پایدار است. «تکنو-راه‌حل‌گرایی» با منحرف کردن توجه از این واقعیت‌ها بخشی از مشکل است، نه راه‌حل.

وب گردی