هوش مصنوعی دوست شما نیست

جهان صنعت– پیتر گ. کیرش اشلاگر (Peter G. Kirchschläger) استاد برجسته اخلاق و مدیر «موسسه اخلاق اجتماعی» (ISE) در دانشگاه لوسرن سوئیس است. او استاد مدعو در موسسه فناوری فدرال زوریخ است.زمینه تخصصی او عمدتا شامل اخلاق، حقوق بشر، تحول دیجیتال و هوش مصنوعی است. کیرشاشلاگر یکی از چهرههای فعال در گفتمان عمومی درباره پیامدهای اخلاقی فناوریهای نوین بهشمار میرود و همواره بر لزوم توسعه چارچوبهای اخلاقی برای هدایت پیشرفتهای فناورانه تاکید دارد. رویکرد او بر حفاظت از کرامت انسانی، عدالت و مسوولیتپذیری جهانی در مواجهه با تحولات دیجیتال استوار است.او در نوشتهها و دیدگاههای خود بر این نکته تاکید میکند که پیشرفتهای فناوری مانند هوش مصنوعی، کلانداده و دیجیتالسازی، باید به شیوهای مدیریت شوند که به نفع انسانها و جامعه باشد و ارزشهای بنیادین اخلاقی را نقض نکنند.دیدگاههای او در قالب مقالات علمی، یادداشتهای تحلیلی در رسانههای داخلی و بینالمللی، و گزارشهای منتشر شده از سوی نهادهایی چون ETH زوریخ یا دانشگاه لوسرن ارائه میشود
همان شرکتهای بزرگ فناوری که با شبکههای اجتماعی جوامع ما را از هم گسستند، اکنون به ما القا میکنند که باید روابط انسانی واقعی را با «دوستان» یا «همراهان» هوش مصنوعی جایگزین کنیم اما با وجود ادعاهای جسورانه این صنعت، سامانههای دادهمحور امروزی فاقد توانایی لازم برای استدلال اخلاقیاند؛ تواناییای که برای هدایت تصمیمگیریهای واقعی در جهان ضروری است.
زوریخ- مدیرعامل متا، مارک زاکربرگ، و مدیرعامل اوپن ا ای، سم آلتمن، به طور جدی در حال ترویج این ایده هستند که همه- حتی کودکان- باید با «دوستان» یا «همراهان» مبتنی بر هوش مصنوعی رابطه برقرار کنند. در همین حال، شرکتهای چندملیتی فناوری مفهوم «عاملهای هوش مصنوعی» را تبلیغ میکنند؛ عاملهایی که قرار است در زندگی شخصی و حرفهای به ما کمک کنند، وظایف روزمره را انجام دهند و ما را در تصمیمگیری یاری دهند.اما واقعیت این است که سامانههای هوش مصنوعی نه دوستاند، نه همراه، و نه عامل. آنها ماشیناند و همیشه هم ماشین باقی خواهند ماند. ما باید در این باره صادق باشیم و در برابر بازاریابی فریبندهای که چیز دیگری را القا میکند، ایستادگی کنیم.
فریبندهترین اصطلاح در این میان، «هوش مصنوعی» است. این سامانهها واقعا باهوش نیستند، و آنچه امروز «هوش مصنوعی» مینامیم، صرفا مجموعهای از ابزارهای فنی است که برای تقلید برخی عملکردهای شناختی طراحی شدهاند. این سامانهها توانایی درک واقعی ندارند و نه بیطرفاند، نه منصف، و نه خنثی.این سامانهها همچنین در حال باهوشتر شدن نیستند. آنها برای عملکرد خود به داده نیاز دارند، و به طور فزایندهای این دادهها از ابزارهایی مانند چت جیپیتی تامین میشود. نتیجه آن یک چرخه بازخوردی است که خروجیهای قبلی را بازیافت میکند، بیآنکه درک عمیقتری ایجاد کند.از نظر بنیادیتر، هوش فقط در حل وظایف خلاصه نمیشود؛ بلکه شامل چگونگی پرداختن به وظایف و اجرای آنها نیز هست. با وجود تواناییهای فنیشان، مدلهای هوش مصنوعی به حوزههای خاصی مانند پردازش حجم بالای دادهها، انجام استنتاجهای منطقی، و محاسبات عددی محدود میمانند.وقتی صحبت از هوش اجتماعی به میان میآید، ماشینها تنها میتوانند احساسات، تعاملات و روابط را شبیهسازی کنند. برای مثال، یک ربات پزشکی میتواند طوری برنامهریزی شود که وقتی بیمار گریه میکند، او هم گریه کند؛ اما هیچکس ادعا نمیکند که آن ربات واقعاً احساس اندوه دارد. همان ربات بهراحتی میتواند طوری برنامهریزی شود که به بیمار سیلی بزند، و آن فرمان را با همان دقت – و با همان فقدان اصالت و خودآگاهی – اجرا خواهد کرد.
این ماشین «اهمیتی نمیدهد»؛ بلکه صرفا دستورها را اجرا میکند. و مهم نیست این سامانهها چقدر پیشرفته شوند، این واقعیت تغییری نخواهد کرد. به بیان ساده، ماشینها فاقد عاملیت اخلاقی هستند. رفتار آنها براساس الگوها و قواعدی است که توسط انسانها ایجاد شده، در حالی که اخلاق انسانی بر پایه خودآیینی است – یعنی توانایی تشخیص هنجارهای اخلاقی و عمل براساس آنها است. در مقابل، سامانههای هوش مصنوعی برای کارکردگرایی و بهینهسازی طراحی شدهاند. ممکن است بتوانند از طریق یادگیری خودکار تطبیق پیدا کنند، اما قواعدی که تولید میکنند، هیچ معنای ذاتی اخلاقی ندارند.بهعنوان مثال، به خودروهای خودران فکر کنید. برای رسیدن از نقطه A به نقطه B در کوتاهترین زمان ممکن، یک خودروی خودران ممکن است قواعدی برای بهینهسازی زمان سفر ایجاد کند. اگر زیر گرفتن عابران پیاده به دستیابی به این هدف کمک کند، ممکن است این کار را انجام دهد، مگر آنکه صراحتا از آن منع شده باشد، زیرا این خودرو نمیتواند پیامدهای اخلاقی آسیبزدن به انسانها را درک کند.
بخشی از این مشکل به این دلیل است که ماشینها قادر به درک اصل قابلیت تعمیم نیستند . این اصل یک کنش زمانی اخلاقی است که بتوان آن را بهعنوان قاعدهای عمومی توجیه کرد. قضاوت اخلاقی مستلزم توانایی ارائه دلایلی است که دیگران بتوانند آنها را به طور معقول بپذیرند. اینها همان چیزهایی هستند که ما اغلب آنها را «دلایل خوب» مینامیم. بر خلاف ماشینها، انسانها توانایی استدلال اخلاقی تعمیمپذیر دارند و بنابراین میتوانند قضاوت کنند که آیا اعمالشان درست است یا نه.به همین دلیل، اصطلاح «سامانههای دادهمحور» (Data-Based Systems یا DS) مناسبتر از «هوش مصنوعی» است؛ چرا که بهتر بازتاب میدهد که این سامانهها واقعا چه کاری میتوانند انجام دهند، مثل: تولید، گردآوری، پردازش و ارزیابی داده برای ارائه مشاهدهها و پیشبینیها. این اصطلاح همچنین نقاط قوت و ضعف فناوریهای نوظهور امروزی را شفافتر بیان میکند.در اصل، این سامانهها از فرآیندهای ریاضی بسیار پیچیده برای تحلیل حجم عظیمی از دادهها و نه بیشتر استفاده میکنند. انسانها ممکن است با آنها تعامل داشته باشند، اما ارتباط کاملا یکطرفه است. DS هیچ درکی از آنچه «انجام میدهند» یا از آنچه در اطرافشان میگذرد، ندارند.
این به آن معنا نیست که DS نمیتوانند به سود انسانیت یا کره زمین عمل کنند. برعکس، ما باید از آنها در حوزههایی استفاده کنیم که تواناییشان از توانایی ما فراتر میرود. اما در عین حال باید فعالانه ریسکهای اخلاقی آنها را مدیریت و مهار کنیم. طراحی سامانههای دادهمحور مبتنی بر حقوق بشر و تاسیس یک نهاد بینالمللی برای نظارت بر سامانههای دادهمحور در سازمان ملل میتواند گامهایی مهم در این راستا باشد.در دو دهه گذشته، شرکتهای بزرگ فناوری ما را منزوی کرده و جوامعمان را از هم پاشیدهاند، آن هم از طریق رسانههای اجتماعی که در واقع باید آنها را «رسانههای ضد اجتماعی» با توجه به ماهیت اعتیادآور و تخریبیشان دانست. اکنون همین شرکتها دیدگاه رادیکال جدیدی را تبلیغ میکنند: جایگزینی ارتباط انسانی با «دوستان» و «همراهان» هوش مصنوعی.در عین حال، این شرکتها همچنان مسئله موسوم به «جعبه سیاه» را نادیده میگیرند: یعنی غیرقابل ردیابی بودن، غیرقابل پیشبینی بودن، و فقدان شفافیت در فرآیندهای الگوریتمیای که پشت تصمیمات، پیشبینیها و ارزیابیهای خودکار قرار دارد. این ابهام، همراه با احتمال بالای سوگیری و تبعیض در الگوریتمها، به طور اجتنابناپذیر به نتایجی سوگیرانه و تبعیضآمیز منجر میشود.خطرات سامانههای دادهمحور فرضی یا نظری نیستند. این سامانهها در حال حاضر نیز زندگی شخصی و حرفهای ما را شکل میدهند، آن هم به شیوههایی که روزبهروز زیانبارتر میشوند. آنها ما را از نظر اقتصادی و سیاسی دستکاری میکنند، و با این حال مدیران عامل شرکتهای فناوری از ما میخواهند که ابزارهای DS را راهنمای تصمیمگیریمان قرار دهیم. برای حفظ آزادی و کرامت خود، و آزادی و کرامت نسلهای آینده، نباید اجازه دهیم ماشینها نقاب انسانیت به چهره بزنند و خود را چیزی نشان دهند که نیستند.