هوش مصنوعی دوست شما نیست

گروه تحلیل
کدخبر: 548701
پیتر گ. کیرش اشلاگر، استاد اخلاق دانشگاه لوسرن، تاکید دارد که سیستمهای هوش مصنوعی فاقد توانایی استدلال اخلاقی هستند و نمی توان به آنها به عنوان جایگزین روابط انسانی یا عامل های اخلاقی اعتماد کرد.
هوش مصنوعی دوست شما نیست

جهان صنعت– پیتر گ. کیرش اشلاگر (Peter G. Kirchschläger) استاد برجسته اخلاق و مدیر «موسسه اخلاق اجتماعی» (ISE) در دانشگاه لوسرن سوئیس است. او استاد مدعو در موسسه فناوری فدرال زوریخ است.زمینه تخصصی او عمدتا شامل اخلاق، حقوق بشر، تحول دیجیتال و هوش مصنوعی است. کیرش‌اشلاگر یکی از چهره‌های فعال در گفتمان عمومی درباره پیامدهای اخلاقی فناوری‌های نوین به‌شمار می‌رود و همواره بر لزوم توسعه چارچوب‌های اخلاقی برای هدایت پیشرفت‌های فناورانه تاکید دارد. رویکرد او بر حفاظت از کرامت انسانی، عدالت و مسوولیت‌پذیری جهانی در مواجهه با تحولات دیجیتال استوار است.او در نوشته‌ها و دیدگاه‌های خود بر این نکته تاکید می‌کند که پیشرفت‌های فناوری مانند هوش مصنوعی، کلان‌داده و دیجیتال‌سازی، باید به شیوه‌ای مدیریت شوند که به نفع انسان‌ها و جامعه باشد و ارزش‌های بنیادین اخلاقی را نقض نکنند.دیدگاه‌های او در قالب مقالات علمی، یادداشت‌های تحلیلی در رسانه‌های داخلی و بین‌المللی، و گزارش‌های منتشر شده از سوی نهادهایی چون ETH  زوریخ یا دانشگاه لوسرن ارائه می‌شود

همان شرکت‌های بزرگ فناوری که با شبکه‌های اجتماعی جوامع ما را از هم گسستند، اکنون به ما القا می‌کنند که باید روابط انسانی واقعی را با «دوستان» یا «همراهان» هوش مصنوعی جایگزین کنیم اما با وجود ادعاهای جسورانه این صنعت، سامانه‌های داده‌محور امروزی فاقد توانایی لازم برای استدلال اخلاقی‌اند؛ توانایی‌ای که برای هدایت تصمیم‌گیری‌های واقعی در جهان ضروری است.

زوریخ- ‌مدیرعامل متا، مارک زاکربرگ، و مدیرعامل اوپن ا ای، سم آلتمن، به ‌طور جدی در حال ترویج این ایده هستند که همه- ‌حتی کودکان- ‌باید با «دوستان» یا «همراهان» مبتنی بر هوش مصنوعی رابطه برقرار کنند. در همین حال، شرکت‌های چندملیتی فناوری مفهوم «عامل‌های هوش مصنوعی» را تبلیغ می‌کنند؛ عامل‌هایی که قرار است در زندگی شخصی و حرفه‌ای به ما کمک کنند، وظایف روزمره را انجام دهند و ما را در تصمیم‌گیری یاری دهند.اما واقعیت این است که سامانه‌های هوش مصنوعی نه دوستاند، نه همراه، و نه عامل. آنها ماشین‌اند و همیشه هم ماشین باقی خواهند ماند. ما باید در این باره صادق باشیم و در برابر بازاریابی فریبنده‌ای که چیز دیگری را القا می‌کند، ایستادگی کنیم.

فریبنده‌ترین اصطلاح در این میان، «هوش مصنوعی» است. این سامانه‌ها واقعا باهوش نیستند، و آنچه امروز «هوش مصنوعی» می‌نامیم، صرفا مجموعه‌ای از ابزارهای فنی است که برای تقلید برخی عملکردهای شناختی طراحی شده‌اند. این سامانه‌ها توانایی درک واقعی ندارند و نه بی‌طرف‌اند، نه منصف، و نه خنثی.این سامانه‌ها همچنین در حال باهوش‌تر شدن نیستند. آنها برای عملکرد خود به داده نیاز دارند، و به ‌طور فزاینده‌ای این داده‌ها از ابزارهایی مانند چت جی‌پی‌تی تامین می‌شود. نتیجه آن یک چرخه بازخوردی است که خروجی‌های قبلی را بازیافت می‌کند، بی‌آنکه درک عمیق‌تری ایجاد کند.از نظر بنیادی‌تر، هوش فقط در حل وظایف خلاصه نمی‌شود؛ بلکه شامل چگونگی پرداختن به وظایف و اجرای آنها نیز هست. با وجود توانایی‌های فنی‌شان، مدل‌های هوش مصنوعی به حوزه‌های خاصی مانند پردازش حجم بالای داده‌ها، انجام استنتاج‌های منطقی، و محاسبات عددی محدود می‌مانند.وقتی صحبت از هوش اجتماعی به میان می‌آید، ماشین‌ها تنها می‌توانند احساسات، تعاملات و روابط را شبیه‌سازی کنند. برای مثال، یک ربات پزشکی می‌تواند طوری برنامه‌ریزی شود که وقتی بیمار گریه می‌کند، او هم گریه کند؛ اما هیچ‌کس ادعا نمی‌کند که آن ربات واقعاً احساس اندوه دارد. همان ربات به‌راحتی می‌تواند طوری برنامه‌ریزی شود که به بیمار سیلی بزند، و آن فرمان را با همان دقت – و با همان فقدان اصالت و خودآگاهی – اجرا خواهد کرد.

این ماشین «اهمیتی نمی‌دهد»؛ بلکه صرفا دستورها را اجرا می‌کند. و مهم نیست این سامانه‌ها چقدر پیشرفته شوند، این واقعیت تغییری نخواهد کرد. به ‌بیان ساده، ماشین‌ها فاقد عاملیت اخلاقی هستند. رفتار آنها براساس الگوها و قواعدی است که توسط انسان‌ها ایجاد شده، در حالی که اخلاق انسانی بر پایه خودآیینی است – یعنی توانایی تشخیص هنجارهای اخلاقی و عمل براساس آنها است. در مقابل، سامانه‌های هوش مصنوعی برای کارکردگرایی و بهینه‌سازی طراحی شده‌اند. ممکن است بتوانند از طریق یادگیری خودکار تطبیق پیدا کنند، اما قواعدی که تولید می‌کنند، هیچ معنای ذاتی اخلاقی ندارند.به‌عنوان مثال، به خودروهای خودران فکر کنید. برای رسیدن از نقطه A به نقطه B در کوتاه‌ترین زمان ممکن، یک خودروی خودران ممکن است قواعدی برای بهینه‌سازی زمان سفر ایجاد کند. اگر زیر گرفتن عابران پیاده به دستیابی به این هدف کمک کند، ممکن است این کار را انجام دهد، مگر آن‌که صراحتا از آن منع شده باشد، زیرا این خودرو نمی‌تواند پیامدهای اخلاقی آسیب‌زدن به انسان‌ها را درک کند.

بخشی از این مشکل به این دلیل است که ماشین‌ها قادر به درک اصل قابلیت تعمیم نیستند . این اصل یک کنش زمانی اخلاقی است که بتوان آن را به‌عنوان قاعده‌ای عمومی توجیه کرد. قضاوت اخلاقی مستلزم توانایی ارائه دلایلی است که دیگران بتوانند آنها را به ‌طور معقول بپذیرند. این‌ها همان چیزهایی هستند که ما اغلب آن‌ها را «دلایل خوب» می‌نامیم. بر خلاف ماشین‌ها، انسان‌ها توانایی استدلال اخلاقی تعمیم‌پذیر دارند و بنابراین می‌توانند قضاوت کنند که آیا اعمال‌شان درست است یا نه.به همین دلیل، اصطلاح «سامانه‌های داده‌محور» (Data-Based Systems یا DS) مناسب‌تر از «هوش مصنوعی» است؛ چرا که بهتر بازتاب می‌دهد که این سامانه‌ها واقعا چه کاری می‌توانند انجام دهند‌، مثل‌: تولید، گردآوری، پردازش و ارزیابی داده برای ارائه مشاهده‌ها و پیش‌بینی‌ها. این اصطلاح همچنین نقاط قوت و ضعف فناوری‌های نوظهور امروزی را شفاف‌تر بیان می‌کند.در اصل، این سامانه‌ها از فرآیندهای ریاضی بسیار پیچیده برای تحلیل حجم عظیمی از داده‌ها و نه بیشتر استفاده می‌کنند. انسان‌ها ممکن است با آنها تعامل داشته باشند، اما ارتباط کاملا یک‌طرفه است. DS هیچ درکی از آنچه «انجام می‌دهند» یا از آنچه در اطراف‌شان می‌گذرد، ندارند.

این به آن معنا نیست که DS نمی‌توانند به سود انسانیت یا کره زمین عمل کنند. برعکس، ما باید از آنها در حوزه‌هایی استفاده کنیم که توانایی‌شان از توانایی ما فراتر می‌رود. اما در عین حال باید فعالانه ریسک‌های اخلاقی آنها را مدیریت و مهار کنیم. طراحی سامانه‌های داده‌محور مبتنی بر حقوق بشر و تاسیس یک نهاد بین‌المللی برای نظارت بر سامانه‌های داده‌محور در سازمان ملل می‌تواند گام‌هایی مهم در این راستا باشد.در دو دهه گذشته، شرکت‌های بزرگ فناوری ما را منزوی کرده و جوامع‌مان را از هم پاشیده‌اند‌، آن‌ هم از طریق رسانه‌های اجتماعی که در واقع باید آنها را «رسانه‌های ضد اجتماعی» با توجه به ماهیت اعتیادآور و تخریبی‌شان دانست. اکنون همین شرکت‌ها دیدگاه رادیکال جدیدی را تبلیغ می‌کنند‌: جایگزینی ارتباط انسانی با «دوستان» و «همراهان» هوش مصنوعی.در عین حال، این شرکت‌ها همچنان مسئله‌ موسوم به «جعبه سیاه» را نادیده می‌گیرند‌: یعنی غیرقابل ردیابی بودن، غیرقابل پیش‌بینی بودن، و فقدان شفافیت در فرآیندهای الگوریتمی‌ای که پشت تصمیمات، پیش‌بینی‌ها و ارزیابی‌های خودکار قرار دارد. این ابهام، همراه با احتمال بالای سوگیری و تبعیض در الگوریتم‌ها، به ‌طور اجتناب‌ناپذیر به نتایجی سوگیرانه و تبعیض‌آمیز منجر می‌شود.خطرات سامانه‌های داده‌محور فرضی یا نظری نیستند. این سامانه‌ها در حال حاضر نیز زندگی شخصی و حرفه‌ای ما را شکل می‌دهند، آن هم به شیوه‌هایی که روزبه‌روز زیان‌بارتر می‌شوند. آنها ما را از نظر اقتصادی و سیاسی دستکاری می‌کنند، و با این حال مدیران عامل شرکت‌های فناوری از ما می‌خواهند که ابزارهای DS را راهنمای تصمیم‌گیری‌مان قرار دهیم. برای حفظ آزادی و کرامت خود، و آزادی و کرامت نسل‌های آینده، نباید اجازه دهیم ماشین‌ها نقاب انسانیت به چهره بزنند و خود را چیزی نشان دهند که نیستند‌.

وب گردی