17 - 04 - 2024
سرنوشت کارجویان در دستان هوش مصنوعی
«جهانصنعت»- استارتآپهای کوچک و پلتفرمهای حرفهای بزرگ از هوش مصنوعی برای یافتن و استخدام نیروهای جدید استفاده میکنند، اما استفاده از این ابزارها میتواند تصمیمگیریهای سوگیرانه را تقویت کند. «توری پادمجرسکی»، مشاور تجربه کاربری در سیاتل، یک ایمیل شخصی در ماه ژانویه از استخدامکنندهای به نام «جنی جانسون» دریافت کرد. در این پیام آمده بود که جانسون یک پروفایل شغلی برای پادمجرسکی ایجاد کرده و چند کار منطبق با پروفایل او را پیشنهاد داده است، اما این پروفایل بسیار گسترده بود و چندین بخش مهم از تاریخچه حرفهای او در آن حذف شده بود. پادمجرسکی که در وهله اول به دنبال کار نبود، متوجه شد که این یک کلاهبرداری است. تا زمانی که تا پایین صفحه نرفته بود، متوجه نشد جانسون حتی یک انسان هم نیست. ایمیل از یک روبات هوش مصنوعی آمده بود. شرکت سازنده، آن را به عنوان «هوش مصنوعی نماینده یک مربی شغلی حرفهای» توصیف کرده بود. پادمجرسکی به یاد میآورد که احساس ناخوشایندی را تجربه کرده زیرا متوجه شده که این هوش مصنوعی برای ایجاد احساس دیده شدن، خاص بودن، مراقبت و حمایت طراحی شده و همه اینها دروغ بوده است.
«داگلاس همیلتون» یک مدیر بازنشسته فروش و بازاریابی در آلبانی، نیویورک نیز یک ایمیل از جنی جانسون دریافت کرد. همیلتون خلاصه کار روبات را اینگونه توصیف میکند: نقشهای اشتباه، صنعت اشتباه، سطح اشتباه. او ایمیل را باز کرده بود، زیرا عکس استخدامکننده که در مکاتبات برای استخدام نامعمول بود، توجه او را جلب کرد. آن عکس نیز به صورت مصنوعی ساخته شده بود. روبات جنی جانسون، بخشی از یک ابزار توسعهیافته توسط شرکت مولد هوش مصنوعی «هایپرلیپ» بوده که در چند ماه اخیر ایمیلهای ناخواستهای را برای بسیاری از متخصصان ارسال کرده است. این تنها یک نمونه از این است که چگونه پلتفرمهای استخدام، از استارتآپهای کوچک گرفته تا لینکدین، به طور فزایندهای از هوش مصنوعی برای یافتن، فیلتر کردن و استخدام افراد جدید استفاده میکنند. با پیچیدهتر شدن این ابزارها، کارشناسان نگرانند که مسیریابی در بازار کار برای جویندگان کار، بیشتر فاقد صفات انسانی شده و تعصبات موجود تقویت شود.
شرکت «هایپرلیپ»، مستقر در پارک سیتی، یوتا، جنی جانسون را به عنوان یک ابزار کاریابی آنلاین ایجاد کرد که خلاصههای خودکار شغل را برای کاربرانی که در این سرویس ثبتنام میکنند، ارسال میکند. مدیرعامل شرکت، «کوین هولبرت» میگوید این سیستم هوش مصنوعی اطلاعیههای شغلی آنلاین و وبسایتهای کسبوکار را بررسی میکند تا یک پایگاه داده قابل جستوجو بسازد. سپس پروفایل لینکدین، رزومه و سابقه کاری افراد را بررسی میکند و این اطلاعات را با پایگاه داده خود تطبیق میدهد تا فرصتهای شغلی را به افراد پیشنهاد دهد. به گفته هولبرت، اگرچه هر کسی میتواند در این سرویس ثبتنام کند، اما افرادی مانند پادمجرسکی و همیلتون ایمیلهای ناخواسته خود را در طول کمپینهای اولیه هایرپلیپ دریافت کردند تا با مشارکت یک پلتفرم شغلی، کاربران جدیدی را به دست آورند. او میگوید هر کسی که در آن پلتفرم ثبتنام میکرد، هشدارهایی را از روبات جنی جانسون نیز دریافت میکرد، اگرچه نه پادمجرسکی و نه همیلتون به یاد نمیآورند که در آن زمان در هیچ پلتفرم شغلیای ثبتنام کرده باشند. هولبرت میگوید که شرکت از آن زمان این مشارکت را متوقف کرده است و آنها همچنان به پاک کردن لیست خود و حذف کاربرانی که درگیر نیستند، ادامه میدهند.
خدماتی مانند جنی جانسون گسترش طبیعی فناوری خودکار است که استخدامکنندگان بیش از یک دهه از آن استفاده میکنند. «ریگان گراس » از انجمن مدیریت منابع انسانی (SHRM) که به متخصصان منابع انسانی در مورد شیوههای استخدام مشاوره میدهد، میگوید: اینها شامل نرمافزار ردیابی متقاضی میشوند که رزومهها را برای یافتن کلمات کلیدی بررسی میکند. بیش از ۹۷درصد از شرکتهای فورچون ۵۰۰ (فهرستی از ۵۰۰ مورد از بزرگترین شرکتهای آمریکایی از نظر درآمدزایی) در حال حاضر به چنین ابزارهایی برای بررسی متقاضیان متکی هستند و یک نظرسنجی در سال ۲۰۲۲ نشان داد که ۴۲درصد از سازمانهای مورد بررسی با ۵۰۰۰ کارمند یا بیشتر گزارش دادهاند که از خودکار شدن یا حضور هوش مصنوعی در فعالیتهای مرتبط با منابع انسانی، از جمله استخدام استفاده میکنند.
«گراس» مزایای بالقوهای را در برخی از این ابزارها میبیند، اما میگوید که آنها محدودیتهای مخصوص به خود را دارند. به عنوان مثال، در حالی که برنامههای کاربردی هوش مصنوعی میتوانند در انجام وظایف اساسی مانند خلاصه کردن مهارتهای متقاضی کمک کنند، اما هنوز نمیتوانند شخصیت و ویژگیهای منحصربهفردی که برای استخدامکنندگان مهم است را به تصویر بکشند. «گراس» پیشبینی میکند که استفاده گسترده از هوش مصنوعی، جویندگان کار را مجبور میکند که راههای جدیدی برای متمایز کردن خود بیابند. برنامههای کاربردی هوش مصنوعی به طور پیوسته فرآیند استخدام را خودکار میکند. به عنوان مثال، پلتفرمهای بزرگتری مانند لینکدین اکنون میتوانند به طور خودکار تجربه کاری و مهارتهای افراد جویای کار را با مشاغل موجود مطابقت دهند.
برخی از آنها، از جمله ZipRecruiter، چتباتهای انسانی نیز ارائه میدهند که میتوانند به سوالات مربوط به یک شغل پاسخ دهند، با نامزدهای بالقوه تماس بگیرند و ارزیابیهای شخصیتی را انجام دهند. هوش مصنوعی مولد جدید حتی به کارفرمایان این امکان را میدهد که بخشهای کامل فرآیند استخدام از جمله جستوجوی نامزدها و انجام مصاحبههای از پیش برنامهریزی شده را به الگوریتمها برونسپاری کنند.
«هولبرت» میگوید هایپرلیپ یک شخصیت انسانی برای هوش مصنوعی خودساخته است تا برقراری ارتباط با آن را راحتتر کند و مردم در مواجهه با آن طبیعیتر عمل کنند. «زهیرا جاسر» که در مورد رفتار سازمانی در مدرسه بازرگانی دانشگاه ساسکس در انگلستان تحقیق میکند، میگوید که عدم شفافیت در فرآیند استخدام خودکار میتواند اثر معکوس داشته باشد. جاسر معتقد است که عدم اطمینان کارجو در مورد اینکه آیا با یک انسان سر و کار دارد یا خیر، بر عملکرد نامزدها در طول فرآیند استخدام تاثیر میگذارد و همچنین میتواند مانع از دریافت اطلاعات دقیق از رفتار عادی نامزدها شود. او در تحقیقات خود در مورد مصاحبههای مبتنی بر هوش مصنوعی دریافته است که متقاضیان معمولا اگر فکر میکنند به جای انسان با یک روبات آنلاین صحبت میکنند، رفتار طبیعی کمتری از خود نشان میدهند. برای مثال، آنها نگاه ثابتی روی صفحه نمایش خواهند داشت و از حرکت دادن دستان خود خودداری میکنند. تحقیقات جاسر همچنین نشان میدهد که مصاحبههای مبتنی بر هوش مصنوعی اغلب نامزدهایی را که فارغالتحصیلان نسل اول هستند، با لهجه صحبت میکنند یا از پیشزمینه کمتری برخوردارند، نادیده میگیرند. فارغالتحصیلان نسل اول به کسانی گفته میشود که پدر و مادر آنها فاقد تحصیلات آکادمیک هستند. جاسر اضافه میکند که بدون نظارت کافی انسانی، سیستمهای استخدام مبتنی بر هوش مصنوعی میتوانند تعصبات موجود را تقویت کنند. او میگوید: بهکارگیری این نوع سیستمها ممکن است از منظر کنترل هزینهها عالی باشد، اما اگر کنترل نشود، ممکن است مشکلاتی در مورد تنوع ایجاد کند.
«النور دراگ» محقق اخلاق هوش مصنوعی در دانشگاه کمبریج میگوید: توسعهدهندگان ابزارهای استخدام هوش مصنوعی اغلب گفتهاند که الگوریتمهایشان این پتانسیل را دارد که از انسانها عینیتر باشند؛ اگر این ابزارها روی دادههایی که به اندازه کافی فراگیر و متنوع هستند، آموزش ببینند. چنین ادعاهایی گمراهکننده بوده و نشاندهنده عدم درک نحوه عملکرد سوگیرانه در دنیای واقعی است. دراگ افزود: از آنجایی که سیستمهای استخدام مبتنی بر هوش مصنوعی براساس گرایشها و شیوههای استخدام در گذشته آموزش دیدهاند که غالبا مغرضانه و تبعیضآمیز بودهاند، آنها همیشه همان الگوها را تکرار میکنند، حتی اگر شرکتها به صراحت عواملی مانند نژاد و جنسیت را حذف کنند. جاسر میگوید: اگرچه تبلیغات پیرامون این ابزارهای استخدام هوش مصنوعی در حال حاضر زیاد است، اما بسیاری از دپارتمانهای منابع انسانی منتظر هستند تا قبل از استفاده از آنها، کارایی این ابزارها ثابت شود. او افزود: امیدواریم آنها به طور انبوه پذیرفته نشوند، مگر در صورتی که مفید، منصفانه و قابل اعتماد بودن آنها ثابت شود.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد