هوشمصنوعی «بازرس» میشود

جهان صنعت– متا قصد دارد وظیفه ارزیابی خطرات بالقوه محصولات خود را از بازبینهای انسانی به سیستمهای هوشمصنوعی واگذار کند تا این فرآیند با سرعت بیشتری انجام شود. اسناد داخلی که NPR به آنها دست یافته است، نشان میدهند که متا قصد دارد تا ۹۰درصد ارزیابیهای ریسک را به هوشمصنوعی بسپارد. این شرکت حتی در حال بررسی استفاده از هوشمصنوعی در حوزههای حساسی چون خطرات مرتبط با کودکان و مسائل «تمامیت» است؛ منظور از «تمامیت» حفظ سلامت و اعتماد عمومی در پلتفرمهای متاست؛ مفهومی که شامل مقابله با محتوای خشونتآمیز، اطلاعات نادرست، نفرتپراکنی، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی میشود. کارمندان کنونی و سابق متا که با NPR صحبت کردهاند، هشدار دادهاند که هوشمصنوعی ممکن است خطرات جدی را نادیده بگیرد؛ خطراتی که گروههای انسانی قادر به شناسایی آنها بودند. در گذشته، بهروزرسانیها و ویژگیهای جدید در پلتفرمهایی مانند اینستاگرام و واتساپ پیش از عرضه عمومی توسط انسانها بررسی میشدند اما طبق گزارش NPR، متا طی دو ماه گذشته تمرکز خود را بر استفاده از هوشمصنوعی دوچندان کرده است. اکنون گروههای محصول باید پرسشنامهای در مورد محصول خود تکمیل کرده و آن را برای بررسی به سیستم هوشمصنوعی ارسال کنند. این سیستم بهطور معمول یک «تصمیم فوری» صادر میکند که شامل شناسایی حوزههای پرریسک است. گروهها سپس باید براساس این ارزیابیها اقدام کنند تا بتوانند محصول را عرضه کنند. یکی از مدیران پیشین متا میگوید: کاهش بررسی انسانی یعنی پذیرش ریسک بیشتر و پیامدهای منفی تغییرات کمتر محصولات که پیش از بروز مشکلات در جهان قابل پیشگیری خواهند بود. متا در بیانیهای اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی مسائل جدید و پیچیده استفاده خواهد کرد و تصمیمگیری درباره موارد «کمریسک» را به هوشمصنوعی خواهد سپرد. این خبر تنها چند روز پس از انتشار آخرین گزارشهای فصلی متا درباره تمامیت پلتفرمهایش منتشر میشود؛ گزارشی که اولینبار پس از تغییر سیاستهای این شرکت درباره تعدیل محتوا و راستیآزمایی در سال جاری است. طبق این گزارش، حجم محتوای حذفشده کاهش یافته اما موارد آزار و اذیت، خشونت و محتوای گرافیکی کمی افزایش داشتهاند.
منبع: انگجت