مقاله خوانی:

هوش‌مصنوعی در حال تهی کردن آموزش عالی

گروه تحلیل
کدخبر: 566598
در حالی که صنعت هوش‌مصنوعی ادعا می‌کند مدل‌هایش می‌توانند «فکر کنند»، «استدلال کنند» و «یاد بگیرند»، دستاوردهای ادعایی آنها بر تبلیغات بازاریابی و نیروی کار فکری سرقت‌ شده استوار است.
هوش‌مصنوعی در حال تهی کردن آموزش عالی

جهان صنعت– در حالی که صنعت هوش‌مصنوعی ادعا می‌کند مدل‌هایش می‌توانند «فکر کنند»، «استدلال کنند» و «یاد بگیرند»، دستاوردهای ادعایی آنها بر تبلیغات بازاریابی و نیروی کار فکری سرقت‌ شده استوار است. در واقع هوش‌مصنوعی آزادی دانشگاهی را فرسایش می‌دهد، خواندن انتقادی را تضعیف و پیگیری دانش را تابع منافع شرکت‌ها می‌کند.

فناوری‌های مدرن هوش‌مصنوعی توانایی انسان‌ها برای یادگیری و حفظ مهارت‌ها را به شدت مختل و همچنین برای دانشگاهیان و سایر متخصصان تقریبا غیرممکن می‌کنند که دانش را پرورش و انتشار دهند. بسیاری از محققان، به تهدید ناشی از راه‌حل‌گرایی فناورانه در آموزش اشاره کرده‌اند: به جای گسترش افق‌های فکری ما، این فناوری‌ها همان شرایطی را که به ما اجازه می‌دهند خودمان فکر کنیم، تضعیف می‌کنند. شرکت‌هایی که از هوش‌مصنوعی سود می‌برند از جمله مایکروسافت، اوپن‌ای‌آی، انویدیا و ASML در حفظ هیجان فعلی منفعت دارند. کنترل انحصار چندگانه آنها بر سخت‌افزار و نرم‌افزار به ادعای اغراق‌آمیز بستگی دارد که کارشناختی می‌تواند به طور کامل به مدل‌های آنها برون‌سپاری شود.

در واقعیت، دستاوردهای ظاهری این سیستم‌ها بر سرقت عمده کار فکری انسان‌ها استوار است، به ویژه، مدل‌های زبانی بزرگ با استخراج کتاب‌ها و آثار علمی بدون رضایت نویسندگان یا ناشران آموزش داده شده‌اند و آنها را تکه‌تکه کرده و در قالب سرقت ادبی تلفیقی بسته‌بندی شده به عنوان پاسخ‌های انسان‌نما ارائه می‌دهند. طبق روایت صنعت هوش‌مصنوعی تمام خلاقیت، نوآوری و دانش انسانی اساسا قابل خودکارسازی هستند و افراد را از رده خارج می‌کنند. حتی حامیان «هوش‌مصنوعی انسان‌محور» فرض می‌کنند که این درست است.

با این حال مطالعات در زمینه اتوماسیون و علوم‌شناختی همراه با تاریخ طولانی چرخه‌های رونق و رکود هوش‌مصنوعی نشان می‌دهند که ادعاهای گسترده اتوماسیون تقریبا کامل، اغراق‌آمیز، خودشکن و غیرواقعی هستند. اتوماسیون حتی زمانی که کار می‌کند باید در سطحی بسیار پایین‌تر از آنچه این شرکت‌ها پیشنهاد می‌کنند عمل کند تا بدون فرسایش مهارت‌ها و کارگزاری اپراتورهای انسانی موفق شود.

در نهایت استراتژی جمعی شرکت‌های هوش‌مصنوعی تهدید می‌کند که دقیقا همان افرادی را که برای عملکرد جامعه ضروری هستند، غیرماهر کند. به هر حال چه ارزشی در خودکارسازی هنر، تفکر یا خواندن وجود دارد؟ این سوال به‌ویژه در محیط‌های آموزشی و دانشگاهی بسیار مطرح است که باید گفت هیچ. برعکس، خودکارسازی دانش و فرهنگ توسط شرکت‌های خصوصی یک چشم‌انداز نگران‌کننده است که سناریوهای دنیای بد خیالی و کاملا فاشیستی را تداعی می‌کند.

غیرماهرسازی، تحقیر و جابه‌جایی معلمان و محققان از نظر تاریخی در تسخیر فاشیست‌ محوری بوده‌اند زیرا معلمان و محققان به عنوان سنگر در برابر تبلیغات، ضدروشنفکری و بی‌سوادی عمل می‌کنند. امروزه مدافعان هوش مصنوعی نه‌تنها فرض می‌کنند که اتوماسیون ضروری است بلکه به طور تهاجمی ایمان خود را تبلیغ می‌کنند و در نتیجه راه را برای تکنو-فاشیسم هموار می‌کنند.

دانشگاهیان تا حدی برای گفتن حقیقت به قدرت نیاز دارند که مستلزم استقلال آنها از نفوذ دولت و شرکت‌هاست. ایالات متحده امروز پیامدهای تهی کردن آزادی دانشگاهی، تفکر انتقادی و بی‌طرفی را نشان می‌دهد زیرا دولت دونالد ترامپ و شرکت‌های بزرگ فناوری برای تضعیف توانایی موسسات دانشگاهی در حفظ نوع کار علمی که وعده‌های دروغین هوش‌مصنوعی را افشا می‌کند، همکاری می‌کنند.

بدتر از آن، حمله تکنوفاشیستی به دانشگاه‌ها به طور فزاینده‌ای از درون می‌آید. در سال‌های اخیر، صنعت هوش‌مصنوعی مدیریت دانشگاه‌ها را تصرف کرده، اتحادیه‌های هیات‌علمی را همراه خود کرده و حتی معلمان و محققان فردی را برای ترویج ابزارهای خود در جمع همکاران و دانشجویان جذب کرده است.

این فناوری‌ها نه‌تنها راه‌حل‌های واقعی ارائه نمی‌دهند، بلکه بی‌عدالتی‌های اجتماعی را تشدید می‌کنند و اکوسیستم دانش بشری را از بین می‌برند.

در یک مقاله موضع‌گیری اخیر، ما ادعاهای مطرح شده توسط صنعت هوش‌مصنوعی را به چالش کشیدیم. در حالی که شرکت‌ها از ما می‌خواهند که آینده تخیلی و گویای اجتناب‌ناپذیر فناوری‌محور آنها را بپذیریم و حتی جشن بگیریم. دانشگاهیان و متحدان آنها باید موضع اصولی بگیرند و از دانشگاه‌ها و موسسات علمی با منع کردن فناوری‌های سمی و اعتیادآور از کلاس‌ها دفاع کنند.

صنعت روی این حساب می‌کند که ما فراموش کنیم که قبلا اینجا بوده‌ایم. از دانشگاه‌ها مدت‌هاست که برای پاکسازی محصولات مضر استفاده می‌شوند و خود هوش‌مصنوعی بارها از طریق چرخه‌های مختلف هیجان، بسته‌بندی مجدد شده است. در واقع اصطلاح «هوش‌مصنوعی» که در سال ۱۹۵۵ ابداع شد، همیشه بیشتر یک عبارت بازاریابی بوده تا یک طبقه‌بندی و سازماندهی مفهومی یا علمی.

برای حفظ آخرین تکرار کلاهبرداری هوش مصنوعی، صنعت بر شعبده‌بازی انسان‌نما متکی است. با ادعای اینکه مدل‌ها «فکر می‌کنند»، «استدلال می‌کنند» و «یاد می‌گیرند» تا توانایی‌های شناختی را پیشنهاد دهند که آشکارا فاقد آن هستند و ممکن است هرگز توسعه ندهند. این ترفند نه‌تنها قابلیت‌های محصولات را اغراق‌آمیز می‌کند بلکه با انسان‌انگاری دروغین ماشین‌ها، مردم را غیرانسانی می‌کند. به همین دلیل است که بسیاری از استادان و دانشجویان شروع به رد هوش مصنوعی کرده‌اند.

در پاسخ، صنعت هوش‌مصنوعی با سازمان‌های دولتی لابی کرده است تا استفاده از محصولات آن را اجباری کنند و ادعا می‌کنند که بدون آنها، دانش‌آموزان برای بازار کار آماده نخواهند بود. آنچه واقعا مورد نیاز است، برعکس است: محققان با تخصص در زمینه‌های مرتبط با هوش مصنوعی باید آزادی انتقاد از این فناوری‌ها را داشته باشند، در حالی که کسانی که در زمینه‌های دیگر هستند باید بتوانند بدون دخالت شرکت‌هایی که به دنبال کسب درآمد هستند، تدریس کنند.

برنامه‌های صنعتی مانند صنعت تنباکو، نفت، داروسازی یا فناوری به ندرت با رفاه انسان یا تحقیقات بی‌طرف همسو هستند، به ویژه زمانی که کنترل نشده و بدون مقررات باقی بمانند. در عوض، منافع آنها حداکثر کردن سود و قدرت بازار است. صنعت هوش مصنوعی متفاوت نیست و دانشگاهیان باید وعده‌های دروغین آن را رد کنند.

الیویا گست* و آیریس ون‌رویج**

* استادیار علوم‌شناختی محاسباتی در دانشگاه رادبود-**استاد علوم‌شناختی محاسباتی در دانشگاه رادبود

وب گردی