هوشمصنوعی در حال تهی کردن آموزش عالی

جهان صنعت– در حالی که صنعت هوشمصنوعی ادعا میکند مدلهایش میتوانند «فکر کنند»، «استدلال کنند» و «یاد بگیرند»، دستاوردهای ادعایی آنها بر تبلیغات بازاریابی و نیروی کار فکری سرقت شده استوار است. در واقع هوشمصنوعی آزادی دانشگاهی را فرسایش میدهد، خواندن انتقادی را تضعیف و پیگیری دانش را تابع منافع شرکتها میکند.
فناوریهای مدرن هوشمصنوعی توانایی انسانها برای یادگیری و حفظ مهارتها را به شدت مختل و همچنین برای دانشگاهیان و سایر متخصصان تقریبا غیرممکن میکنند که دانش را پرورش و انتشار دهند. بسیاری از محققان، به تهدید ناشی از راهحلگرایی فناورانه در آموزش اشاره کردهاند: به جای گسترش افقهای فکری ما، این فناوریها همان شرایطی را که به ما اجازه میدهند خودمان فکر کنیم، تضعیف میکنند. شرکتهایی که از هوشمصنوعی سود میبرند از جمله مایکروسافت، اوپنایآی، انویدیا و ASML در حفظ هیجان فعلی منفعت دارند. کنترل انحصار چندگانه آنها بر سختافزار و نرمافزار به ادعای اغراقآمیز بستگی دارد که کارشناختی میتواند به طور کامل به مدلهای آنها برونسپاری شود.
در واقعیت، دستاوردهای ظاهری این سیستمها بر سرقت عمده کار فکری انسانها استوار است، به ویژه، مدلهای زبانی بزرگ با استخراج کتابها و آثار علمی بدون رضایت نویسندگان یا ناشران آموزش داده شدهاند و آنها را تکهتکه کرده و در قالب سرقت ادبی تلفیقی بستهبندی شده به عنوان پاسخهای انساننما ارائه میدهند. طبق روایت صنعت هوشمصنوعی تمام خلاقیت، نوآوری و دانش انسانی اساسا قابل خودکارسازی هستند و افراد را از رده خارج میکنند. حتی حامیان «هوشمصنوعی انسانمحور» فرض میکنند که این درست است.
با این حال مطالعات در زمینه اتوماسیون و علومشناختی همراه با تاریخ طولانی چرخههای رونق و رکود هوشمصنوعی نشان میدهند که ادعاهای گسترده اتوماسیون تقریبا کامل، اغراقآمیز، خودشکن و غیرواقعی هستند. اتوماسیون حتی زمانی که کار میکند باید در سطحی بسیار پایینتر از آنچه این شرکتها پیشنهاد میکنند عمل کند تا بدون فرسایش مهارتها و کارگزاری اپراتورهای انسانی موفق شود.
در نهایت استراتژی جمعی شرکتهای هوشمصنوعی تهدید میکند که دقیقا همان افرادی را که برای عملکرد جامعه ضروری هستند، غیرماهر کند. به هر حال چه ارزشی در خودکارسازی هنر، تفکر یا خواندن وجود دارد؟ این سوال بهویژه در محیطهای آموزشی و دانشگاهی بسیار مطرح است که باید گفت هیچ. برعکس، خودکارسازی دانش و فرهنگ توسط شرکتهای خصوصی یک چشمانداز نگرانکننده است که سناریوهای دنیای بد خیالی و کاملا فاشیستی را تداعی میکند.
غیرماهرسازی، تحقیر و جابهجایی معلمان و محققان از نظر تاریخی در تسخیر فاشیست محوری بودهاند زیرا معلمان و محققان به عنوان سنگر در برابر تبلیغات، ضدروشنفکری و بیسوادی عمل میکنند. امروزه مدافعان هوش مصنوعی نهتنها فرض میکنند که اتوماسیون ضروری است بلکه به طور تهاجمی ایمان خود را تبلیغ میکنند و در نتیجه راه را برای تکنو-فاشیسم هموار میکنند.
دانشگاهیان تا حدی برای گفتن حقیقت به قدرت نیاز دارند که مستلزم استقلال آنها از نفوذ دولت و شرکتهاست. ایالات متحده امروز پیامدهای تهی کردن آزادی دانشگاهی، تفکر انتقادی و بیطرفی را نشان میدهد زیرا دولت دونالد ترامپ و شرکتهای بزرگ فناوری برای تضعیف توانایی موسسات دانشگاهی در حفظ نوع کار علمی که وعدههای دروغین هوشمصنوعی را افشا میکند، همکاری میکنند.
بدتر از آن، حمله تکنوفاشیستی به دانشگاهها به طور فزایندهای از درون میآید. در سالهای اخیر، صنعت هوشمصنوعی مدیریت دانشگاهها را تصرف کرده، اتحادیههای هیاتعلمی را همراه خود کرده و حتی معلمان و محققان فردی را برای ترویج ابزارهای خود در جمع همکاران و دانشجویان جذب کرده است.
این فناوریها نهتنها راهحلهای واقعی ارائه نمیدهند، بلکه بیعدالتیهای اجتماعی را تشدید میکنند و اکوسیستم دانش بشری را از بین میبرند.
در یک مقاله موضعگیری اخیر، ما ادعاهای مطرح شده توسط صنعت هوشمصنوعی را به چالش کشیدیم. در حالی که شرکتها از ما میخواهند که آینده تخیلی و گویای اجتنابناپذیر فناوریمحور آنها را بپذیریم و حتی جشن بگیریم. دانشگاهیان و متحدان آنها باید موضع اصولی بگیرند و از دانشگاهها و موسسات علمی با منع کردن فناوریهای سمی و اعتیادآور از کلاسها دفاع کنند.
صنعت روی این حساب میکند که ما فراموش کنیم که قبلا اینجا بودهایم. از دانشگاهها مدتهاست که برای پاکسازی محصولات مضر استفاده میشوند و خود هوشمصنوعی بارها از طریق چرخههای مختلف هیجان، بستهبندی مجدد شده است. در واقع اصطلاح «هوشمصنوعی» که در سال ۱۹۵۵ ابداع شد، همیشه بیشتر یک عبارت بازاریابی بوده تا یک طبقهبندی و سازماندهی مفهومی یا علمی.
برای حفظ آخرین تکرار کلاهبرداری هوش مصنوعی، صنعت بر شعبدهبازی انساننما متکی است. با ادعای اینکه مدلها «فکر میکنند»، «استدلال میکنند» و «یاد میگیرند» تا تواناییهای شناختی را پیشنهاد دهند که آشکارا فاقد آن هستند و ممکن است هرگز توسعه ندهند. این ترفند نهتنها قابلیتهای محصولات را اغراقآمیز میکند بلکه با انسانانگاری دروغین ماشینها، مردم را غیرانسانی میکند. به همین دلیل است که بسیاری از استادان و دانشجویان شروع به رد هوش مصنوعی کردهاند.
در پاسخ، صنعت هوشمصنوعی با سازمانهای دولتی لابی کرده است تا استفاده از محصولات آن را اجباری کنند و ادعا میکنند که بدون آنها، دانشآموزان برای بازار کار آماده نخواهند بود. آنچه واقعا مورد نیاز است، برعکس است: محققان با تخصص در زمینههای مرتبط با هوش مصنوعی باید آزادی انتقاد از این فناوریها را داشته باشند، در حالی که کسانی که در زمینههای دیگر هستند باید بتوانند بدون دخالت شرکتهایی که به دنبال کسب درآمد هستند، تدریس کنند.
برنامههای صنعتی مانند صنعت تنباکو، نفت، داروسازی یا فناوری به ندرت با رفاه انسان یا تحقیقات بیطرف همسو هستند، به ویژه زمانی که کنترل نشده و بدون مقررات باقی بمانند. در عوض، منافع آنها حداکثر کردن سود و قدرت بازار است. صنعت هوش مصنوعی متفاوت نیست و دانشگاهیان باید وعدههای دروغین آن را رد کنند.
الیویا گست* و آیریس ونرویج**
* استادیار علومشناختی محاسباتی در دانشگاه رادبود-**استاد علومشناختی محاسباتی در دانشگاه رادبود