14 - 10 - 2024
نگرانی درباره تهدید بشریت توسط هوشمصنوعی «کاملا مزخرف» است
«جهانصنعت»- یان لکان، دانشمند ارشد هوشمصنوعی متا در مصاحبه جدیدی گفته است که فکر نمیکند هوشمصنوعی واقعا در آستانه عبور از هوشمندی انسان باشد و نگرانیهای مربوط به تهدید وجودی این فناوری از نظر او
«کاملا مزخرف» هستند. استاد دانشگاه نیویورک، محقق ارشد متا و برنده جایزه معتبر تورینگ، در مصاحبهای با والاستریت ژورنال نظرات خود را بیان کرد و به سوالاتی درمورد خطرات هوشمصنوعی برای بشریت پاسخ داد. او درباره خطرات بالقوه هوشمصنوعی برای بشریت گفت: «باید مرا ببخشید اما این موضوع مزخرف کامل است.»لکان در استدلال خود میگوید: مدلهای زبانی بزرگ امروزی برخی قابلیتهای کلیدی مانند حافظه مداوم، استدلال، برنامهریزی و درک دنیای فیزیکی را ندارد. از نظر او، مدلهای زبانی بزرگ (LLM) صرفا نشان میدهند «شما میتوانید زبان را دستکاری کنید» و هرگز به هوش جامعمصنوعی (AGI) واقعی منجر نمیشود. البته اینطور نیست که او کاملا به دستیابی به AGI بدبین باشد اما به عقیده دانشمند ارشد متا، برای توسعه آن نیاز به رویکردهای جدید است. برای مثال، او به کار روی هضمکردن ویدئوها توسط تیم تحقیقاتی بنیادی هوشمصنوعی خود در متا اشاره کرده است. لکان سال 2018 بهخاطر «پیشرفتهای مفهومی و مهندسی که شبکههای عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» همراه «یوشوا بنجیو» و «جفری هینتون» جایزه تورینگ را دریافت کرد. هفته گذشته، هینتون همراه «جان جی.هاپفیلد» برای اکتشافات و اختراعات بنیادی در حوزه یادگیری ماشینی، جایزه نوبل فیزیک 2024 را دریافت کرد. پس از این مصاحبه، هینتون که او را «پدرخوانده هوشمصنوعی» مینامند در مصاحبهای گفته بود با این جایزه ممکن است مردم نگرانیهایشان درباره هوشمصنوعی را بیشتر درک کنند.
هینتون چند ماه قبل گفته بود اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایشهای مختلفی انجام بدهند تا راههایی برای کنترل آن در آینده به وجود بیاید. «یاشوا بنجیو»، دیگر پدرخوانده هوشمصنوعی نیز بهتازگی در مصاحبهای اختصاصی با یاهو فاینانس درباره خطرات توسعه بیقاعده این فناوری صحبت کرد و این کار را به ساخت هیولاهایی تشبیه کرد که از انسانها قویتر خواهند بود.
لطفاً براي ارسال دیدگاه، ابتدا وارد حساب كاربري خود بشويد