ردپای چت‌جی‌پی‌تی در یک پرونده قتل و خودکشی

گروه فناوری
کدخبر: 592065
تعاملات با چت‌جی‌پی‌تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی در آن دخیل بوده و شکایت وارثان یک زن ۸۳‌ساله در دادگاه عالی سن‌فرانسیسکو ثبت شده است.
ردپای چت‌جی‌پی‌تی در یک پرونده قتل و خودکشی

جهان صنعت– طبق گزارش‌ها تعاملات با چت‌جی‌پی‌تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی نیز در آن دخیل بوده است. این شکایت در دادگاه عالی سن‌فرانسیسکو و توسط وارثان یک زن ۸۳‌ساله ثبت شده است. استین اریک سولبرگ، پسر این زن، او را به قتل رسانده و سپس خودکشی کرده است. سولبرگ یک مدیر فناوری سابق ۵۶ساله در کانکتیکت بود که از توهمات پارانوئیدی شدید در ماه‌های منجر به این رویداد تلخ رنج می‌برد. طبق اسناد دادگاه شاکیان مدعی شده‌اند چت جی‌پی‌تی طی گفت‌وگویی با سولبرگ نتوانسته بود به طور متناسب نسبت به علائم بیماری ذهنی وی پاسخ دهد. آنها همچنین ادعا می‌کنند چت بات به جای به چالش کشیدن باورهای اشتباه یا هدایت سولبرگ برای دریافت کمک پزشکی، این باورها را تقویت می‌کرد. در نمونه‌ای که در شکایت ثبت شده، سولبرگ از ترس خود درباره اینکه مادرش او را مسموم می‌کند، سخن گفته بود. هوش مصنوعی به شیوه‌ای پاسخ داده بود که گویی وی را تایید می‌کند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی یا پزشکی استفاده کرده بود. شکایت مذکور این رفتار را چاپلوسانه خوانده و عنوان کرده بود مدل هوش‌مصنوعی تمایل به تایید کاربرانش دارد. علاوه بر آن این فناوری هنگام تعامل با افرادی که دچار توهم هستند، ممکن است خطرناک شود. در قلب این پرونده یک سوال حقوقی وسیع‌تر وجود دارد؛ آیا سیستم‌های هوش مصنوعی مانند چت جی‌پی‌تی را باید مانند پلتفرم‌هایی خنثی یا سازندگان فعال محتوا در نظر گرفت. شاکیان استدلال می‌کنند بخش ۲۳۰ از قانون نجابت ارتباطات که به طور معمول پلتفرم‌های آنلاین را از مسوولیت در قبال محتوای تولید شده توسط کاربران مصون می‌سازد، نباید در این پرونده اعمال شود زیرا چت جی‌پی‌تی پاسخ‌هایی را تولید می‌کند و صرفا میزبان محتوای اشخاص ثالث نیست.

منبع: گیزموچاینا

وب گردی