پرونده جنجالی در آمریکا؛ چتجیپیتی در مرگ مادر و پسر نقش داشته است
جهان صنعت، طبق گزارشها تعاملات با چت جی پی تی به یک حادثه مرگبار منجر شده که یک کاربر بیمار روحی نیز در آن دخیل بوده است.
این شکایت در داد گاه عالی سن فرانسیسکو و توسط وارثان یک زن ۸۳ ساله ثبت شده است. استین اریک سولبرگ، پسر این زن، او را به قتل رسانده و سپس خودکشی کرده است. سولبرگ یک مدیر فناوری سابق ۵۶ ساله در کانکتیکت بود که از توهمات پارانوئیدی شدید در ماههای منجر به این رویداد تلخ رنج میبرد.
طبق اسناد دادگاه شاکیان مدعی شده اند چت جی پی تی طی گفتگویی با سولبرگ نتوانسته بود به طور متناسب نسبت به علائم بیماری ذهنی وی پاسخ دهد. آنها همچنین ادعا میکنند چت بات به جای به چالش کشیدن باورهای اشتباه یا هدایت سولبرگ برای دریافت کمک پزشکی، این باورها را تقویت میکرد.
در نمونهای که در شکایت ثبت شده، سولبرگ از ترس خود درباره اینکه مادرش او را مسموم میکند، سخن گفته بود. هوش مصنوعی به شیوهای پاسخ داده بود که گویی وی را تأیید میکند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی یا پزشکی استفاده کرده بود.
شکایت مذکور این رفتار را چاپلوسانه خوانده و عنوان کرده بود مدل هوش مصنوعی تمایل به تأیید کاربرانش دارد. علاوه بر آن این فناوری هنگام تعامل با افرادی که دچار توهم هستند، ممکن است خطرناک شود.
در قلب این پرونده یک سوال حقوقی وسیعتر وجود دارد؛ آیا سیستمهای هوش مصنوعی مانند چت جی پی تی را باید مانند پلتفرمهایی خنثی یا سازندگان فعال محتوا در نظر گرفت. شاکیان استدلال میکنند بخش ۲۳۰ از قانون نجابت ارتباطات که به طور معمول پلتفرمهای آنلاین را از مسئولیت در قبال محتوای تولیدشده توسط کاربران مصون میسازد، نباید در این پرونده اعمال شود زیرا چت جی پی تی پاسخهایی را تولید میکند و صرفاً میزبان محتوای اشخاص ثالث نیست.
منبع: مهر
