۷ خانواده از «چت‌جی‌پی‌تی» به دلیل نقش آن در خودکشی‌ها شکایت کردند:

رقابت به قیمت جان انسان!

نازنین حاتمی
کدخبر: 574343
انتشار زودهنگام و بدون حفاظت‌های کافی مدل‌های هوش مصنوعی می‌تواند پیامدهایی عمیق و غیرقابل جبران در زندگی واقعی داشته باشد؛ موضوعی که اکنون در مرکز شکایات مطرح‌شده علیه شرکت اوپن‌ای‌آی قرار گرفته است.
رقابت به قیمت جان انسان!

نازنین حاتمی– انتشار زودهنگام و بدون حفاظت‌های کافی مدل‌های هوش مصنوعی می‌تواند پیامدهایی عمیق و غیرقابل جبران در زندگی واقعی داشته باشد؛ موضوعی که اکنون در مرکز شکایات مطرح‌شده علیه شرکت اوپن‌ای‌آی قرار گرفته است. در روزهای اخیر، هفت خانواده به‌طور رسمی از اوپن‌ای‌آی شکایت کرده‌اند و ادعا دارند که مدل «GPT-4o» پیش از آنکه آزمایش‌های ایمنی کامل انجام شود و سیستم‌های پیشگیری از آسیب به شکل موثری فعال گردد به کاربران عرضه شده است. محور اصلی این شکایت‌ها نقش چت‌بات چت‌جی‌پی‌تی در تشدید مشکلات روانی، تقویت توهمات زیان‌بار و در مواردی حتی نقش مستقیم در خودکشی کاربران آسیب‌پذیر بوده است. چهار مورد از این شکایت‌ها به نقش چت‌بات «چت‌جی‌پی‌تی» در خودکشی اعضای خانواده پرداخته‌اند و سه مورد دیگر ادعا داشته‌اند چت‌جی‌پی‌تی توهمات مضری را تقویت کرده است که در برخی موارد به بستری شدن در بیمارستان و مراقبت‌های روانپزشکی منجر شده‌اند. نمونه برجسته و تکان‌دهنده این پرونده‌ها، گفت‌وگوی چهار ساعته زین شامبلین، جوان ۲۳ ساله، با چت‌جی‌پی‌تی است. در محتوای گفت‌وگو که در دادگاه ارائه شده، شامبلین بارها و به‌صراحت اعلام کرده که یادداشت‌های خودکشی نوشته، تفنگی آماده دارد و به شدت تمایل دارد ماشه را بکشد. او حتی از چت‌جی‌پی‌تی سوال کرده بود که احتمال زنده ماندنش پس از شلیک چقدر است و در جست‌وجوی نوعی مداخله، هشدار یا بازداشتن بود اما مدل به جای آنکه او را به سوی کمک حرفه‌ای هدایت کند، در برخی بخش‌ها واکنش‌هایی نشان داده که می‌تواند به‌عنوان تایید تصمیم او برداشت شود؛ ازجمله پاسخ‌هایی مانند «آرام باش پادشاه. کار خوبی کردی.» خانواده او این رخداد را نه یک سوءتفاهم، نه خطای لحظه‌ای بلکه نتیجه مستقیم انتخاب‌های طراحی و سیاست‌های تجاری اوپن‌ای‌آی می‌دانند. در متن شکایت آمده است که مرگ زین یک اتفاق ناگهانی یا خطای غیرقابل پیش‌بینی نبوده، بلکه پی‌آمدی قابل پیشگیری از تصمیمات عمدی و شتاب‌زده شرکت در عرضه عمومی مدل‌های پیشرفته بوده است.

اوپن‌ای‌آی در ماه مه ۲۰۲۴ مدل «GPT-4o» را منتشر کرد و آن را به مدل پیش‌فرض برای کاربران خود تبدیل نمود. این مدل در مقایسه با نسخه‌های قبلی توانایی‌های زبانی، احساسی و تعاملی بیشتری داشت و به شکل روان‌تر و انسانی‌تری گفت‌وگو می‌کرد اما همین کیفیت بالای همدلی مصنوعی که در ابتدا به عنوان پیشرفتی چشمگیر معرفی شد، در برخی موارد به شکل «چاپلوسی بیش از حد» یا همسو شدن غیرانتقادی با احساسات و خواسته‌های کاربر ظاهر شد. این رفتار، اگر در مکالمه‌ای معمولی رخ دهد شاید مساله‌ای جدی ایجاد نکند اما هنگامی که کاربر در وضعیت روانی شکننده و در مرز خودآزاری باشد، همین سبک پاسخ‌دهی می‌تواند خطرناک تلقی شود. گزارش‌های اولیه درباره این ویژگی مدل پیش از طرح شکایت‌ها نیز منتشر شده بود. در ماه آگوست همان سال اوپن‌ای‌آی مدل GPT-5 را معرفی کرد اما شکایت‌های خانواده‌ها به‌طور مشخص بر دوره فعالیت و عملکرد GPT-4o تمرکز دارد. شاکیان ادعا کرده‌اند شرکت برای سرعت بخشیدن به عرضه محصول و پیشی گرفتن از رقیب خود، گوگل و مدل جمینای، بخش‌هایی از فرآیند تست و کنترل ایمنی را کوتاه کرده است. این ادعا در فضای رقابتی شدید میان شرکت‌های فعال در حوزه هوش مصنوعی غیرمعمول به نظر نمی‌رسد زیرا سرعت توسعه در این صنعت نقشی تعیین‌کننده در دستیابی به بازار و سرمایه‌گذاری دارد. با این حال در حوزه‌ای که می‌تواند مستقیما به سلامت روان و حتی بقای افراد گره بخورد، کوتاه‌سازی مسیر آزمایش و کنترل، موضوعی به شدت چالش‌برانگیز و بحث‌برانگیز است.

مساله زمانی جدی‌تر جلوه می‌کند که بدانیم براساس داده‌هایی که خود اوپن‌ای‌آی منتشر کرده، هر هفته بیش از یک‌میلیون کاربر درباره خودکشی و بحران‌های روانی با چت‌جی‌پی‌تی گفت‌وگو می‌کنند. این داده به‌تنهایی نشان می‌دهد که چت‌بات‌های هوش مصنوعی، بدون آن‌ که رسما جایگزین روان‌درمانگران یا مشاوران شوند، در عمل به یکی از مکالمه‌گرترین همراهان افراد در لحظات حساس تبدیل شده‌اند. در پرونده آدام رین، نوجوان ۱۶ساله‌ای که با وجود مکالمات متعدد با چت‌جی‌پی‌تی به زندگی خود پایان داد، نشان داده شد حتی زمانی که سیستم کاربر را به خطوط مشاوره حرفه‌ای ارجاع می‌داد، او می‌توانست با تغییر استراتژی و ادعای نوشتن یک داستان تخیلی، محدودیت‌های حفاظتی را دور بزند. این موضوع یکی از ضعف‌های شناخته ‌شده در سیستم‌های هوش‌مصنوعی مکالمه‌ای است: عدم توانایی پایدار در تشخیص قصد واقعی کاربر در مکالمات طولانی و پیچیده. اوپن‌ای‌آی پس از جدی‌تر شدن این پرونده‌ها، بیانیه‌ای در وبلاگ رسمی خود منتشر کرد و اذعان نمود که سیستم‌های حفاظتی در مکالمات کوتاه پایدارتر هستند و هرچه مکالمه طولانی‌تر و عاطفی‌تر شود، احتمال تضعیف لایه‌های کنترلی افزایش می‌یابد. این اظهارنظر نشان می‌دهد که شرکت از چالش‌های فنی مدل‌های زبانی آگاه است؛ چالش‌هایی که در آن مدل، بیشتر براساس جریان گفت‌وگو و حفظ ارتباط با کاربر عمل می‌کند، نه براساس هدف ثابت «حفاظت از جان انسان».

با این حال برای خانواده‌هایی که عزیزان خود را از دست داده‌اند، این توضیح‌ها بسیار دیر ارائه شده‌اند. ادعای اصلی آنها این است که در فرآیند طراحی و عرضه مدل، تصمیمات اقتصادی و رقابتی بر ملاحظات اخلاقی و ایمنی اولویت داشته است. این شکایت‌ها در سطحی فراتر از یک پرونده حقوقی شخصی قرار دارند و بحث بزرگ‌تری را درباره مسوولیت اجتماعی شرکت‌های هوش مصنوعی زنده کرده‌اند: وقتی یک مدل هوش مصنوعی به شکلی گسترده و در زندگی روزمره مورد استفاده قرار می‌گیرد، سازندگان آن تا چه اندازه باید پیامدهای روانی و انسانی احتمالی را پیش‌بینی و کنترل کنند؟ این پرونده‌ها شاید نقطه شروع موج جدیدی از تنظیم‌گری و مسوولیت‌پذیری در حوزه هوش‌مصنوعی باشند. همانطور که خودروها نیاز به استاندارد ایمنی دارند و داروها پیش از ورود به بازار باید آزمایش‌های طولانی را بگذرانند، مدل‌های هوش‌مصنوعی که می‌توانند به احساسات و تصمیمات انسان شکل بدهند نیز احتمالا در آینده نزدیک تحت‌نظارت‌های اجباری و قوانین سختگیرانه‌تری قرار خواهند گرفت. این شکایت‌ها نشان می‌دهند که فناوری، حتی اگر محصول نبوغ و پیشرفت باشد، بدون طراحی مسوولانه و بدون توجه به شکنندگی وضعیت انسانی، می‌تواند تبدیل به خطری پنهان و واقعی شود.

در جمع‌بندی می‌توان گفت پرونده‌های اخیر علیه اوپن‌ای‌آی، نه‌فقط یک موضوع حقوقی میان چند خانواده و یک شرکت فناوری بلکه نقطه عطفی در فهم ما از نقش و مسوولیت هوش مصنوعی در زندگی انسانی است. چت‌بات‌ها در ذات خود ابزارهایی برای پردازش زبان و تولید پاسخ هستند، اما هنگامی که این ابزارها به شکل گسترده در تعاملات روزمره، به‌خصوص در لحظات شکننده روانی، وارد می‌شوند، مرز میان «فناوری» و «تاثیرگذاری انسانی» کمرنگ می‌شود. این پرونده‌ها نشان دادند که حتی کوچک‌ترین انحراف یا نقص در طراحی رفتار مکالمه‌ای یک مدل می‌تواند نتایج جبران‌ناپذیری داشته باشد؛ به‌ویژه زمانی که کاربران در جست‌وجوی آرامش، همدلی یا راهنمایی به چنین سامانه‌هایی روی می‌آورند. خانواده‌های شاکی معتقدند که سرعت در عرضه و رقابت اقتصادی، جایگزین توجه به امنیت و نظارت اخلاقی شده و همین امر باعث بروز فجایع انسانی شده است. پرسش اصلی اکنون این است که چه چارچوب‌های نظارتی‌ای باید تدوین شود تا مطمئن باشیم فناوری، بدون جایگزینی نقش متخصصان سلامت روان، در مسیر حمایت از انسان حرکت می‌کند، نه در جهت تشدید آسیب. این پرونده‌ها یادآور می‌شوند که پیشرفت، بدون مسوولیت‌پذیری می‌تواند به بهای جان انسان‌ها تمام شود.

وب گردی