کاربران نباید اطلاعات حساس خود را با «ChatGPT» در میان بگذارند

جهانصنعت– سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوشمصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفتوگوهای حساس پیدا نکرده است. به گفته او، هنگامی که از چتباتها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده میکنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد. مدیرعامل OpenAI اظهارات خود را در قسمت جدید پادکست «This Past Weekend» بیان کرده است. در پاسخ به پرسشی درباره تعامل هوشمصنوعی با سیستمهای قانونی فعلی، آلتمن میگوید: یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاستگذاری مشخص برای هوشمصنوعی، این است که برای گفتوگوهای کاربران با این فناوری، محرمانگی قانونی وجود ندارد. او در این رابطه میگوید: «مردم خصوصیترین مسائل زندگی خود را با ChatGPT در میان میگذارند. مردم و بهویژه افراد جوانتر از آن بهعنوان یک درمانگر و مربی زندگی استفاده میکنند و مشکلات عاطفی خود را مطرح میکنند اما اگر با یک درمانگر، وکیل یا پزشکی[واقعی] در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.» بهگفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع میتواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود چراکه درحالحاضر OpenAI از نظر قانونی موظف است محتوای این گفتوگوها را در صورت نیاز ارائه کند. او در این بخش از سخنان خود گفته است: «اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. بهنظر من این شرایط نگرانکننده است. مکالمات کاربران با چتباتها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار میرود.» بهعنوان مثال، OpenAI هماکنون در پرونده نیویورکتایمز، درحال مبارزه با حکمی است که این شرکت را مجبور میکند مکالمات ۱۰۰هامیلیون کاربر ChatGPT در سراسر جهان بهجز کاربران نسخه «Enterprise»را ذخیره کند. OpenAI در بیانیهای در وبسایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیادهخواهی» خوانده است.