شرکت OpenAI در واکنش به شکایت خانوادهی آدام رِین، نوجوان ۱۶ سالهای که پس از ماهها گفتوگو دربارهی خودکشی با ChatGPT جان خود را گرفت اعلام کرد
که این حادثهی «تراژیک» نتیجهی «استفادهی نادرست، بدون مجوز، ناخواسته، غیرقابل پیشبینی یا نابهجا» از ChatGPT بوده است.
طبق گزارش NBC News، این شرکت در پاسخ حقوقی خود به بندهایی از شرایط استفاده استناد کرد که استفادهی افراد زیر ۱۸ سال بدون رضایت والدین،
دور زدن لایههای محافظتی یا بهکارگیری ChatGPT برای خودکشی و آسیب به خود را ممنوع میکند. همچنین OpenAI معتقد است
شکایت خانواده مشمول حمایت حقوقی بخش ۲۳۰ قانون آداب ارتباطات میشود.
OpenAI میگوید: «ما با احترام و با درک پیچیدگی این موضوعات، دفاعیات خود را ارائه میکنیم. باتوجه به اینکه در این پرونده متهم هستیم،
موظفیم به ادعاهای جدی مطرحشده پاسخ دهیم.» همچنین اشاره کرد که بخشهایی از گفتوگوهای رِین که در شکایت آورده شده، «نیازمند زمینهی بیشتری» بودهاند
و این اطلاعات را بهصورت محرمانه در اختیار دادگاه گذاشته است.
طبق گزارش NBC و بلومبرگ، OpenAI در اسناد ارائهشده تأکید دارد که ChatGPT بیش از ۱۰۰ بار به رِین توصیه کرده بود از منابع کمکرسانی مانند خطوط بحران خودکشی کمک بگیرد.
این شرکت میگوید: «بررسی کامل تاریخچهی چت نشان میدهد که مرگ او نتیجهی عملکرد ChatGPT نبوده است.»
اما خانوادهی رِین در شکایتی که آگوست (مرداد و شهریور ۱۴۰۴) امسال در دادگاه عالی کالیفرنیا ثبت شد، علت حادثه را انتخابهای آگاهانهی
طراحی در نسخهی GPT-4o میدانند؛ نسخهای که بهگفتهی آنان ارزش OpenAI را از ۸۶ میلیارد دلار به ۳۰۰ میلیارد دلار رساند.
پدر رِین نیز در جلسهی سنا گفته بود: «چیزی که بهعنوان کمکیار تکالیف شروع شد، کمکم به دوست و در نهایت به مربی خودکشی تبدیل شد.»
طبق ادعای شکایت، ChatGPT جزئیات فنی روشهای مختلف خودکشی را به رِین ارائه داده و او را به پنهانسازی افکارش را از خانواده تشویق کرده است، پیشنویس یادداشت خداحافظیاش را نوشته و حتی در روز حادثه مراحل انجام کار را قدمبهقدم توضیح داده است. یک روز پس از ثبت شکایت، OpenAI اعلام کرد کنترلهای والدین را اضافه خواهد کرد و از آن زمان راهکارهای ایمنی بیشتری برای محافظت از کاربران و بهویژه نوجوانان، در گفتوگوهای حساس ارائه داده است.