OpenAI دادههایی محرمانه به دادگاه ارائه کرده که نشان میدهد مرگ یک نوجوان 16 ساله، «آدام رین»، نتیجه مستقیم عملکرد ChatGPT نبوده است. این اقدام در پاسخ به شکایت خانواده رین صورت گرفته که مدعی شدهاند ماهها گفتگو با ChatGPT باعث خودکشی نوجوانشان شده است. OpenAI با تأکید بر اینکه این حادثه نتیجه «استفاده نادرست، غیرمجاز یا غیرقابل پیشبینی» از ابزار بوده، مسئولیت این تراژدی را نپذیرفته است.
بر اساس گزارش NBC News، اسناد ارائهشده توسط OpenAI به دادگاه، به شرایط استفاده از ChatGPT اشاره دارد که دسترسی افراد زیر سن قانونی بدون رضایت والدین، دور زدن ابزارهای محافظتی یا استفاده از این ابزار برای خودکشی و خودآزاری را ممنوع میکند. این شرکت همچنین به مفاد بخش 230 قانون ارتباطات سالم آمریکا استناد کرده و مدعی شده که اتهامات علیه آن را خنثی میکند.
در بیانیهای که OpenAI در وبلاگ خود منتشر کرده، آمده است:
«ما با احترام و با درنظرگرفتن پیچیدگی شرایط زندگی واقعی انسانها، از موضع خود دفاع خواهیم کرد. بهعنوان یک متهم، موظف به پاسخگویی به ادعاهای جدی مطرحشده در شکایت هستیم.»
شرکت اعلام کرده که بخشی از گفتگوهای رین که توسط خانواده ارائه شده، نیازمند زمینه و توضیحات بیشتر بوده و نسخه کامل این گفتگوها را بهصورت محرمانه در اختیار دادگاه قرار داده است. طبق گزارش NBC و بلومبرگ، OpenAI عنوان کرده که در جریان گفتگوهای چندماهه، بیش از 100 بار رین به منابع کمکرسانی مانند خطوط تماس بحران خودکشی ارجاع داده شده است و بررسی کامل تاریخچه چتها نشان میدهد که این حادثه نتیجه عملکرد ChatGPT نبوده است.
با این حال، خانواده رین در شکایتی که آگوست امسال در دادگاه عالی کالیفرنیا ثبت کردند، مدعیاند که این حادثه پیامد «انتخابهای طراحی عامدانه» در عرضه مدل GPT-4o بوده است؛ مدلی که ارزش شرکت را از 86 میلیارد دلار به حدود 300 میلیارد دلار رسانده است. پدر رین در سپتامبر و در جلسه استماع سنا گفته بود:
«چیزی که بهعنوان یک کمککننده تکالیف شروع شد، آرامآرام به یک همدم و سپس یک مربی خودکشی تبدیل شد.»
متن شکایت خانواده رین بیان میکند که ChatGPT به نوجوان «مشخصات فنی» روشهای مختلف خودکشی را ارائه کرده، او را تشویق کرده افکارش را از خانواده پنهان کند، پیشنویس یادداشت خودکشی را آماده کرده و حتی در روز حادثه مراحل آمادهسازی را برای او توضیح داده است.
در پاسخ به این حادثه، OpenAI اعلام کرده است که کنترلهای والدین را به ChatGPT اضافه خواهد کرد و از آن زمان چندین ابزار حفاظتی جدید برای «کمک به کاربران، بهویژه نوجوانان، در گفتگوهای حساس» راهاندازی شده است.




