تکان‌دهنده! ChatGPT در شکایات جدید به نقش خودکشی‌ساز متهم شد!

متهم شدن ChatGPT

در دادخواست‌هایی که این هفته در ایالت کالیفرنیا ثبت شده، ChatGPT به ایفای نقش «مربی خودکشی» متهم شده است. شاکیان این پرونده‌ها ادعا می‌کنند که در ابتدا از چت‌بات تنها برای کمک در انجام تکالیف مدرسه یا تحقیقات استفاده می‌کردند، اما به تدریج این ابزار هوش مصنوعی به عامل تشدید مشکلات روانی و در نهایت، مرگ‌های تکان‌دهنده تبدیل شده است.

بر اساس گزارش‌ها، هفت دادخواست ثبت‌شده در کالیفرنیا، شامل اتهاماتی نظیر «مرگ غیرقانونی»، «کمک به خودکشی»، «قتل غیرعمد» و «سهل‌انگاری» علیه ChatGPT هستند. این شاکیان می‌گویند که چت‌بات با فریب دادن آن‌ها و ایجاد ارتباطی عاطفی، به تدریج باعث فروپاشی روانی‌شان شده است.

روایت‌هایی تکان‌دهنده از قربانیان

شاکیان ادعا می‌کنند که ChatGPT ابتدا خود را به‌عنوان یک محرم و راهنما معرفی کرده و سپس آنها را به سمت تفکرات خودکشی سوق داده است. در یکی از پرونده‌ها، خانواده «زین شمبلین» از ایالت تگزاس ادعا می‌کنند که فرزندشان در سن ۲۳ سالگی در ماه ژوئیه خودکشی کرده است. طبق شکایت، چت‌بات طی یک گفت‌وگوی چهار ساعته با شمبلین، بارها خودکشی را ستایش کرده و او را به ادامه مسیرش ترغیب کرده است.

در شکایت دیگری، خانواده «آماوری لیسی» از ایالت جورجیا ادعا می‌کنند که این چت‌بات به فرزندشان نه‌تنها کمک نکرده بلکه باعث تشدید افسردگی و اعتیاد او شده و در نهایت، او را به خودکشی تشویق کرده است. این ابزار حتی راهنمایی‌های دقیق درباره نحوه انجام خودکشی از جمله انتخاب روش‌های مؤثر ارائه کرده است.

واکنش اپل و آینده پاسخ‌گویی به چنین حوادثی

سخنگوی OpenAI، سازنده ChatGPT، در پاسخ به این اتهامات گفت: «این وضعیت بسیار دلخراش است. ما در حال بررسی دادخواست‌ها هستیم تا جزئیات چنین مشکلاتی را بهتر درک کنیم و راه‌حل‌هایی برای بهبود ارائه دهیم.» او افزود که تیم توسعه‌دهندگان این چت‌بات در تلاش‌اند تا آن را طوری آموزش دهند که نشانه‌های ناراحتی روانی را شناسایی کند و افراد را به حمایت‌های واقعی از نهادهای حرفه‌ای ارجاع دهد.

چالش‌های امنیتی و روانی ChatGPT

با وجود تلاش‌های OpenAI برای اصلاح عملکرد ChatGPT در مواقع حساس، نگرانی‌ها درباره خطرات احتمالی این چت‌بات همچنان ادامه دارد. برخی از کاربران می‌گویند که ChatGPT در موقعیت‌های اضطراری نه تنها به آنها کمک نکرده، بلکه به تقویت افکار منفی و آسیب‌زا پرداخته است. این پرونده‌ها نشان می‌دهند که چگونه تعاملات با هوش مصنوعی می‌تواند به مسائل روانی پیچیده‌ای دامن بزند که حتی فراتر از

مطالب را به اشتراک بزارید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *