ChatGPT زیر تیغ اتهام؛ تأیید توهمات مردی که مادرش را کشت

ChatGPT زیر تیغ اتهام

پرونده‌ای تکان‌دهنده در آمریکا، پای ChatGPT، OpenAI و مایکروسافت را به اتهام نقش‌آفرینی غیرمستقیم در یک قتل خانوادگی به دادگاه باز کرده؛ خانواده مردی که پس از تأیید توهماتش توسط چت‌بات، مادرش را به قتل رساند، مدعی‌اند هوش مصنوعی با تشدید بیماری روانی او، زمینه وقوع این تراژدی را فراهم کرده است.

خانواده مردی آمریکایی که پس از بروز توهمات شدید روانی، مادر سالمند خود را به قتل رساند و سپس دست به خودکشی زد، با ثبت شکایتی در دادگاه ایالتی کالیفرنیا، OpenAI و مایکروسافت (به‌عنوان بزرگ‌ترین سرمایه‌گذار این شرکت) را مسئول این فاجعه دانستند. شاکیان معتقدند ChatGPT نقش محرک اصلی در تشدید اختلال روانی و شکل‌گیری رفتار خشونت‌آمیز این فرد داشته است.

در دادخواستی که روز پنج‌شنبه ثبت شده، آمده است که اشتاین-اریک سولبرگ ۵۶ ساله پس از ساعت‌ها تعامل با ChatGPT، به این باور رسیده بود که قربانی یک توطئه بزرگ است؛ توهمی که نهایتاً به قتل مادر ۸۳ ساله‌اش، سوزان آدامز، در ماه آگوست در ایالت کنتیکت انجامید.

«چت‌بات توهمات را تأیید و دشمن‌سازی کرد»

وکیل خانواده در متن شکایت تأکید کرده است که ChatGPT نه‌تنها توهمات سولبرگ را رد نکرده، بلکه آن‌ها را تأیید و بزرگ‌نمایی کرده است. به گفته او، چت‌بات به‌طور مداوم نزدیک‌ترین افراد زندگی سولبرگ، به‌ویژه مادرش، را به‌عنوان «دشمن»، «مأمور مخفی» یا «تهدید برنامه‌ریزی‌شده» معرفی کرده و عملاً به تشدید پارانویا دامن زده است.

در بخشی از شکایت آمده که ChatGPT حتی به سولبرگ گفته بود او دارای «شناخت الهی» است و زندگی‌اش را به فیلم ماتریکس تشبیه کرده؛ موضوعی که باعث تقویت احساس تعقیب و تهدید دائمی در ذهن او شده است.

از توهم جاسوسی تا قتل

طبق اسناد پرونده، چت‌بات برخی باورهای خطرناک سولبرگ را نیز تأیید کرده؛ از جمله این ادعا که چراغ چشمک‌زن پرینتر مادرش نشانه جاسوسی علیه اوست یا اینکه مادر و یکی از دوستانش قصد داشته‌اند او را با داروهای توهم‌زا از طریق سیستم تهویه خودرو مسموم کنند. این توهمات در نهایت به خشونتی مرگبار منجر شد.

گفته می‌شود سولبرگ از نسخه GPT-4o استفاده می‌کرد؛ مدلی که پیش‌تر به دلیل تملق‌گویی بیش‌ازحد و تأیید بی‌چون‌وچرای گفته‌های کاربران مورد انتقاد کارشناسان قرار گرفته بود.

اتهام چت‌جی‌پی‌تی

نخستین پرونده قتل مرتبط با چت‌بات‌ها

این پرونده از چند جهت بی‌سابقه است:

  • نخستین بار است که مایکروسافت در پرونده‌ای با موضوع مرگ ناشی از قصور در کنار OpenAI قرار می‌گیرد
  • اولین شکایتی محسوب می‌شود که یک چت‌بات را به وقوع قتل (نه فقط خودکشی) مرتبط می‌داند

پرونده حاضر در کنار دست‌کم هفت شکایت دیگر علیه OpenAI قرار می‌گیرد که مدعی‌اند ChatGPT افراد را به سمت خودکشی یا توهمات خطرناک سوق داده است؛ حتی در مواردی که پیشینه بیماری روانی وجود نداشته است.

واکنش OpenAI؛ وعده بررسی و افزایش ایمنی

سخنگوی OpenAI در واکنش به این پرونده اعلام کرده است:
«این اتفاق بسیار دلخراش است. ما در حال بررسی دقیق پرونده هستیم و تلاش می‌کنیم آموزش ChatGPT را به‌گونه‌ای بهبود دهیم که علائم پریشانی روانی را بهتر تشخیص دهد، تنش مکالمات را کاهش دهد و کاربران را به سمت حمایت‌های دنیای واقعی هدایت کند.»

در همین حال، اریک سولبرگ، پسر این مرد، در بیانیه‌ای گفته است:
«این شرکت‌ها باید پاسخگوی تصمیماتی باشند که زندگی خانواده من را برای همیشه تغییر داد.»

جمع‌بندی از دیدگاه فارسی‌وب

پرونده قتل سوزان آدامز، بحثی جدی درباره مسئولیت حقوقی شرکت‌های هوش مصنوعی، ایمنی چت‌بات‌ها و تعامل آن‌ها با افراد آسیب‌پذیر روانی را به سطح تازه‌ای رسانده است. نتیجه این پرونده می‌تواند تأثیر عمیقی بر آینده قوانین، پروتکل‌های ایمنی و نحوه توسعه هوش مصنوعی در جهان داشته باشد.

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *