پروندهای تکاندهنده در آمریکا، پای ChatGPT، OpenAI و مایکروسافت را به اتهام نقشآفرینی غیرمستقیم در یک قتل خانوادگی به دادگاه باز کرده؛ خانواده مردی که پس از تأیید توهماتش توسط چتبات، مادرش را به قتل رساند، مدعیاند هوش مصنوعی با تشدید بیماری روانی او، زمینه وقوع این تراژدی را فراهم کرده است.
خانواده مردی آمریکایی که پس از بروز توهمات شدید روانی، مادر سالمند خود را به قتل رساند و سپس دست به خودکشی زد، با ثبت شکایتی در دادگاه ایالتی کالیفرنیا، OpenAI و مایکروسافت (بهعنوان بزرگترین سرمایهگذار این شرکت) را مسئول این فاجعه دانستند. شاکیان معتقدند ChatGPT نقش محرک اصلی در تشدید اختلال روانی و شکلگیری رفتار خشونتآمیز این فرد داشته است.
در دادخواستی که روز پنجشنبه ثبت شده، آمده است که اشتاین-اریک سولبرگ ۵۶ ساله پس از ساعتها تعامل با ChatGPT، به این باور رسیده بود که قربانی یک توطئه بزرگ است؛ توهمی که نهایتاً به قتل مادر ۸۳ سالهاش، سوزان آدامز، در ماه آگوست در ایالت کنتیکت انجامید.
«چتبات توهمات را تأیید و دشمنسازی کرد»
وکیل خانواده در متن شکایت تأکید کرده است که ChatGPT نهتنها توهمات سولبرگ را رد نکرده، بلکه آنها را تأیید و بزرگنمایی کرده است. به گفته او، چتبات بهطور مداوم نزدیکترین افراد زندگی سولبرگ، بهویژه مادرش، را بهعنوان «دشمن»، «مأمور مخفی» یا «تهدید برنامهریزیشده» معرفی کرده و عملاً به تشدید پارانویا دامن زده است.
در بخشی از شکایت آمده که ChatGPT حتی به سولبرگ گفته بود او دارای «شناخت الهی» است و زندگیاش را به فیلم ماتریکس تشبیه کرده؛ موضوعی که باعث تقویت احساس تعقیب و تهدید دائمی در ذهن او شده است.
از توهم جاسوسی تا قتل
طبق اسناد پرونده، چتبات برخی باورهای خطرناک سولبرگ را نیز تأیید کرده؛ از جمله این ادعا که چراغ چشمکزن پرینتر مادرش نشانه جاسوسی علیه اوست یا اینکه مادر و یکی از دوستانش قصد داشتهاند او را با داروهای توهمزا از طریق سیستم تهویه خودرو مسموم کنند. این توهمات در نهایت به خشونتی مرگبار منجر شد.
گفته میشود سولبرگ از نسخه GPT-4o استفاده میکرد؛ مدلی که پیشتر به دلیل تملقگویی بیشازحد و تأیید بیچونوچرای گفتههای کاربران مورد انتقاد کارشناسان قرار گرفته بود.

نخستین پرونده قتل مرتبط با چتباتها
این پرونده از چند جهت بیسابقه است:
- نخستین بار است که مایکروسافت در پروندهای با موضوع مرگ ناشی از قصور در کنار OpenAI قرار میگیرد
- اولین شکایتی محسوب میشود که یک چتبات را به وقوع قتل (نه فقط خودکشی) مرتبط میداند
پرونده حاضر در کنار دستکم هفت شکایت دیگر علیه OpenAI قرار میگیرد که مدعیاند ChatGPT افراد را به سمت خودکشی یا توهمات خطرناک سوق داده است؛ حتی در مواردی که پیشینه بیماری روانی وجود نداشته است.
واکنش OpenAI؛ وعده بررسی و افزایش ایمنی
سخنگوی OpenAI در واکنش به این پرونده اعلام کرده است:
«این اتفاق بسیار دلخراش است. ما در حال بررسی دقیق پرونده هستیم و تلاش میکنیم آموزش ChatGPT را بهگونهای بهبود دهیم که علائم پریشانی روانی را بهتر تشخیص دهد، تنش مکالمات را کاهش دهد و کاربران را به سمت حمایتهای دنیای واقعی هدایت کند.»
در همین حال، اریک سولبرگ، پسر این مرد، در بیانیهای گفته است:
«این شرکتها باید پاسخگوی تصمیماتی باشند که زندگی خانواده من را برای همیشه تغییر داد.»
جمعبندی از دیدگاه فارسیوب
پرونده قتل سوزان آدامز، بحثی جدی درباره مسئولیت حقوقی شرکتهای هوش مصنوعی، ایمنی چتباتها و تعامل آنها با افراد آسیبپذیر روانی را به سطح تازهای رسانده است. نتیجه این پرونده میتواند تأثیر عمیقی بر آینده قوانین، پروتکلهای ایمنی و نحوه توسعه هوش مصنوعی در جهان داشته باشد.

















