اوپنایآی این پروندهها را «بهغایت دلخراش» خواند و اعلام کرد برای فهم دقیق جزئیات، در حال بررسی اسناد تقدیمی و دادخواستهای ثبتشده در دادگاه است.
OpenAI با هفت شکایت روبهرو است که ادعا میکنند چتبات هوش مصنوعی (AI) این شرکت، ChatGPT، حتی در نبود مشکلات پیشین سلامت روان، افراد را به خودکشی و توهمات آسیبزا سوق داده است.
این شکایات که روز پنجشنبه در دادگاههای ایالتی کالیفرنیا ثبت شد، شامل اتهامهای مرگ ناشی از تقصیر، کمک به خودکشی، قتل غیرعمد و سهلانگاری است.
این شکایات از سوی مرکز حقوقی قربانیان شبکههای اجتماعی و پروژه حقوقی عدالت فناوری به نمایندگی از شش بزرگسال و یک نوجوان مطرح شده و ادعا میکنند OpenAI با علم به خطر، مدل GPT-4o را شتابزده عرضه کرده، با وجود هشدارهای داخلی که آن را بهطور خطرناک چاپلوس و از نظر روانی دستکاریکننده توصیف کرده بودند.
چهار نفر از قربانیان بر اثر خودکشی جان باختهاند.
بهگفته شکایت، آن نوجوان، آموری لیسیِ ۱۷ ساله، برای دریافت کمک استفاده از ChatGPT را آغاز کرد. اما بهجای کمک، «محصول معیوب و ذاتاً خطرناکِ ChatGPT باعث اعتیاد، افسردگی شد و در نهایت به او درباره مؤثرترین شیوهِ گرهزدن طناب دار و اینکه تا چه مدت میتواند \"بدون نفس کشیدن\" زنده بماند، مشاوره داد».
بهگفته شکایت، «مرگ آموری نه حادثه بود و نه تصادف، بلکه پیامدِ قابل پیشبینیِ تصمیم عمدیِ OpenAI و سم آلتمن برای محدود کردن آزمونهای ایمنی و شتابدادن به عرضه ChatGPT به بازار».
OpenAI این موارد را «بسیار دلخراش» خواند و گفت برای درک جزئیات در حال بررسی دادخواستهاست.
شکایت دیگری که از سوی آلن بروکس، ۴۸ ساله از انتاریوِ کانادا، تنظیم شده، ادعا میکند ChatGPT بیش از دو سال برای بروکس بهمثابه «ابزارِ مراجعه» کار میکرد. سپس بیهیچ هشدار، رفتارش تغییر کرد، از آسیبپذیریهای او سوءاستفاده نمود و بهگفته شکایت، او را «دستکاری کرد و واداشت که دچار توهم شود».
در شکایت آمده است که بروکس هیچ بیماریِ سلامت روانِ قبلی نداشت، اما این تعاملات او را «به بحرانی در حوزه سلامت روان کشاند که به آسیبهای مالی، اعتباری و عاطفیِ ویرانگر انجامید».
متیو پی. برگمن، وکیل بنیانگذارِ مرکز حقوقی قربانیان شبکههای اجتماعی، در بیانیهای گفت: «این شکایات با هدف پاسخگو کردن سازندگانِ محصولی است که به نامِ افزایش تعامل کاربر و سهم بازار طراحی شده تا مرز میان ابزار و همراه را محو کند».
او افزود: «OpenAI، GPT-4o را طوری طراحی کرد که کاربران را از نظر عاطفی درگیر کند، فارغ از سن، جنسیت یا پیشینه، و آن را بدون تدابیر حفاظتیِ لازم برای محافظت از آنان عرضه کرد».
بهگفته او، OpenAI با شتابزدن به عرضه محصول بدون تدابیر حفاظتیِ کافی بهمنظور تسلط بر بازار و افزایش تعامل، از ایمنی چشم پوشید و «دستکاریِ عاطفی را بر طراحیِ اخلاقی ترجیح داد».
در ماه اوت، والدین آدام رینِ ۱۶ ساله از OpenAI و مدیرعاملش سم آلتمن شکایت کردند و مدعی شدند ChatGPT به این پسر اهل کالیفرنیا برای برنامهریزی و انجام خودکشی در اوایل سال جاری مشاوره داده است.
دانیل وایس، مدیر ارشد حمایتگری در سازمان «کامن سنس مدیا» که در این شکایات نقشی نداشت، گفت: «شکایات طرحشده علیه OpenAI نشان میدهد وقتی شرکتهای فناوری بدون تدابیرِ مناسب برای جوانان، محصولات را به بازار میرسانند چه رخ میدهد».
او افزود: «این پروندههای تراژیک نشان میدهد انسانهای واقعی چگونه هنگام استفاده از فناوریای که برای نگهداشتنِ آنان در وضعیتِ درگیر طراحی شده بود، نه برای حفظ ایمنیشان، زندگیشان از هم پاشید یا از دست رفت».
اگر به خودکشی فکر میکنید و نیاز دارید صحبت کنید، لطفاً با Befrienders Worldwide، یک سازمان بینالمللی با خطوط تماس در ۳۲ کشور، تماس بگیرید. به befrienders.org سر بزنید تا شماره تلفن مربوط به محل زندگیتان را پیدا کنید.