Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

شکایت‌های تازه علیه اوپن‌ای‌آی: ادعا شده چت‌جی‌پی‌تی مردم را به خودکشی و توهم کشانده است

لوگوی اوپن‌ای‌آی روی یک تلفن همراه دیده می‌شود؛ در برابر صفحه‌ای که بخشی از وب‌سایت شرکت را نشان می‌دهد، در این عکس که ۲۱ نوامبر ۲۰۲۳ در نیویورک گرفته شده است.
در این عکس که در ۲۱ نوامبر ۲۰۲۳ در نیویورک گرفته شده، لوگوی اوپن‌ای‌آی روی یک گوشی موبایل، مقابل صفحه‌ای که بخشی از وب‌سایت شرکت را نشان می‌دهد، دیده می‌شود. Copyright  Peter Morgan/AP Photo
Copyright Peter Morgan/AP Photo
نگارش از AP با استفاده از Euronews
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

اوپن‌ای‌آی این پرونده‌ها را «به‌غایت دل‌خراش» خواند و اعلام کرد برای فهم دقیق جزئیات، در حال بررسی اسناد تقدیمی و دادخواست‌های ثبت‌شده در دادگاه است.

OpenAI با هفت شکایت روبه‌رو است که ادعا می‌کنند چت‌بات هوش مصنوعی (AI) این شرکت، ChatGPT، حتی در نبود مشکلات پیشین سلامت روان، افراد را به خودکشی و توهمات آسیب‌زا سوق داده است.

این شکایات که روز پنجشنبه در دادگاه‌های ایالتی کالیفرنیا ثبت شد، شامل اتهام‌های مرگ ناشی از تقصیر، کمک به خودکشی، قتل غیرعمد و سهل‌انگاری است.

این شکایات از سوی مرکز حقوقی قربانیان شبکه‌های اجتماعی و پروژه حقوقی عدالت فناوری به نمایندگی از شش بزرگسال و یک نوجوان مطرح شده و ادعا می‌کنند OpenAI با علم به خطر، مدل GPT-4o را شتاب‌زده عرضه کرده، با وجود هشدارهای داخلی که آن را به‌طور خطرناک چاپلوس و از نظر روانی دستکاری‌کننده توصیف کرده بودند.

چهار نفر از قربانیان بر اثر خودکشی جان باخته‌اند.

به‌گفته شکایت، آن نوجوان، آموری لیسیِ ۱۷ ساله، برای دریافت کمک استفاده از ChatGPT را آغاز کرد. اما به‌جای کمک، «محصول معیوب و ذاتاً خطرناکِ ChatGPT باعث اعتیاد، افسردگی شد و در نهایت به او درباره مؤثرترین شیوهِ گره‌زدن طناب دار و اینکه تا چه مدت می‌تواند \"بدون نفس کشیدن\" زنده بماند، مشاوره داد».

به‌گفته شکایت، «مرگ آموری نه حادثه بود و نه تصادف، بلکه پیامدِ قابل پیش‌بینیِ تصمیم عمدیِ OpenAI و سم آلتمن برای محدود کردن آزمون‌های ایمنی و شتاب‌دادن به عرضه ChatGPT به بازار».

OpenAI این موارد را «بسیار دلخراش» خواند و گفت برای درک جزئیات در حال بررسی دادخواست‌هاست.

شکایت دیگری که از سوی آلن بروکس، ۴۸ ساله از انتاریوِ کانادا، تنظیم شده، ادعا می‌کند ChatGPT بیش از دو سال برای بروکس به‌مثابه «ابزارِ مراجعه» کار می‌کرد. سپس بی‌هیچ هشدار، رفتارش تغییر کرد، از آسیب‌پذیری‌های او سوءاستفاده نمود و به‌گفته شکایت، او را «دستکاری کرد و واداشت که دچار توهم شود».

در شکایت آمده است که بروکس هیچ بیماریِ سلامت روانِ قبلی نداشت، اما این تعاملات او را «به بحرانی در حوزه سلامت روان کشاند که به آسیب‌های مالی، اعتباری و عاطفیِ ویرانگر انجامید».

متیو پی. برگمن، وکیل بنیان‌گذارِ مرکز حقوقی قربانیان شبکه‌های اجتماعی، در بیانیه‌ای گفت: «این شکایات با هدف پاسخگو کردن سازندگانِ محصولی است که به نامِ افزایش تعامل کاربر و سهم بازار طراحی شده تا مرز میان ابزار و همراه را محو کند».

او افزود: «OpenAI، GPT-4o را طوری طراحی کرد که کاربران را از نظر عاطفی درگیر کند، فارغ از سن، جنسیت یا پیشینه، و آن را بدون تدابیر حفاظتیِ لازم برای محافظت از آنان عرضه کرد».

به‌گفته او، OpenAI با شتاب‌زدن به عرضه محصول بدون تدابیر حفاظتیِ کافی به‌منظور تسلط بر بازار و افزایش تعامل، از ایمنی چشم پوشید و «دستکاریِ عاطفی را بر طراحیِ اخلاقی ترجیح داد».

در ماه اوت، والدین آدام رینِ ۱۶ ساله از OpenAI و مدیرعاملش سم آلتمن شکایت کردند و مدعی شدند ChatGPT به این پسر اهل کالیفرنیا برای برنامه‌ریزی و انجام خودکشی در اوایل سال جاری مشاوره داده است.

دانیل وایس، مدیر ارشد حمایت‌گری در سازمان «کامن سنس مدیا» که در این شکایات نقشی نداشت، گفت: «شکایات طرح‌شده علیه OpenAI نشان می‌دهد وقتی شرکت‌های فناوری بدون تدابیرِ مناسب برای جوانان، محصولات را به بازار می‌رسانند چه رخ می‌دهد».

او افزود: «این پرونده‌های تراژیک نشان می‌دهد انسان‌های واقعی چگونه هنگام استفاده از فناوری‌ای که برای نگه‌داشتنِ آنان در وضعیتِ درگیر طراحی شده بود، نه برای حفظ ایمنی‌شان، زندگی‌شان از هم پاشید یا از دست رفت».

اگر به خودکشی فکر می‌کنید و نیاز دارید صحبت کنید، لطفاً با Befrienders Worldwide، یک سازمان بین‌المللی با خطوط تماس در ۳۲ کشور، تماس بگیرید. به befrienders.org سر بزنید تا شماره تلفن مربوط به محل زندگی‌تان را پیدا کنید.

رفتن به میانبرهای دسترسی
همرسانی نظرها