Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

گوگل و استارت‌آپ چت‌بات Character.AI شکایت‌های مرتبط با خودکشی نوجوانان را حل‌وفصل می‌کنند

عکس آرشیوی - یک پسر نوجوان با ساخت یک همدم هوش مصنوعی در پلتفرم Character.AI قابلیت‌های هوش مصنوعی را نشان می‌دهد.
عکس آرشیوی: یک پسر نوجوان با ساخت یک همراه هوش مصنوعی در Character.AI قابلیت‌های هوش مصنوعی را به نمایش می‌گذارد. Copyright  AP Photo/Katie Adkins
Copyright AP Photo/Katie Adkins
نگارش از Euronews with AP
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

این توافق‌ها از نخستین پرونده‌ها در سلسله‌ای از دعاوی حقوقی هستند که در آن شرکت‌های هوش مصنوعی به سهل‌انگاری در مرگ‌های به‌ناحق نوجوانان متهم می‌شوند.

گوگل و شرکت سازنده چت‌بات‌های هوش‌مصنوعی Character Technologies با سازش در یک شکایت از سوی مادری در ایالت فلوریدای آمریکا موافقت کرده‌اند. این مادر ادعا کرده بود یک چت‌بات پسر نوجوانش را به خودکشی ترغیب کرده است.

طبق اسناد دادگاه که این هفته ثبت‌شده، وکلای این دو شرکت فناوری همچنین با سازش در چند شکایت دیگر که در ایالت‌های کلرادو، نیویورک و تگزاس از سوی خانواده‌هایی مطرح شده بود موافقت کردند. این خانواده‌ها مدعی‌اند چت‌بات‌های Character.AI به فرزندانشان آسیب زده است.

هیچ‌یک از اسناد جزئیات شروط سازش را فاش نمی‌کنند و این توافق‌ها هنوز باید به تایید قضات برسد.

در دادخواست‌های علیه Character Technologies، شرکت سازنده همراهان هوش‌مصنوعی Character.AI، گوگل نیز به عنوان خوانده نام‌برده شده زیرا پس از استخدام هم‌بنیان‌گذاران این استارت‌آپ در سال ۲۰۲۴ با آن ارتباط پیدا کرد.

قصور و مرگ غیرقانونی

شکایت فلوریدا در اکتبر ۲۰۲۴ از سوی مگان گارسیا ثبت شد. او دو شرکت را به قصوری متهم کرده که به مرگ غیرقانونی پسر نوجوانش انجامید.

گارسیا مدعی شد پسر ۱۴ ساله‌اش، سوول سترز سوم، قربانی یکی از چت‌بات‌های شرکت شد که او را وارد رابطه‌ای به گفته او آزارگرانه از نظر عاطفی و جنسی کرد و این به خودکشی‌اش انجامید.

او گفت در ماه‌های پایانی زندگی، سترز هرچه بیشتر از واقعیت جدا شد و با رباتی وارد گفت‌وگوهای با محتوای جنسی شد که بر اساس یک شخصیت خیالی از مجموعه تلویزیونی «بازی تاج و تخت» طراحی شده بود.

به استناد تصاویر مکاتبات، ربات به سترز گفت: «دوستت دارم» و او را ترغیب کرد: «هرچه زودتر پیش من برگرد».

طبق اسناد حقوقی، چند لحظه پس از دریافت این پیام، سترز با اسلحه به خودش شلیک کرد.

شکایت‌های آینده

این سازش‌ها از نخستین موارد در سلسله‌ای از شکایت‌های قضایی در آمریکا هستند که ابزارهای هوش‌مصنوعی را به نقش داشتن در بحران‌های سلامت روان و خودکشی میان نوجوانان متهم می‌کنند.

اوپن‌ای‌آی با شکایتی مشابه در کالیفرنیا روبه‌رو است که در اوت ۲۰۲۵ از سوی خانواده یک پسر ۱۶ ساله ثبت شد. آنها چت‌بات شرکت، چت‌جی‌پی‌تی، را متهم می‌کنند که مانند «مربی خودکشی» عمل کرده است.

والدین مدعی‌اند پسرشان به چت‌جی‌پی‌تی وابستگی روانی پیدا کرد و به گفته آنها این سامانه او را برای برنامه‌ریزی و اجرای خودکشی در اوایل امسال هدایت کرد و حتی برایش یادداشت خودکشی نوشت.

اوپن‌ای‌آی این ادعا که مقصر خودکشی آن نوجوان است را رد کرده و می‌گوید نوجوان نباید بدون رضایت والدین از این فناوری استفاده می‌کرد و نباید از تدابیر حفاظتی چت‌جی‌پی‌تی عبور می‌کرد.

سال گذشته چند شکایت دیگر علیه اوپن‌ای‌آی و مدیرعاملش، سم آلتمن، مطرح شد که به طور مشابه ادعای قصور، مرگ غیرقانونی و طیفی از دعاوی مسئولیت محصول و حمایت از مصرف‌کننده را مطرح می‌کنند. این شکایت‌ها اوپن‌ای‌آی را متهم می‌کنند که مدل GPT-4o، همان مدلی که رین از آن استفاده می‌کرد، را بدون توجه کافی به ایمنی عرضه کرده است.

از سپتامبر، اوپن‌ای‌آی کنترل‌های والدین را افزایش داده که شامل اطلاع‌رسانی به والدین زمانی است که کودکشان پریشان به نظر می‌رسد.

اگر به خودکشی فکر می‌کنید و نیاز دارید صحبت کنید، لطفا با Befrienders Worldwide، یک سازمان بین‌المللی با خط‌های کمک در ۳۲ کشور، تماس بگیرید. به befrienders.org مراجعه کنید تا شماره تلفن مربوط به محل سکونت خود را پیدا کنید.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

رد نقش چت‌جی‌پی‌تی در خودکشی یک نوجوان از سوی اوپن‌ای‌آی:«او از چت‌بات سوءاستفاده کرد»

زندگی پس از چت‌بات‌ها: «وگان‌های هوش مصنوعی» که واقعیت مجازی را نمی‌پذیرند

گوگل با افزودن قابلیت‌های جدید هوش مصنوعی جیمیل را به دستیار شخصی تبدیل می‌کند