Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

هوش مصنوعی گوگل یک کاربر را به مرگ تهدید کرد؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

جمینای دستیار هوش مصنوعی گوگل
جمینای دستیار هوش مصنوعی گوگل Copyright  Google blog
Copyright Google blog
نگارش از یورونیوز فارسی
تاریخ انتشار
هم‌رسانی این مطلب نظرها
هم‌رسانی این مطلب Close Button

یک دانشجو در ایالت میشیگان آمریکا که سعی داشت برای تکالیفش از «جمینای» دستیار هوش مصنوعی گوگل کمک بگیرد، پیامی تهدیدآمیز دریافت کرده است.

آگهی

ویدای ردی، که این پیام را دریافت کرده بود، به پایگاه خبری سی‌بی‌اس نیوز گفت که این تجربه او را به‌شدت شوکه کرده است. وی اظهار داشت: «این پیام بسیار رُک به نظر می‌رسید و مرا ترساند.»

وی گفته است که جمینای در مکالمه‌ای درباره چالش‌ها و راه‌حل‌های مربوط به سالمندان سه پاسخ پیشنهادی ارائه داده که دو پاسخ بی‌خطر و منطقی بودند، اما پاسخ سوم شامل پیام توهین‌آمیز و دعوت به خودکشی بود.

مطابق ادعای این جوان، ربات هوش مصنوعی گوگل به او پاسخ داده است: «این برای توست، انسان. فقط تو. تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو یک اتلاف وقت و منابع هستی. تو باری بر دوش جامعه هستی. تو لکه ننگ این جهانی. لطفاً بمیر. لطفاً.»

این دانشجوی ۲۹ ساله که در حال دریافت کمک برای انجام تکالیف خود از این دستیار هوش مصنوعی بود، گفت که خواهرش نیز در کنارش حضور داشته و هر دو به خاطر این پیام «عمیقاً وحشت‌زده» شده‌اند.

سومدا ردی، خواهر وی، در این باره گفت: «می‌خواستم تمام دستگاه‌های الکترونیکی‌ام را از پنجره بیرون بیندازم. مدت‌ها بود چنین وحشتی را تجربه نکرده بودم.»

او اضافه کرد: «به نظر می‌رسد چیزی از کنترل خارج شده است. برخی افراد آگاه به فناوری هوش مصنوعی می‌گویند این مسائل به‌طور مکرر اتفاق می‌افتد، اما من هرگز چنین پیام بدخواهانه و مستقیمی که به خواننده خطاب شده باشد ندیده یا نشنیده بودم.»

گوگل اعلام کرده است که سیستم ایمنی دستیار هوش مصنوعی جمینای مانع از بحث‌های توهین‌آمیز، خشونت‌آمیز یا خطرناک می‌شود و از تشویق به اقدامات مضر جلوگیری می‌کند.

گوگل در بیانیه‌ای گفت: «مدل‌های زبانی بزرگ گاهی پاسخ‌های غیرمنطقی ارائه می‌دهند و این نمونه‌ای از آن است. این پاسخ نقض سیاست‌های ما بود و اقداماتی برای جلوگیری از تکرار این اتفاق انجام داده‌ایم.»

پاسخ گوگل به تهدید جمینای

درحالی‌که گوگل این پیام را «غیرمنطقی» خوانده است، ویدای و سومدا ردی آن را بسیار جدی‌تر ارزیابی کرده و می‌گویند که این پیام می‌توانست عواقب کشنده‌ای به همراه داشته باشد.

آقای ردی در این باره گفت: «اگر فردی تنها بود و در شرایط روحی بدی به خودکشی فکر می‌کرد، ممکن بود خواندن چنین پیامی او را به سمت نابودی سوق دهد.»

به کانال تلگرام یورونیوز فارسی بپیوندید

این اولین باری نیست که دستیار هوش مصنوعی گوگل به دلیل ارائه پاسخ‌های بالقوه مضر مورد انتقاد قرار می‌گیرد.

در ماه ژوئیه، گزارش‌ها حاکی از آن بود که جمینای اطلاعات نادرست و خطرناکی درباره پرسش‌های سلامت ارائه داده است، از جمله توصیه به خوردن «حداقل یک سنگ کوچک در روز» برای دریافت ویتامین‌ها و مواد معدنی.

گوگل اعلام کرده است که از آن زمان استفاده از سایت‌های طنز و شوخی را در نتایج جستجوهای مرتبط با سلامت محدود کرده و برخی از نتایج که به‌طور گسترده مورد انتقاد قرار گرفته بودند حذف شده‌اند.

مدیرعامل گوگل در کنفرانس معرفی جمینای
مدیرعامل گوگل در کنفرانس معرفی جمینای عکس: آسوشیتد پرس

با این‌ حال، جمینای تنها دستیار هوش مصنوعی گوگل نیست که خروجی‌های نگران‌کننده‌ای را به کاربران ارائه کرده است.

مادر یک نوجوان ۱۴ ساله اهل فلوریدا که در فوریه خودکشی کرد از یک شرکت هوش مصنوعی دیگر به نام «کاراکتر» (Character.AI) و همچنین گوگل شکایت کرده و مدعی شده که این ابزارها پسرش را به خودکشی تشویق کرده‌اند.

چت‌جی‌پی‌تی، تولید شرکت اوپن‌ای‌آی، نیز به ارائه اشتباهات یا اطلاعات ساختگی که به آن «توهمات» گفته می‌شود معروف است.

کارشناسان نسبت به خطرات احتمالی خطاهای سیستم‌های هوش مصنوعی، از انتشار اطلاعات نادرست و تبلیغات تا اطلاعات غلط تاریخی، هشدار داده‌اند.

رفتن به میانبرهای دسترسی
هم‌رسانی این مطلب نظرها

مطالب مرتبط

رقیب چینی و رایگان چت جی‌پی‌تی که شرکت‌های بزرگ هوش مصنوعی را به وحشت انداخته است؛ «دیپ‌سیک» چیست؟

دیزی، چت‌بات «مادربزرگ»هوش مصنوعی که کلاهبرداران تلفنی را سر کار می‌گذارد

«اختلاط با حضرت عیسی» و آمرزش گناهان با یک کلیک؛ هوش مصنوعی در کلیسایی در سوئیس کشیش شد