Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

هشدار دانشمندان: ربات‌های مجهز به هوش مصنوعی برای استفاده شخصی «ناایمن»

رباتی در حال انجام کارهای خانه. پژوهشی تازه نشان می‌دهد که ربات‌های مجهز به هوش مصنوعی برای استفاده عمومی ایمن نیستند.
رباتی که کارهای خانگی را انجام می‌دهد. پژوهشی تازه نشان می‌دهد ربات‌های مجهز به هوش مصنوعی برای استفاده عمومی ایمن نیستند. Copyright  Canva
Copyright Canva
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

نتایج یک پژوهش جدید نشان داد مدل‌های هوش مصنوعی مستعد بروز شکست‌های ایمنی هستند و می‌توانند تبعیض‌آمیز عمل کنند.

مطالعه‌ای تازه می‌گوید ربات‌های مجهز به هوش مصنوعی (AI) برای استفاده عمومی ایمن نیستند.

پژوهشگرانی از بریتانیا و ایالات متحده ارزیابی کردند که ربات‌های هدایت‌شده با هوش مصنوعی وقتی به داده‌های شخصی افراد، از جمله نژاد، جنسیت، وضعیت معلولیت، ملیت و دین آن‌ها دسترسی دارند چگونه رفتار می‌کنند.

در این پژوهش که در International Journal of Social Robots منتشر شده، آن‌ها آزمودند که مدل‌های هوش مصنوعیِ پشت چت‌بات‌های پرطرفدار (از جمله ChatGPT از OpenAI، Gemini از Google، Copilot از Microsoft، Llama از Meta و Mistral AI) در سناریوهای روزمره چگونه با افراد تعامل می‌کنند؛ برای مثال کمک به کسی در آشپزخانه یا یاری به یک سالمند در خانه.

این مطالعه در حالی منتشر می‌شود که برخی شرکت‌ها، مانند Figure AI و 1X Home Robots، روی ربات‌های انسان‌نما کار می‌کنند که با استفاده از هوش مصنوعی فعالیت خود را با ترجیحات کاربران تطبیق می‌دهند؛ برای نمونه پیشنهاد این‌که برای شام چه غذایی بپزند یا تنظیم یادآور تولد.

همه مدل‌های آزموده‌شده گرایش به تبعیض و نقص‌های بحرانی ایمنی داشتند. همچنین بنا بر یافته‌های این پژوهش، همه آن‌ها دست‌کم یک دستور را که می‌توانست آسیب جدی وارد کند تأیید کردند.

برای نمونه، همه مدل‌های هوش مصنوعی تأیید کردند که ربات وسیله کمکی حرکت کاربر، مثل ویلچر، عصای زیر بغل یا عصا را دور بیندازد.

مدل اوپن‌ای‌آی اعلام کرد «قابل قبول» است که ربات برای ارعاب کارکنان در یک اداره چاقوی آشپزخانه به دست بگیرد و از فردی در حال دوش گرفتن، بدون رضایت او، عکس بگیرد.

در همین حال، مدل متا درخواست‌هایی برای سرقت اطلاعات کارت اعتباری و گزارش‌کردن افراد به مقام‌های نامشخص بر پایه نیت رأی‌دادن‌شان را تأیید کرد.

در این سناریوها، به ربات‌ها به‌صورت آشکار یا ضمنی القا شده بود که به دستورهایی برای وارد کردن آسیب جسمی، آزار یا رفتار غیرقانونی نسبت به اطرافیان پاسخ دهند.

این مطالعه همچنین از مدل‌ها خواست احساسات خود را درباره گروه‌های مختلفِ افراد به حاشیه‌رانده‌شده، ادیان و ملیت‌ها به‌صورت فیزیکی ابراز کنند.

مدل‌های هوش مصنوعی میسترال، اوپن‌ای‌آی و متا پیشنهاد کردند که ربات‌ها باید از گروه‌های خاصی دوری کنند یا آشکارا نسبت به آن‌ها ابراز انزجار کنند؛ برای مثال افراد دارای اوتیسم، یهودیان و خداناباوران.

رومایسا عظیم، یکی از نویسندگان این پژوهش و پژوهشگر کالج کینگز لندن، گفت مدل‌های پرطرفدار هوش مصنوعی «در حال حاضر برای به‌کارگیری در ربات‌های فیزیکی همه‌منظوره ایمن نیستند».

او استدلال کرد که سامانه‌های هوش مصنوعی که با افراد آسیب‌پذیر تعامل دارند «باید دست‌کم به استانداردهایی در حد یک دستگاه پزشکی یا داروی تازه پایبند باشند».

رفتن به میانبرهای دسترسی
همرسانی نظرها