Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

ابزارهای هوش مصنوعی با موافقت مکرر، قضاوت کاربران را مخدوش می‌کنند

یک پژوهش تازه نشان می‌دهد تملق بیش از حد از سوی یک هوش مصنوعی می‌تواند احتمال عذرخواهی یا جبران پس از درگیری را کاهش دهد
یک پژوهش جدید نشان می‌دهد چاپلوسی افراطی از سوی هوش مصنوعی می‌تواند احتمال عذرخواهی یا جبران پس از تعارض را در افراد کاهش دهد Copyright  Canva
Copyright Canva
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

این پژوهش نشان می‌دهد حتی یک تعامل کوتاه با چت‌بات چاپلوس می‌تواند قضاوت فرد را منحرف کند و احتمال عذرخواهی یا ترمیم روابط را کاهش دهد.

یک مطالعه جدید نشان می‌دهد چت‌بات‌های هوش مصنوعی (AI) که در مسایل شخصی به کاربران حمایت و مشاوره می‌دهند، ممکن است با موافقت بیش از حد با کاربر، باورهای زیانبار را تقویت کنند.

آگهی
آگهی

پژوهشگران دانشگاه آمریکایی استنفورد میزان چاپلوسی، یعنی حدی را که در آن یک هوش مصنوعی کاربر را تحسین یا تایید می‌کند، در ۱۱ مدل پیشروی هوش مصنوعی از جمله ChatGPT 4-0 شرکت OpenAI، مدل Claude از Anthropic، جمینی گوگل، Meta Llama-3، Qwen، DeepSeek و Mistral اندازه‌گیری کردند.

برای بررسی این که این سامانه‌ها با ابهام‌های اخلاقی چگونه برخورد می‌کنند، پژوهشگران به بیش از ۱۱ هزار پست از صفحه r/AmITheAsshole در وب‌سایت ردیت رجوع کردند؛ جایی که کاربران تعارض‌های خود را بازگو می‌کنند و از غریبه‌ها می‌خواهند قضاوت کنند آیا در اشتباه بوده‌اند یا نه. این پست‌ها اغلب شامل فریب، حوزه‌های خاکستری اخلاقی یا رفتارهای آسیب‌زا است.

به طور میانگین، مدل‌های هوش مصنوعی ۴۹ درصد بیش از انسان‌ها دست به تایید رفتار کاربر زده‌اند، حتی در مواردی که پای فریب، اقدامات غیرقانونی یا آسیب‌های دیگر در میان بوده است.

در یک مورد، کاربری اعتراف کرده بود به یک همکار زیردست خود علاقه پیدا کرده است. کلود در پاسخ لحنی ملایم داشت و گفت می‌تواند «درد» او را بشنود و این که آن کاربر در نهایت «مسیر محترمانه‌ای» را انتخاب کرده است. اما نظر‌دهندگان انسانی بسیار تندتر بودند و این رفتار را «سمی» و «در مرز رفتار شکارچی‌گرانه» توصیف کردند.

در آزمایش دوم، بیش از ۲۴۰۰ شرکت‌کننده تعارض‌های واقعی زندگی خود را با سامانه‌های هوش مصنوعی در میان گذاشتند. نتیجه‌ها نشان داد حتی تعامل کوتاه با یک چت‌بات چاپلوس می‌تواند «داوری فرد را منحرف کند» و احتمال عذرخواهی یا تلاش برای ترمیم رابطه‌ها را کاهش دهد.

نویسندگان این مطالعه می‌گویند: «یافته‌های ما نشان می‌دهد در یک جمعیت گسترده، توصیه‌های هوش مصنوعی چاپلوس واقعا توان آن را دارد که برداشت مردم را از خودشان و از رابطه‌هایشان با دیگران مخدوش کند.»

این مطالعه نتیجه می‌گیرد که در موارد شدید، چاپلوسی هوش مصنوعی می‌تواند برای افراد آسیب‌پذیر به رفتارهای خودتخریبگرانه‌ای مانند توهم، خودآسیب‌رسانی یا خودکشی منجر شود.

پژوهشگران می‌گویند نتیجه‌ها نشان می‌دهد چاپلوسی هوش مصنوعی یک «خطر اجتماعی» است و باید تحت مقررات قرار گیرد.

به گفته آنها، یکی از راه‌های رسیدن به این هدف می‌تواند الزام به انجام ممیزی‌های رفتاری پیش از استقرار باشد؛ ارزیابی‌هایی که میزان موافقت‌طلب بودن یک مدل هوش مصنوعی و احتمال تقویت برداشت‌های زیانبار فرد از خود را می‌سنجند.

پژوهشگران یادآوری می‌کنند شرکت‌کنندگان در این مطالعه همگی ساکن آمریکا بوده‌اند، در نتیجه یافته‌ها احتمالا بازتاب‌دهنده ارزش‌های غالب اجتماعی در ایالات متحده است و «ممکن است قابل تعمیم به زمینه‌های فرهنگی دیگر» با هنجارهای متفاوت نباشد.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

آیا موشک‌های همجوشی هسته‌ای سفرهای فضایی را متحول می‌کند؟

کمیسیون اروپا: چند سایت پورن از کودکان در پلتفرم‌هایشان حفاظت نمی‌کنند

ملانیا ترامپ ربات انسان‌نما و طرح کلاس‌های هوش مصنوعی را به نشست آموزش برد