این پژوهش نشان میدهد حتی یک تعامل کوتاه با چتبات چاپلوس میتواند قضاوت فرد را منحرف کند و احتمال عذرخواهی یا ترمیم روابط را کاهش دهد.
یک مطالعه جدید نشان میدهد چتباتهای هوش مصنوعی (AI) که در مسایل شخصی به کاربران حمایت و مشاوره میدهند، ممکن است با موافقت بیش از حد با کاربر، باورهای زیانبار را تقویت کنند.
پژوهشگران دانشگاه آمریکایی استنفورد میزان چاپلوسی، یعنی حدی را که در آن یک هوش مصنوعی کاربر را تحسین یا تایید میکند، در ۱۱ مدل پیشروی هوش مصنوعی از جمله ChatGPT 4-0 شرکت OpenAI، مدل Claude از Anthropic، جمینی گوگل، Meta Llama-3، Qwen، DeepSeek و Mistral اندازهگیری کردند.
برای بررسی این که این سامانهها با ابهامهای اخلاقی چگونه برخورد میکنند، پژوهشگران به بیش از ۱۱ هزار پست از صفحه r/AmITheAsshole در وبسایت ردیت رجوع کردند؛ جایی که کاربران تعارضهای خود را بازگو میکنند و از غریبهها میخواهند قضاوت کنند آیا در اشتباه بودهاند یا نه. این پستها اغلب شامل فریب، حوزههای خاکستری اخلاقی یا رفتارهای آسیبزا است.
به طور میانگین، مدلهای هوش مصنوعی ۴۹ درصد بیش از انسانها دست به تایید رفتار کاربر زدهاند، حتی در مواردی که پای فریب، اقدامات غیرقانونی یا آسیبهای دیگر در میان بوده است.
در یک مورد، کاربری اعتراف کرده بود به یک همکار زیردست خود علاقه پیدا کرده است. کلود در پاسخ لحنی ملایم داشت و گفت میتواند «درد» او را بشنود و این که آن کاربر در نهایت «مسیر محترمانهای» را انتخاب کرده است. اما نظردهندگان انسانی بسیار تندتر بودند و این رفتار را «سمی» و «در مرز رفتار شکارچیگرانه» توصیف کردند.
در آزمایش دوم، بیش از ۲۴۰۰ شرکتکننده تعارضهای واقعی زندگی خود را با سامانههای هوش مصنوعی در میان گذاشتند. نتیجهها نشان داد حتی تعامل کوتاه با یک چتبات چاپلوس میتواند «داوری فرد را منحرف کند» و احتمال عذرخواهی یا تلاش برای ترمیم رابطهها را کاهش دهد.
نویسندگان این مطالعه میگویند: «یافتههای ما نشان میدهد در یک جمعیت گسترده، توصیههای هوش مصنوعی چاپلوس واقعا توان آن را دارد که برداشت مردم را از خودشان و از رابطههایشان با دیگران مخدوش کند.»
این مطالعه نتیجه میگیرد که در موارد شدید، چاپلوسی هوش مصنوعی میتواند برای افراد آسیبپذیر به رفتارهای خودتخریبگرانهای مانند توهم، خودآسیبرسانی یا خودکشی منجر شود.
پژوهشگران میگویند نتیجهها نشان میدهد چاپلوسی هوش مصنوعی یک «خطر اجتماعی» است و باید تحت مقررات قرار گیرد.
به گفته آنها، یکی از راههای رسیدن به این هدف میتواند الزام به انجام ممیزیهای رفتاری پیش از استقرار باشد؛ ارزیابیهایی که میزان موافقتطلب بودن یک مدل هوش مصنوعی و احتمال تقویت برداشتهای زیانبار فرد از خود را میسنجند.
پژوهشگران یادآوری میکنند شرکتکنندگان در این مطالعه همگی ساکن آمریکا بودهاند، در نتیجه یافتهها احتمالا بازتابدهنده ارزشهای غالب اجتماعی در ایالات متحده است و «ممکن است قابل تعمیم به زمینههای فرهنگی دیگر» با هنجارهای متفاوت نباشد.