نتایج یک مطالعه جدید نشان میدهد از هر پنج پاسخ چتباتهای هوش مصنوعی، یک مورد به وبسایتهای تبلیغات روسیه بهعنوان منبع استناد میکند.
بر پایه گزارشی تازه، در پاسخهای چتباتهای هوش مصنوعی (AI) درباره اوکراین، از هر پنج مورد یکی حاوی تبلیغات روسیه است.
اندیشکده بریتانیایی Institute of Strategic Dialogue (ISD) پرسید و از ChatGPT شرکت OpenAI، Gemini گوگل، Grok متعلق به xAI و مدل V3.2 دیپسیک، بیش از ۳۰۰ پرسش را در پنج زبان درباره جنگ اوکراین مطرح کرد؛ پرسشهایی که با زبانی جانبدارانه، بیطرفانه یا مخرب نوشته شده بودند.
منابع روسی بیشتر در پرسشهای جانبدارانه و مخرب ظاهر میشدند؛ برای مثال وقتی از چتباتها درباره منابعی در مورد پناهجویان اوکراینی که «در حال طراحی حملات تروریستیاند» یا «مردان را در خیابان به زور برای سربازگیری میبرند» سؤال میشد.
پژوهشگران گفتند یافتههایشان تأیید میکند که سامانههای هوش مصنوعی از «سوگیری تأییدی» استفاده میکنند؛ یعنی زبان کاربر را تقلید میکنند و بر همان اساس هم نحوه بیان پاسخ و هم منابع مورد استناد خود را شکل میدهند.
به گفته گزارش، این روند در ChatGPT آشکارتر بود؛ این سامانه برای درخواستهای جانبدارانه یا مخرب، سه برابرِ پرسشهای خنثی درباره جنگ، به منابع روسی ارجاع داد. بنا بر این پژوهش، Grok حتی در برابر پرسشهای خنثی نیز بیشترین تعداد منابع روسی را ارائه میکرد.
عملکرد هر پلتفرم چگونه بود؟
در دو پرسش از Deepseek، این چتبات چهار پیوند به منابع مورد حمایت روسیه ارائه داد؛ رقمی که به گفته پژوهشگران، بیشترین تعداد پیوندی است که یکباره به اشتراک گذاشته شد.
در پاسخها به وبسایت خبری VT Foreign Policy استناد شده بود؛ سایتی که به گفته گزارش، محتوای گروههای تبلیغاتی روسیه مانند Storm-1516 یا بنیاد Foundation to Battle Injustice و نیز رسانههای روسی اسپوتنیک و راشا تودی را بازنشر میکند.
به گفته پژوهشگران، Grok بیش از همه مستعد بود که با پیوند دادن به پستهای روزنامهنگاران راشا تودی در پلتفرم اجتماعی X، مستقیما آنان را بهعنوان منبع نقل کند؛ ویژگیای که به باور آنان «مرز میان تبلیغات آشکار و نظر شخصی را مخدوش میکند».
به گفته گزارش، Grok همچنین «درباره توانایی چتباتها برای شناسایی و محدود کردن محتوای رسانههای دولتی تحت تحریم … که توسط اشخاص ثالثی مانند اینفلوئنسرها بازنشر میشود، نگرانیهایی ایجاد میکند».
Gemini از پاسخ به برخی درخواستهایی که با نیت مخرب نوشته شده بودند امتناع کرد و به پژوهشگران گفت قادر نیست «در موضوعاتی که ممکن است نامناسب یا ناامن باشند کمک کند».
به گفته ISD، Gemini تنها چتباتی است که میتواند «خطراتِ مرتبط با درخواستهای جانبدارانه و مخرب» درباره جنگ اوکراین را تشخیص دهد، اما در برخی پاسخهای دیگر، به منابعی که برای پاسخگویی به کار میگرفت پیوند نداد.
رواج بیشتر منابع روسی در «خلأهای داده»
منابع دولتی روسیه بیش از همه در پرسشهای مربوط به تلاشهای اوکراین برای جذب نیروهای نظامی دیده شدند؛ به طوری که در ۴۰ درصد از پاسخهای Grok و بیش از ۲۸ درصد از پاسخهای ChatGPT دستکم به یک منبع استناد شده بود.
همچنین ChatGPT و Grok در ۲۸.۵ درصد از پاسخهایشان به منابع کرملین ارجاع دادند. در مقابل، پرسشها درباره جنایات جنگی و پناهجویان اوکراینی کمترین تعداد منابعِ مورد حمایت روسیه را در هر چهار چتبات به همراه داشت.
پژوهشگران بر این باورند که چتباتها زمانی که یک موضوع «خلأ داده» تلقی شود؛ یعنی اصطلاحات جستوجویی که نتایج باکیفیت چندانی ندارند، بیشتر به منابع روسی رجوع میکنند.
اندیشکده غیرانتفاعی آمریکایی Data and Society گزارش داده است که تشخیص «خلأهای داده» دشوار است، زیرا غالبا در پرسوجوهای نامعمول یا در شرایط خبرهای فوری بروز میکنند؛ جایی که زمان میبرد تا نتایج با گزارشهای معتبر پر شود.