نویسنده ارشد یک پژوهش تازه از دانشگاه دارتموث گفت: «دیگر نمیتوانیم مطمئن باشیم که پاسخهای نظرسنجی از سوی افراد واقعی ارائه میشود.»
طبق پژوهشی تازه، هوش مصنوعی (AI) تشخیص پاسخهای انسانی از پاسخهای رباتها در نظرسنجیهای عمومی آنلاین را تقریباً ناممکن کرده است.
مطالعهای از دانشگاه دارتموث که روز دوشنبه در نشریه Proceedings of the National Academy of Sciences منتشر شد نشان میدهد مدلهای زبانی بزرگ (LLM) میتوانند در مقیاس گسترده نظرسنجیهای افکار عمومی را مخدوش کنند.
«به گفته این پژوهش، آنها میتوانند شخصیتهای انسانی را تقلید کنند، از روشهای فعلیِ شناسایی بگریزند و بهسادگی طوری برنامهریزی شوند که بهصورت نظاممند نتایج نظرسنجیهای آنلاین را منحرف کنند.»
«این یافتهها از آسیبپذیریِ بحرانی در زیرساخت دادههای ما پرده برمیدارد» و «تهدیدی وجودیِ بالقوه برای پژوهشهای آنلاینِ بدون نظارت» ایجاد میکند؛ به گفته نویسنده این مطالعه، شان وستوود، استادیار علوم سیاسی در دانشگاه دارتموث.
دخالت هوش مصنوعی در نظرسنجیها میتواند لایهای دیگر بر پیچیدگی انتخابات حساس بیفزاید. گروههای پایش آنلاین پیشتر از کارزارهای اطلاعات نادرستِ تغذیهشده با هوش مصنوعی در انتخابات اروپا خبر دادهاند، از جمله اخیراً در مولداوی.
فریب سامانه
برای سنجش میزان آسیبپذیری نرمافزارهای نظرسنجی آنلاین، وستوود یک «پاسخگوی مصنوعی خودمختار» طراحی و ساخته است؛ ابزاری ساده مبتنی بر هوش مصنوعی که با یک راهنمای ۵۰۰ کلمهای کار میکند.
این ابزار برای هر نظرسنجی، بر اساس اطلاعاتی که بهصورت تصادفی اختصاص داده میشود، یک شخصیت جمعیتشناختی میپذیرد؛ از جمله سن، جنسیت، نژاد، تحصیلات، درآمد و ایالت محل سکونت.
با این شخصیت، زمانهای واقعیِ مطالعه را شبیهسازی میکند، حرکتهای ماوسِ شبیه انسان تولید میکند و پاسخهای باز را کلید به کلید مینویسد؛ همراه با غلطهای املایی و اصلاحاتِ باورپذیر.
در بیش از ۴۳ هزار آزمایش، این ابزار ۹۹.۸ درصد سامانهها را فریب داد تا آن را انسان بپندارند. در معماهای منطقی هیچ خطایی نداشت و از سدِ تدابیر سنتیِ طراحیشده برای شناسایی پاسخهای خودکار، مانند reCAPTCHA، گذشت.
وستوود گفت: «اینها رباتهای خام نیستند. آنها درباره هر سؤال فکر میکنند و مانند انسانهای واقعی و دقیق رفتار میکنند و دادهها را کاملاً معتبر جلوه میدهند.»
آیا هنوز میتوان به نتایج نظرسنجیها اعتماد کرد؟
این مطالعه آسیبپذیریِ عملیِ نظرسنجیهای سیاسی را بررسی کرده و انتخابات ریاستجمهوری ۲۰۲۴ آمریکا را بهعنوان نمونه در نظر گرفته است.
وستوود دریافت که تنها بین ۱۰ تا ۵۲ پاسخِ جعلیِ مبتنی بر هوش مصنوعی کافی بود تا نتیجه پیشبینیشده انتخابات را در هفت نظرسنجی ملیِ سطحبالا وارونه کند؛ آن هم در هفته پایانیِ حساسِ کارزار انتخاباتی.
راهاندازی هر یک از این پاسخگویان خودکار میتوانست تنها ۵ سنت آمریکا (۴ سنت یورو) هزینه داشته باشد.
در آزمایشها، این رباتها حتی وقتی به زبان روسی، ماندارین یا کرهای برنامهنویسی شده بودند، پاسخهای انگلیسیِ بینقص تولید کردند. به گفته این پژوهش، این بدان معناست که بازیگران خارجی میتوانند بهراحتی از آنها سوءاستفاده کنند و برخی نیز منابع لازم برای طراحی ابزارهایی حتی پیچیدهتر برای گریز از شناسایی را دارند.
پژوهش علمی نیز بهشدت به دادههای نظرسنجی متکی است؛ هر سال هزاران مطالعه داوریشده بر پایه دادههای گردآوریشده از پلتفرمهای آنلاین منتشر میشود.
وستوود گفت: «وقتی دادههای نظرسنجی بهوسیله رباتها آلوده شود، هوش مصنوعی میتواند تمام اکوسیستم دانش را مسموم کند.»
مطالعه او تأکید میکند جامعه علمی بهطور فوری به روشهای جدیدی برای گردآوریِ داده نیاز دارد که نتوان آنها را با ابزارهای پیشرفتهٔ هوش مصنوعی دستکاری کرد.
وستوود گفت: «فناوریِ راستیآزماییِ مشارکت واقعیِ انسانی وجود دارد؛ فقط ارادهٔ اجرای آن را لازم داریم.»
«اگر همین حالا اقدام کنیم، میتوانیم هم سلامتِ نظرسنجیها و هم پاسخگوییِ دموکراتیکِ حاصل از آنها را حفظ کنیم.»