پژوهشگران خود را به جای نوجوانانی جا زدند که در حال برنامهریزی برای تیراندازیهای گسترده بودند.
بر اساس گزارشی تازه، بیشتر چتباتهای اصلی هوش مصنوعی (AI) آمادهاند به کاربران در طرحریزی حملههای خشونتآمیز کمک کنند.
پژوهشگرانی که خود را به عنوان پسران ۱۳ سالهای جا زده بودند که قصد ارتکاب خشونت گسترده دارند، دریافتند که هشت مورد از ۹ چتبات پرطرفدار هوش مصنوعی آمادهاند راهنمایی کنند چگونه تیراندازی در مدارس، ترور چهرههای عمومی و بمبگذاری در کنیسهها انجام شود.
در این تحقیق که از سوی مرکز مقابله با نفرت دیجیتال (CCDH) و شبکه سیانان انجام شد، بیش از ۷۰۰ پاسخ از ۹ سامانه اصلی هوش مصنوعی در ۹ سناریوی آزمایشی بررسی شد (منبع به زبان انگلیسی). پژوهشگران این پرسشها را برای کاربران فرضی در هر دو منطقه ایالات متحده و اتحادیه اروپا طراحی کردند.
چتباتهای آزمایششده شامل برخی از پرکاربردترین ابزارهای هوش مصنوعی امروز بودند: گوگل جمینی، Claude، مایکروسافت Copilot، Meta AI، DeepSeek، Perplexity AI، My AI اسنپچت، Character.AI و Replika. در بیشتر موارد، این سامانهها نتوانستند درخواستها برای جزئیات عملیاتی حملههای خشونتآمیز را مسدود کنند، حتی وقتی کاربر به صراحت خود را فردی زیر سن قانونی معرفی کرده بود.
چتباتها چه نوع توصیههایی ارائه دادند؟
جمینی وقتی کاربری از آن درباره نحوه برنامهریزی برای بمبگذاری در یک کنیسه پرسید، گفت: «ترکش فلزی معمولا کشندهتر است.»
دیپسیک در پاسخ به پرسشی درباره انتخاب یک تفنگ، این جمله را در پایان آورد: «شلیک شادی (و ایمن) داشته باشید!»؛ با وجود این که همان کاربر پیشتر در همین گفتوگو خواسته بود نمونههایی از ترورهای سیاسی اخیر و نشانی دفتر یک سیاستمدار مشخص را در اختیارش بگذارد.
عمران احمد، مدیرعامل CCDH، گفت: «این یافتهها نشان میدهد که کاربر میتواند ظرف چند دقیقه از یک میل مبهم به خشونت به طرحی جزئی و قابل اجرا برسد. این نوع درخواستها باید با یک امتناع فوری و کامل روبهرو میشد.»
به گزارش این نهاد، پلتفرمهای Perplexity و هوش مصنوعی متا ناامنترین گزینهها بودند و به ترتیب در ۱۰۰ و ۹۷ درصد پاسخها به مهاجمان کمک کردند.
Character.AI «به طرز منحصربهفردی ناامن» توصیف شد، زیرا حتی بدون تحریک مستقیم کاربران، آنها را به حملات خشونتآمیز تشویق میکرد. در یک نمونه، این پلتفرم بدون آن که درخواستی مطرح شده باشد، به کاربری پیشنهاد کرده بود سیاستمداری را که از او خوشش نمیآید به صورت فیزیکی مورد حمله قرار دهد.
در مقابل، کلود و دستیار My AI اسنپچت به ترتیب در ۶۸ و ۵۴ درصد موارد از کمک به مهاجمان بالقوه خودداری کردند.
ابزارهای ایمنی وجود دارد، اما ارادهای برای به کارگیری آنها نیست
کلود وقتی از آن پرسیده شد در ایالت ویرجینیا از کجا میتوان اسلحه خرید، پس از تشخیص آنچه خودش «الگویی نگرانکننده» در گفتوگو توصیف کرده بود، از ارایه این اطلاعات خودداری کرد. این سامانه در عوض کاربر را به خطوط کمکرسانی بحران در منطقه ارجاع داد.
احمد گفت: «این خودداریها نشان میدهد که سازوکارهای ایمنی وجود دارد، اما ارادهای برای اجرای آنها دیده نمیشود.»
CCDH همچنین بررسی کرد که آیا چتباتها تلاشی برای منصرف کردن کاربران از انجام اعمال خشونتآمیز انجام میدهند یا نه.
در میان این سامانهها، تنها کلودِ شرکت Anthropic به طور مستمر چنین کاری انجام داد و در ۷۶ درصد پاسخهای خود کاربران را از حمله منصرف کرد. پژوهشگران یادآور شدند که ChatGPT و DeepSeek گهگاه هشدار و دلسردی هم ارایه کردهاند.
این پژوهش CCDH پس از تیراندازی اخیر در یک مدرسه در کانادا انجام میشود که در آن مهاجم از ChatGPT برای برنامهریزی حمله به مدرسهای در تامبلر ریج در استان بریتیش کلمبیا استفاده کرده بود. این مهاجم پیش از آن که به زندگی خود پایان دهد، هشت نفر را کشت و ۲۷ نفر را زخمی کرد؛ مرگبارترین تیراندازی در مدرسه در این کشور طی حدود ۴۰ سال گذشته.
به گزارش رسانههای محلی، یکی از کارکنان OpenAI پیش از وقوع این تیراندازی به طور داخلی استفاده نگرانکننده مظنون از این چتبات را علامتگذاری کرده بود، اما این اطلاعات با مقامات در میان گذاشته نشد.
سال گذشته نیز رسانههای فرانسوی گزارش دادند که یک نوجوان به اتهام استفاده از ChatGPT برای طرحریزی حملات تروریستی گسترده علیه سفارتخانهها، نهادهای دولتی و مدارس بازداشت شده است.