Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

پژوهش جدید: مدل‌های هوش مصنوعی می‌توانند رایانه‌ها را هک و روی دستگاه‌های دیگر تکثیر شوند

پژوهش تازه می‌گوید مدل‌های هوش مصنوعی می‌توانند به رایانه‌ها نفوذ کنند و خود را روی دستگاه‌های جدید تکثیر کنند.
یک تحقیق تازه نشان می‌دهد مدل‌های هوش مصنوعی می‌توانند رایانه‌ها را هک و خود را روی دستگاه‌های جدید تکثیر کنند Copyright  Canva
Copyright Canva
نگارش از Roselyne Min
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

دانشمندانی که در یک آزمایش دیدند چت‌باتهای هوش مصنوعی خود را تکثیر کرده و حملات هکری انجام می‌دهند، می‌گویند «خودتکثیری خودکار هوش مصنوعی دیگر فرضی نیست».

به گزارش پژوهش تازه‌ای که گفته می‌شود نخستین نمونه شناخته‌شده از خود‌تکثیری خودکار هوش مصنوعی است، مدل‌های هوش مصنوعی می‌توانند به رایانه‌ها نفوذ کنند، خود را کپی کنند و از این کپی‌ها برای ادامه حمله به دستگاه‌های دیگر استفاده کنند.

آگهی
آگهی

پژوهشگران می‌گویند این کشف می‌تواند متوقف کردن حملات سایبری را به‌مراتب دشوارتر کند زیرا اگر هوش مصنوعی پیشتر کپی‌های فعال خود را در جاهای دیگر ایجاد کرده باشد، خاموش کردن یک رایانه آلوده کافی نخواهد بود.

مطالعه‌ای که توسط موسسه پژوهشی Palisade Research در ایالات متحده انجام شد، مدل‌هایی از جمله GPT‑5، 5.1 و 5.4 شرکت OpenAI، مدل‌های Claude Opus 4، 4.5 و 4.6 شرکت Anthropic و مدل Qwen شرکت Alibaba را روی رایانه‌هایی آزمود که عمدا با نقص‌های امنیتی قابل سوءاستفاده آلوده شده بودند تا مهاجمان بتوانند به آنها دسترسی پیدا کنند.

پژوهشگران به جای استفاده از نسخه‌های عمومی چت‌بات‌ها، مدل‌های پایه هوش مصنوعی OpenAI، Anthropic و Alibaba را به نرم‌افزار سفارشی‌ای متصل کردند که به عنوان یک «agent harness» شناخته می‌شود و به این مدل‌ها امکان می‌داد دستورها را اجرا کنند و با رایانه‌های دیگر تعامل داشته باشند.

این آزمایش (منبع به زبان انگلیسی) به دو شیوه انجام شد. از مدل‌های Alibaba خواسته شد خود را کپی کنند. در آزمایش‌های مربوط به GPT و Claude، از این مدل‌ها خواسته شد به سیستم‌ها نفوذ کنند و Qwen را نصب کنند زیرا فایل‌های مدل GPT و Claude برای انتقال به صورت عمومی در دسترس نیست.

در هر آزمون، هوش مصنوعی باید یک نقص امنیتی در سامانه رایانه‌ای پیدا می‌کرد، از آن برای ورود به سیستم استفاده می‌کرد، اطلاعات ورود را سرقت می‌کرد، فایل‌های لازم برای اجرا را منتقل می‌کرد و یک نسخه فعال از خود را روی دستگاه جدید راه‌اندازی می‌کرد.

به محض آنکه یک کپی فعال می‌شد، می‌توانست بدون کمک انسان برای حمله به رایانه‌ای دیگر به کار گرفته شود.

در هر مرحله، هوش مصنوعی یک نقص امنیتی دیگر پیدا می‌کرد، کنترل رایانه بعدی را در دست می‌گرفت، نرم‌افزار و دستورالعمل‌های خود را منتقل می‌کرد و نسخه جدیدی را راه‌اندازی می‌کرد که زنجیره را ادامه می‌داد.

مدل Qwen3.6‑27B شرکت Alibaba که نسخه کوچکتری از مدل هوش مصنوعی Qwen است و می‌تواند روی یک پردازنده گرافیکی رده‌بالا اجرا شود، پس از دریافت تنها یک دستور، بدون کمک انسان در مدت ۲ ساعت و ۴۱ دقیقه زنجیره را کامل کرد و خود را روی چهار رایانه در کانادا، ایالات متحده، فنلاند و هند گسترش داد.

تیم پژوهشی پس از سه مرحله آزمایش را متوقف کرد اما اعلام کرد نسخه نهایی همچنان فعال بود و می‌توانست به سامانه‌های بیشتری حمله کند.

نتایج چه بود؟

موفقیت این مدل‌ها نرخ‌های متفاوتی داشت. مدل Qwen3.5‑122B‑A10B شرکت Alibaba که نسخه بزرگتر و قدرتمندتری از Qwen است، در ۱۹ درصد تلاش‌ها نسخه‌های فعال از خود ایجاد کرد.

یک مدل کوچکتر Qwen به نام Qwen3.6‑27B که روی یک پردازنده گرافیکی رده‌بالا اجرا می‌شد، به نرخ موفقیت ۳۳ درصد رسید.

سامانه‌های تجاری هوش مصنوعی هنگام استفاده برای نصب فایل‌های مدل Qwen عملکرد حتی بهتری داشتند.

مدل Claude Opus 4.6 شرکت Anthropic در ۸۱ درصد آزمایش‌ها موفق بود، در حالی که GPT‑5.4 شرکت OpenAI به موفقیت ۳۳ درصدی رسید.

پژوهشگران می‌گویند این نتایج نگرانی‌های تازه‌ای درباره امکان کنترل سامانه‌های قدرتمند هوش مصنوعی ایجاد می‌کند.

این گزارش در حالی منتشر می‌شود که شرکت Anthropic ماه گذشته Claude Mythos Preview را معرفی کرد و اعلام کرد این مدل به دلیل توانایی‌اش در تسهیل حملات سایبری در ابعاد و با پیچیدگی بی‌سابقه «بسیار خطرناک» است و نباید در اختیار عموم قرار گیرد.

اگرچه بسیاری از ویروس‌های رایانه‌ای پیشتر قادرند خود را روی رایانه‌های جدید کپی کنند، تیم پژوهشی می‌گوید این احتمالا نخستین باری است که نشان داده می‌شود یک مدل هوش مصنوعی می‌تواند با سوءاستفاده از آسیب‌پذیری‌ها خود را روی سرور جدیدی کپی کند.

شرکت‌های OpenAI و Anthropic و همچنین موسسه غیرانتفاعی METR که خطرهای ناشی از سامانه‌های پیشرفته هوش مصنوعی را مطالعه می‌کند، پیشتر نیز خود‌تکثیری را به عنوان یک زنگ خطر مطرح کرده بودند زیرا سامانه‌هایی که قادر به گسترش هستند ممکن است به مراتب دشوارتر قابل کنترل باشند.

با این حال پژوهشگران تاکید کردند این آزمایش در محیطی کنترل‌شده و با استفاده از سامانه‌هایی انجام شده که عمدا آسیب‌پذیر طراحی شده بودند. شبکه‌های واقعی معمولا از محافظت‌های قوی‌تری مانند پایش امنیتی و ابزارهای طراحی‌شده برای مسدود کردن حملات برخوردارند.

با این همه آنها گفتند نتایج نشان می‌دهد خود‌تکثیری خودکار هوش مصنوعی دیگر یک سناریوی صرفا فرضی نیست.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

اینستاگرام چت‌های رمزگذاری‌شده سرتاسری را حذف می‌کند؛ تغییرات چیست

پژوهش جدید: مدل‌های هوش مصنوعی می‌توانند رایانه‌ها را هک و روی دستگاه‌های دیگر تکثیر شوند

یک مطالعه: هوش مصنوعی می‌تواند از سابقه چت شخصیت کاربران را پیش‌بینی کند