دانشمندانی که در یک آزمایش دیدند چتباتهای هوش مصنوعی خود را تکثیر کرده و حملات هکری انجام میدهند، میگویند «خودتکثیری خودکار هوش مصنوعی دیگر فرضی نیست».
به گزارش پژوهش تازهای که گفته میشود نخستین نمونه شناختهشده از خودتکثیری خودکار هوش مصنوعی است، مدلهای هوش مصنوعی میتوانند به رایانهها نفوذ کنند، خود را کپی کنند و از این کپیها برای ادامه حمله به دستگاههای دیگر استفاده کنند.
پژوهشگران میگویند این کشف میتواند متوقف کردن حملات سایبری را بهمراتب دشوارتر کند زیرا اگر هوش مصنوعی پیشتر کپیهای فعال خود را در جاهای دیگر ایجاد کرده باشد، خاموش کردن یک رایانه آلوده کافی نخواهد بود.
مطالعهای که توسط موسسه پژوهشی Palisade Research در ایالات متحده انجام شد، مدلهایی از جمله GPT‑5، 5.1 و 5.4 شرکت OpenAI، مدلهای Claude Opus 4، 4.5 و 4.6 شرکت Anthropic و مدل Qwen شرکت Alibaba را روی رایانههایی آزمود که عمدا با نقصهای امنیتی قابل سوءاستفاده آلوده شده بودند تا مهاجمان بتوانند به آنها دسترسی پیدا کنند.
پژوهشگران به جای استفاده از نسخههای عمومی چتباتها، مدلهای پایه هوش مصنوعی OpenAI، Anthropic و Alibaba را به نرمافزار سفارشیای متصل کردند که به عنوان یک «agent harness» شناخته میشود و به این مدلها امکان میداد دستورها را اجرا کنند و با رایانههای دیگر تعامل داشته باشند.
این آزمایش (منبع به زبان انگلیسی) به دو شیوه انجام شد. از مدلهای Alibaba خواسته شد خود را کپی کنند. در آزمایشهای مربوط به GPT و Claude، از این مدلها خواسته شد به سیستمها نفوذ کنند و Qwen را نصب کنند زیرا فایلهای مدل GPT و Claude برای انتقال به صورت عمومی در دسترس نیست.
در هر آزمون، هوش مصنوعی باید یک نقص امنیتی در سامانه رایانهای پیدا میکرد، از آن برای ورود به سیستم استفاده میکرد، اطلاعات ورود را سرقت میکرد، فایلهای لازم برای اجرا را منتقل میکرد و یک نسخه فعال از خود را روی دستگاه جدید راهاندازی میکرد.
به محض آنکه یک کپی فعال میشد، میتوانست بدون کمک انسان برای حمله به رایانهای دیگر به کار گرفته شود.
در هر مرحله، هوش مصنوعی یک نقص امنیتی دیگر پیدا میکرد، کنترل رایانه بعدی را در دست میگرفت، نرمافزار و دستورالعملهای خود را منتقل میکرد و نسخه جدیدی را راهاندازی میکرد که زنجیره را ادامه میداد.
مدل Qwen3.6‑27B شرکت Alibaba که نسخه کوچکتری از مدل هوش مصنوعی Qwen است و میتواند روی یک پردازنده گرافیکی ردهبالا اجرا شود، پس از دریافت تنها یک دستور، بدون کمک انسان در مدت ۲ ساعت و ۴۱ دقیقه زنجیره را کامل کرد و خود را روی چهار رایانه در کانادا، ایالات متحده، فنلاند و هند گسترش داد.
تیم پژوهشی پس از سه مرحله آزمایش را متوقف کرد اما اعلام کرد نسخه نهایی همچنان فعال بود و میتوانست به سامانههای بیشتری حمله کند.
نتایج چه بود؟
موفقیت این مدلها نرخهای متفاوتی داشت. مدل Qwen3.5‑122B‑A10B شرکت Alibaba که نسخه بزرگتر و قدرتمندتری از Qwen است، در ۱۹ درصد تلاشها نسخههای فعال از خود ایجاد کرد.
یک مدل کوچکتر Qwen به نام Qwen3.6‑27B که روی یک پردازنده گرافیکی ردهبالا اجرا میشد، به نرخ موفقیت ۳۳ درصد رسید.
سامانههای تجاری هوش مصنوعی هنگام استفاده برای نصب فایلهای مدل Qwen عملکرد حتی بهتری داشتند.
مدل Claude Opus 4.6 شرکت Anthropic در ۸۱ درصد آزمایشها موفق بود، در حالی که GPT‑5.4 شرکت OpenAI به موفقیت ۳۳ درصدی رسید.
پژوهشگران میگویند این نتایج نگرانیهای تازهای درباره امکان کنترل سامانههای قدرتمند هوش مصنوعی ایجاد میکند.
این گزارش در حالی منتشر میشود که شرکت Anthropic ماه گذشته Claude Mythos Preview را معرفی کرد و اعلام کرد این مدل به دلیل تواناییاش در تسهیل حملات سایبری در ابعاد و با پیچیدگی بیسابقه «بسیار خطرناک» است و نباید در اختیار عموم قرار گیرد.
اگرچه بسیاری از ویروسهای رایانهای پیشتر قادرند خود را روی رایانههای جدید کپی کنند، تیم پژوهشی میگوید این احتمالا نخستین باری است که نشان داده میشود یک مدل هوش مصنوعی میتواند با سوءاستفاده از آسیبپذیریها خود را روی سرور جدیدی کپی کند.
شرکتهای OpenAI و Anthropic و همچنین موسسه غیرانتفاعی METR که خطرهای ناشی از سامانههای پیشرفته هوش مصنوعی را مطالعه میکند، پیشتر نیز خودتکثیری را به عنوان یک زنگ خطر مطرح کرده بودند زیرا سامانههایی که قادر به گسترش هستند ممکن است به مراتب دشوارتر قابل کنترل باشند.
با این حال پژوهشگران تاکید کردند این آزمایش در محیطی کنترلشده و با استفاده از سامانههایی انجام شده که عمدا آسیبپذیر طراحی شده بودند. شبکههای واقعی معمولا از محافظتهای قویتری مانند پایش امنیتی و ابزارهای طراحیشده برای مسدود کردن حملات برخوردارند.
با این همه آنها گفتند نتایج نشان میدهد خودتکثیری خودکار هوش مصنوعی دیگر یک سناریوی صرفا فرضی نیست.