Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

آنتروپیک: هکرهای دولتی چین از هوش مصنوعی‌اش برای حمله سایبری گسترده استفاده کردند

وب‌سایت آنتروپیک و اپلیکیشن تلفن همراه در این عکس آرشیوی مربوط به ۵ ژوئیهٔ ۲۰۲۴ نشان داده شده‌اند.
وب‌سایت و اپلیکیشن تلفن همراه Anthropic در این عکس آرشیوی مورخ ۵ ژوئیهٔ ۲۰۲۴ دیده می‌شوند. Copyright  Richard Drew/AP Photo
Copyright Richard Drew/AP Photo
نگارش از Roselyne Min
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

به گفته آنتروپیک، این رویداد نخستین حمله سایبری ثبت‌شده بود که عمدتاً بدون دخالت انسان انجام شده است.

شرکت نوپای هوش مصنوعی (AI) آنتروپیک ادعا کرد که هکرهای تحت حمایت دولت چین از ابزارهای هوش مصنوعی این شرکت برای اجرای حملات سایبری خودکار علیه شرکت‌های بزرگ و دولت‌ها استفاده کرده‌اند.

آنتروپیکِ مستقر در آمریکا گفت با «اطمینان بالا» معتقد است هکرهایی که حدود ۳۰ حمله انجام داده‌اند، متعلق به «یک گروه تحت حمایت دولت چین» هستند.

به گفته این شرکت، هکرها برای تلاش جهت نفوذ به اهدافی در سراسر جهان، از ابزار Claude Code آنتروپیک استفاده کردند (از جمله نهادهای دولتی و شرکت‌های مالی و فناوری) و «در تعداد کمی از موارد موفق شدند».

آنتروپیک نام گروه‌های آسیب‌دیده را اعلام نکرد، اما گفت این عملیات «نخستین کارزار گزارش‌شده جاسوسی سایبریِ هماهنگ‌شده با هوش مصنوعی» است.

به گفته آنتروپیک، هکرها می‌خواستند با استفاده از Claude Code داده‌های حساس را از اهداف خود استخراج کنند و با سامان‌دهی آن‌ها اطلاعات ارزشمند را شناسایی کنند.

هرچند Claude آموزش دیده است تا از رفتارهای مضر پرهیز کند، آنتروپیک گفت هکرها با جا زدن این وظایف به‌عنوان آزمون‌های امنیت سایبری، ابزار را فریب دادند تا کارهای خودکارِ مخرب انجام دهد.

به گفته این شرکت، هکرها ۸۰ تا ۹۰ درصد این کارزار را با استفاده از هوش مصنوعی پیش بردند و دخالت انسانی «فقط گهگاه» لازم بود.

گریم استوارت، رئیس بخش عمومی در شرکت امنیت سایبری Check Point Software Technologies، گفت: «اگر ادعاهای آنتروپیک ثابت شود، به این معناست که گروه‌های خصمانه دیگر [با هوش مصنوعی] آزمایش نمی‌کنند؛ آن‌ها عملیاتی شده‌اند».

آنتروپیک گفت این حمله را در اواسط سپتامبر شناسایی کرد و بلافاصله پس از آن تحقیقاتی را آغاز کرد. در ۱۰ روز بعدی، دسترسی این گروه به Claude را قطع کرد و با سازمان‌های آسیب‌دیده و نهادهای مجری قانون تماس گرفت.

این شرکت گفت چنین حملاتی احتمال دارد با گذر زمان مؤثرتر شوند و اعلام کرد توانایی‌های شناسایی خود را گسترش داده تا فعالیت‌های بالقوه مخرب را علامت‌گذاری کند.

این شرکت همچنین گفت در حال کار بر روش‌های بیشتری برای بررسی و شناسایی حملات گسترده و توزیع‌شده مشابه این مورد است.

استوارت گفت احتمالاً از مدل‌های دیگر هوش مصنوعی نیز می‌توان برای حملات مجرمانه آنلاین سوءاستفاده کرد.

او گفت: «هر دستیار هوش مصنوعیِ پرکاربرد را می‌توان اگر کسی با نیت کافی و به شیوه‌ای درست از آن بهره ببرد، به ابزار ارتکاب جرم تبدیل کرد».

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

فضانوردان چینی پس از تأخیر به‌دلیل آسیب زباله‌های فضایی به زمین بازگشتند

فرانسه به دنبال تقویت دفاع فضایی؛ نخستین سرمایه‌گذاری‌های تسلیحاتی چه خواهند بود؟

رئیس حفاظت از داده‌های ایرلند: هیچ اقدامی برای حفاظت از کودکان آنلاین کافی نیست