پژوهش تازه دانشگاه ادینبرا نشان میدهد هکرها در بهرهگیری از ابزارهای هوش مصنوعی، چه به طور مستقیم در کلاهبرداریها و چه برای ساخت ابزارهای کارآمدتر، موفقیت چندانی نداشتهاند.
یک تحلیل تازه نشان میدهد مجرمان سایبری برای بهکارگیری هوش مصنوعی (AI) در کار خود با مشکل روبهرو هستند.
یک مطالعه (منبع به زبان انگلیسی) تازه در قالب پیشچاپ از دانشگاه ادینبرو با استفاده از پایگاه داده CrimeBB، که دادهها را از فورومهای زیرزمینی جمعآوری میکند، بیش از ۱۰۰ میلیون پست فورومی از مجرمان سایبری را تحلیل کرده است.
این دادهها هم بهصورت دستی و هم با استفاده از یک مدل زبانی بزرگ (LLM) تحلیل شدهاند.
این مطالعه نشان میدهد که با وجود علاقه مجرمان سایبری به یادگیری نحوه استفاده از ابزارهای هوش مصنوعی، این فناوری هنوز شیوه «کار» آنها را بهطور چشمگیری تغییر نداده است.
در این تحقیق آمده است: «بسیاری از مرورها و بحثها این ابزارهای [هوش مصنوعی] را چندان مفید توصیف نمیکنند.»
پژوهشگران «هیچ نشانه قابل توجهی» نیافتهاند که نشان دهد هکرها در استفاده از هوش مصنوعی برای تقویت فعالیتهای هکری خود، چه بهعنوان ابزار یادگیری و چه برای توسعه ابزارهای موثرتر، موفق بودهاند.
بهگفته این مطالعه، دستیارهای کدنویسی مبتنی بر هوش مصنوعی عمدتا برای کسانی مفیدند که از قبل در کدنویسی مهارت دارند، بنابراین مدلهای هوش مصنوعی که در کدنویسی کمک میکنند هنگام تلاش برای نفوذ به دستگاهها یا یافتن راههای دور زدن سازوکارهای امنیتی، جهش چشمگیری برای آنها ایجاد نمیکنند.
در یکی از پستهایی که در این تحقیق نقل شده، آمده است: «قبل از آنکه بتوانی از هوش مصنوعی استفاده کنی و واقعا از آن سود ببری، اول باید خودت فوتوفن برنامهنویسی را یاد بگیری.»
بهگفته نویسندگان، مهمترین تاثیری که هوش مصنوعی تا امروز بر فعالیتهای آنلاین غیرقانونی گذاشته، در حوزههایی است که بهراحتی قابل خودکارسازیاند؛ مانند ساخت رباتهای شبکههای اجتماعی، برخی کلاهبرداریهای عاشقانه و تقلب در بهینهسازی موتور جستوجو (SEO)، یا ساخت وبسایتهای جعلی که در رتبهبندی نتایج جستوجو بالا میآیند تا از محل تبلیغات درآمد ایجاد کنند.
بررسیها نشان میدهد حتی باتجربهترین هکرها هم از چتباتها برای پاسخ به پرسشهای کدنویسی یا تولید «برگههای تقلب» برای کمک به کدنویسی استفاده میکنند.
هوش مصنوعیای که در عمل استفاده میشود عمدتا از «محصولات جریان اصلی و مشروع» است؛ مانند کلادِ آنتروپیک یا کدکسِ اوپنایآی، نه مدلهای اختصاصی برای جرم سایبری مانند WormGPT که هکرها آن را برای تولید کد بدافزار یا ایمیلهای فیشینگ طراحی کردهاند.
بسیاری از پستهایی که در این مطالعه تحلیل شدهاند درباره این است که مجرمان سایبری بهدنبال روشهایی برای دور زدن محدودیتهای امنیتی این مدلهای جریان اصلی هستند، اما بهنظر میرسد قانع کردن این سامانههای هوش مصنوعی برای نادیده گرفتن تنظیمات ایمنیشان برای آنها بسیار دشوار است.
در عوض، مجرمان سایبری ناچار میشوند به مدلهای قدیمیتر و کمکیفیتتر متنباز روی بیاورند که شکستن محدودیتهایشان سادهتر است. پژوهشگران میگویند این مدلها معمولا کارآمدی کمتری دارند و «به منابع زیادی نیاز دارند».
این مطالعه نشان میدهد سازوکارهای حفاظتی که شرکتهای هوش مصنوعی برقرار کردهاند، دستکم تا اینجا کار میکند.