تصویر ماهوارهای منتشر شده توسط یک رسانه ایرانی در ابتدا کاملا واقعی به نظر میرسید: یک پایگاه ویرانشده ایالات متحده در قطر. اما بررسیهای دقیقتر نشان داد که این تصویر یک جعل ساخته شده توسط هوش مصنوعی است.
ظهور هوش مصنوعی مولد، توانایی دولتها و دستگاههای تبلیغاتی را برای ساخت تصاویر ماهوارهای متقاعدکننده در جریان درگیریهای بزرگ به شکلی بیسابقه افزایش داده است.
پژوهشگران هشدار میدهند که این روند پیامدهای امنیتی بسیار جدی به همراه دارد.
در حالی که تنشهای نظامی میان ایران از یک سو و آمریکا و اسرائیل از سوی دیگر ادامه دارد، روزنامه انگلیسیزبان «تهران تایمز» در شبکه اجتماعی ایکس تصویری «قبل و بعد» منتشر کرد که مدعی بود تجهیزات راداری آمریکا در یک پایگاه در قطر «بهطور کامل نابود شدهاند».
اما به گفته محققان، این تصویر در واقع نسخهای دستکاریشده توسط هوش مصنوعی از تصاویر سال گذشته «گوگل ارث» از یک پایگاه آمریکایی در بحرین بود.
از میان نشانههای بصری ظریف برای تشخیص این جعل، میتوان به ردیفی از خودروهای پارک شده اشاره کرد که در هر دو تصویر (نسخه اصلی و نسخه دستکاری شده) دقیقا در همان مکانهای قبلی قرار داشتند.
با این حال، این تصویر جعلی پیش از آنکه ماهیتش فاش شود، میلیونها بار در شبکههای اجتماعی به زبانهای مختلف دیده شد؛ امری که نشاندهنده ناتوانی فزاینده کاربران در تشخیص واقعیت از رویا در پلتفرمهای اشباعشده از محتوای هوش مصنوعی است.
نقصهای فنی در تصاویر جعلی
«بردی افریک»، پژوهشگر اطلاعات منابع آشکار (اوسینت)، میگوید که پس از رویدادهای بزرگ نظامی، شاهد «افزایش چشمگیر تصاویر ماهوارهای دستکاریشده» در فضای مجازی هستیم.
او به خبرگزاری فرانسه گفت: «بسیاری از این تصاویر دستکاریشده، نشانههایی از نقصهای هوش مصنوعی را با خود دارند؛ از جمله زوایای عجیب، جزئیات محو و عناصر غیرمنطقی که با واقعیت سازگار نیستند.»
وی افزود: «برخی دیگر نیز تصاویر ماهوارهای اصلی هستند که به صورت دستی و با اضافه کردن لایههایی از خسارت یا تغییرات دیگر روی عکسهای سالم قدیمی ساخته میشوند.»
«غبار جنگ» و سوءاستفاده از هوش منابع آشکار (اوزینت)
تال هاگین، متخصص جنگ اطلاعاتی، به نمونه دیگری اشاره کرد: تصویری ساخته شده توسط هوش مصنوعی که ادعا میکرد جنگندههای اسرائیلی و آمریکایی ماکتهای نقاشی شده هواپیما روی زمین در ایران را هدف قرار دادهاند، در حالی که تهران هواپیماهای واقعی را به جای دیگری منتقل کرده است.
یکی از نشانههای فاشکننده در این تصویر، مختصات جغرافیایی بیمعنایی بود که در عکس گنجانده شده بود. با این حال، این تصویر در اینستاگرام، تردز و ایکس به سرعت بازنشر شد.
خبرگزاری فرانسه در بررسی این تصویر، یک «واترمارک» نامرئی (SynthID) را شناسایی کرد که نشاندهنده تولید محتوا توسط هوش مصنوعی است.
این تصاویر ماهوارهای جعلی درست زمانی پدیدار میشوند که حسابهای کاربری جعلی تحت عنوان اوسینت(اطلاعات منابع آشکار) در شبکههای اجتماعی رشد کردهاند؛ حسابهایی که به نظر میرسد هدفشان بیاعتبار کردن کار متخصصان واقعی این حوزه است.
تال هاگین توضیح میدهد: «به دلیل ‘غبار جنگ’ (ابهام در عملیاتهای نظامی)، تعیین میزان موفقیت حملات رقیب بسیار دشوار است. در این میان، اوسینت به عنوان راهکاری برای دور زدن سانسور در کشورهایی مانند ایران از طریق تصاویر ماهوارهای عمومی ظاهر شد. اما اکنون، این مسیر توسط عاملان اشاعه اطلاعات نادرست مورد سوءاستفاده قرار میگیرد.»
به کانال تلگرام یورونیوز فارسی بپیوندید
ضرورت هوشیاری انتقادی
بردی افریک میگوید: «تصاویر ماهوارهای دستکاریشده، مانند سایر اشکال اطلاعات نادرست، میتوانند تاثیرات واقعی بر جای بگذارند؛ بهویژه زمانی که افراد بر اساس اطلاعات تأییدنشده دست به اقدام بزنند. این تاثیرات میتواند از جهتدهی به افکار عمومی در مسائل کلانی مثل ورود یک کشور به جنگ تا نوسانات در بازارهای مالی گسترده باشد.»
در عصر هوش مصنوعی، تصاویر ماهوارهای واقعی با وضوح بالا که به صورت لحظهای جمعآوری میشوند، میتوانند ابزاری حیاتی برای تصمیمگیرندگان جهت ارزیابی تهدیدات و رد کردن ادعاهای کذب باشند.
بو ژائو از دانشگاه واشینگتن به خبرگزاری فرانسه گفت: «وقتی یک تصویر ماهوارهای به عنوان سند تصویری در بافتار جنگ ارائه میشود، میتواند به راحتی بر نحوه تفسیر رویدادها توسط مردم تأثیر بگذارد.»
او تاکید کرد که با پیشرفتهتر شدن هوش مصنوعی، «بسیار حیاتی است که افکار عمومی با احتیاط و ‘هوشیاری انتقادی’ با این نوع محتواهای بصری برخورد کنند.»