گزارشی تازه نشان میدهد که مزاحمت سایبری، جاسوسافزارها، نفرتپراکنی و تهدیدها از جمله پرگزارشترین و محکومشدهترین اشکال خشونت علیه زنان و دختران در اروپا هستند.
در دهه گذشته، همزمان با رشد شتابان فناوریهای دیجیتال و نفوذ آنها در زندگی روزمره، فضاهای آنلاین و ابزارهای دیجیتال فرصتهایی تازه برای ارتباط و دسترسی به اطلاعات فراهم کردهاند؛ با این حال، خشونت علیه زنان و دختران که با واسطه فناوری صورت میگیرد نیز بهطور چشمگیری افزایش یافته است.
بر اساس گزارش سال ۲۰۲۳ موسسه «سکیوریتی هیرو»، بیش از ۹۰ درصد ویدئوهای دیپفیک موجود در فضای آنلاین ماهیت پورنوگرافیک دارند و تقریبا بهطور انحصاری زنان را هدف قرار میدهند.
طبق تازهترین گزارش شبکه «زنان علیه خشونت در اروپا» (WAVE)، در سراسر اروپا مزاحمت سایبری و استفاده از جاسوسافزارها شایعترین اشکال خشونت سایبری گزارششده از سوی زنان و دختران بودهاند.
شبکه ویو (WAVE) متشکل از بیش از ۱۸۰ سازمان غیردولتی زنان در اروپا است که با هدف پیشگیری از خشونت و حمایت از زنان و کودکان فعالیت میکنند.
در این گزارش آمده است: «خشونتی که در فضای آنلاین اعمال میشود، اغلب دشوارتر شناسایی، اثبات و مجازات میشود و همین امر سبب میشود بسیاری از زنان و دختران بدون برخورداری از حمایت کافی در معرض آسیب باقی بمانند.»
آزار آنلاین، نفرتپراکنی و تهدید نیز به همان اندازه فراگیر بوده و در ۳۰ کشور گزارش شده است.
برای نمونه، در یونان طی سال ۲۰۲۳، زنان ۵۵/۳ درصد از قربانیان پروندههای تهدید آنلاین و ۶۹/۶ درصد از قربانیان مزاحمت سایبری را تشکیل دادهاند.
بیش از نیمی از کشورها (۵۷ درصد) همچنین از افزایش سوءاستفاده مبتنی بر تصویر و انتشار تصاویر خصوصی بدون رضایت خبر دادهاند. در دانمارک، شمار نوجوانانی که تجربه سوءاستفاده مبتنی بر تصویر داشتهاند، از سال ۲۰۲۱ تاکنون سه برابر شده است.
گزارش ویو تاکید میکند: «الگوریتمها میتوانند محتوای زنستیزانه را بهسرعت در معرض دید شمار زیادی از افراد قرار دهند و فضاهای بستهای ایجاد کنند که در آنها خشونت علیه زنان و دختران عادیسازی شده و ایدههای زیانبار، بهویژه در میان مردان جوان، گسترش مییابد.»
نگرانیهای فزاینده درباره تصاویر جنسی صریح
رشد پرشتاب هوش مصنوعی در سالهای اخیر به نظر میرسد این بحران را تشدید کرده و چالشهای تازهای، بهویژه در زمینه تصاویر جنسی صریح، پدید آورده است.
از ابتدای سال ۲۰۲۶، «گروک»، چتبات هوش مصنوعی متعلق به ایلان ماسک، در پاسخ به درخواست کاربران برای «برهنه کردن» تصاویر زنان، اقدام به تولید دیپفیکهای مبتنی بر هوش مصنوعی کرده است؛ آن هم بدون وجود سازوکارهای حفاظتی موثر.
یک سازمان غیرانتفاعی اروپایی فعال در بررسی الگوریتمهای تاثیرگذار با نام «AI Forensics»، بیش از ۲۰ هزار تصویر تولیدشده توسط گروک و ۵۰ هزار درخواست کاربران را تحلیل کرده و به این نتیجه رسیده است که ۵۳ درصد تصاویر تولیدی شامل افرادی با پوشش حداقلی بودهاند که ۸۱ درصد آنها زن به نظر میرسیدهاند.
علاوه بر این، ۲ درصد از تصاویر افراد زیر ۱۸ سال را نشان میداده و ۶ درصد نیز مربوط به چهرههای عمومی بودهاند که حدود یکسوم آنها سیاستمدار بودهاند.
در واکنش به این انتقادها، این پلتفرم ابزارهای تازهای را برای جلوگیری از ویرایش تصاویر افراد واقعی با پوششهای باز به کار گرفته است.
تیم ایمنی ایلان ماسک در شبکه اجتماعی ایکس نوشت: «ما تدابیر فنیای را اجرا کردهایم تا حساب گروک در ایکس در سطح جهانی امکان ویرایش تصاویر افراد واقعی با پوششهای باز، مانند مایو، را نداشته باشد.»
این محدودیت شامل همه کاربران، از جمله مشترکان پولی میشود.
آقای ماسک همچنین مدعی شده است که برای حذف محتوای ناقض مقررات با اولویت بالا، از جمله تصاویر سوءاستفاده جنسی از کودکان و برهنگی بدون رضایت، اقدام میکند و حسابهایی را که در پی محتوای بهرهکشی جنسی از کودکان هستند، به مراجع قانونی معرفی میکند.
در این میان، سیاستمداران، روزنامهنگاران، مدافعان حقوق زنان و فعالان فمینیست، بهطور مکرر هدف آزار آنلاین، پورنوگرافی دیپفیک و کارزارهای هماهنگ نفرتپراکنی قرار میگیرند؛ اقداماتی که با هدف خاموشکردن صداها یا بیاعتبار ساختن آنها طراحی شدهاند.