Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

کارشناسان: مد کاریکاتور هوش مصنوعی چت‌جی‌پی‌تی فرصت طلایی برای کلاهبرداران

یک کاریکاتور تولیدشده با هوش مصنوعی بر اساس یک تصویر آرشیوی کانوا.
یک کاریکاتور تولید‌شده با هوش مصنوعی از یک عکس آرشیوی کانوا. Copyright  Canva/ChatGPT
Copyright Canva/ChatGPT
نگارش از Euronews
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

تصاویر بارگذاری شده در چت‌بات‌های هوش مصنوعی ممکن است برای مدتی نامشخص نگهداری شوند و اگر به دست افراد سواستفاده‌گر برسند به جعل هویت، کلاهبرداری و ساخت حساب‌های جعلی در شبکه‌های اجتماعی منجر شوند.

به گفته کارشناسان امنیت سایبری، مد تازه کاریکاتورهای ساخته‌شده با هوش مصنوعی که هر آنچه یک چت‌بات درباره فردی می‌داند را در یک تصویر رنگی به نمایش می‌گذارد، می‌تواند خطرهای جدی امنیتی به همراه داشته باشد.

آگهی
آگهی

کاربران عکسی از خود، همراه با لوگوی شرکت یا جزئیاتی درباره نقش‌شان، بارگذاری می‌کنند و از چت‌جی‌پی‌تیِ اوپن‌ای‌آی می‌خواهند با استفاده از آنچه چت‌بات درباره آن‌ها می‌داند، کاریکاتوری از خودشان و شغل‌شان بسازد.

کارشناسان امنیت سایبری به یورونیوز نکست گفته‌اند چالش‌های شبکه‌های اجتماعی، از جمله کاریکاتورهای هوش مصنوعی، می‌تواند گنجینه ای از اطلاعات ارزشمند در اختیار کلاهبرداران قرار دهد. یک تصویر واحد، وقتی با جزئیات شخصی همراه شود، می‌تواند بیش از آنچه کاربران تصور می‌کنند اطلاعات فاش کند.

باب لانگ، معاون شرکت احراز هویت سنی دائون، می‌گوید: «شما کار کلاهبرداران را برای‌شان انجام می‌دهید و یک تصویر بصری از خودتان در اختیارشان می‌گذارید.»

او استدلال می‌کند که خودِ نحوه طرح این چالش باید زنگ خطر را به صدا درآورد، زیرا به گفته او «انگار یک کلاهبردار آن را عامدانه راه انداخته تا کارش را ساده‌تر کند».

پس از بارگذاری، چه بر سر تصاویر می‌آید؟

جیک مور، مشاور امنیت سایبری، می‌گوید وقتی کاربری تصویری را برای یک چت‌بات هوش مصنوعی بارگذاری می‌کند، سیستم آن تصویر را پردازش می‌کند تا داده‌هایی مانند احساسات فرد، محیط اطراف یا اطلاعاتی را که می‌تواند محل حضور او را فاش کند، استخراج کند. این اطلاعات ممکن است برای مدتی نامعلوم ذخیره شود.

لانگ می‌گوید تصاویری که از کاربران جمع‌آوری می‌شود می‌تواند به‌عنوان بخشی از مجموعه‌داده‌های مورد استفاده برای آموزش مولدهای تصویر هوش مصنوعی به کار برود و نگه داشته شود.

نشت داده در شرکتی مانند اوپن‌ای‌آی می‌تواند به این معنا باشد که داده‌های حساس، از جمله تصاویر بارگذاری‌شده و اطلاعات شخصی که چت‌بات جمع‌آوری کرده، به دست افراد سواستفاده‌گر بیفتد و آن‌ها از آن بهره‌برداری کنند.

شارلوت ویلسون، مدیر بخش سازمانی در شرکت امنیت سایبری اسرائیلی چک‌پوینت، می‌گوید: «اگر تنها یک تصویر با وضوح بالا به دست افراد ناباب بیفتد، می‌توان از آن برای ساخت حساب‌های جعلی در شبکه‌های اجتماعی یا دیپ‌فیک‌های واقع‌گرایانه مبتنی بر هوش مصنوعی استفاده کرد که می‌توانند برای اجرای کلاهبرداری به کار بروند.»

او می‌گوید: «سلفی‌ها کمک می‌کنند مجرمان از کلاهبرداری‌های کلی به سمت جعل هویت‌های شخصی‌سازی‌شده و بسیار قانع‌کننده بروند.»

تنظیمات حریم خصوصی اوپن‌ای‌آی اعلام می‌کند که تصاویر بارگذاری‌شده ممکن است برای بهبود مدل استفاده شوند؛ این بهبود می‌تواند شامل آموزش دادن آن هم باشد. چت‌جی‌پی‌تی در پاسخ به پرسشی درباره همین تنظیمات حریم خصوصی توضیح داد که این به آن معنا نیست که هر عکس در یک پایگاه‌داده عمومی قرار می‌گیرد.

این چت‌بات می‌گوید به‌جای آن، از الگوهای موجود در محتوای کاربران استفاده می‌کند تا نحوه تولید تصویر توسط سیستم را دقیق‌تر کند.

اگر می‌خواهید در ترندهای هوش مصنوعی شرکت کنید چه باید بکنید؟

کارشناسان به کسانی که همچنان می‌خواهند این ترند را دنبال کنند توصیه می‌کنند میزان اطلاعاتی را که به‌اشتراک می‌گذارند محدود کنند.

ویلسون می‌گوید کاربران باید از بارگذاری تصاویری که هرگونه اطلاعات هویتی را آشکار می‌کند خودداری کنند.

او می‌گوید: «قاب تصویر را تا حد ممکن تنگ انتخاب کنید، پس‌زمینه را ساده نگه دارید و در عکس نشان، یونیفرم، بند آویز کارت شناسایی محل کار، نشانه‌های مکانی یا هر چیز دیگری را که شما را به یک کارفرما یا یک روال ثابت گره می‌زند قرار ندهید.»

ویلسون همچنین هشدار داد که کاربران در متن درخواست‌های خود برای چت‌بات، بیش از حد اطلاعات شخصی مانند عنوان شغلی، شهر محل سکونت یا نام کارفرما را فاش نکنند.

در همین حال، مور توصیه کرد پیش از شرکت در این ترند، تنظیمات حریم خصوصی را بازبینی کنید؛ از جمله گزینه ای که اجازه می‌دهد داده‌های‌تان را از فرایند آموزش هوش مصنوعی خارج کنید.

اوپن‌ای‌آی یک پرتال حریم خصوصی دارد که به کاربران امکان می‌دهد با کلیک روی گزینه «از محتوای من برای آموزش استفاده نشود» از استفاده از داده‌های‌شان در آموزش هوش مصنوعی صرف‌نظر کنند.

کاربران همچنین می‌توانند با خاموش کردن تنظیم «به بهبود مدل برای همه کمک کن» از استفاده از مکالمات متنی خود با چت‌جی‌پی‌تی در آموزش مدل جلوگیری کنند.

بر اساس قوانین اتحادیه اروپا، کاربران می‌توانند حذف داده‌های شخصی جمع‌آوری‌شده توسط شرکت را درخواست کنند. با این حال، اوپن‌ای‌آی می‌گوید ممکن است برای مقابله با کلاهبرداری، سواستفاده و نگرانی‌های امنیتی، حتی پس از حذف، بخشی از اطلاعات را نگه دارد.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

انسان یا هوش مصنوعی؟ تردید پژوهشگران درباره نویسندگان پست‌های شبکه مولتبوک

برهنه‌سازی با هوش مصنوعی؛ چرا اروپا خواستار ممنوعیت است؟

آیا سیستم امنیتی خانه شما بزرگترین تهدیدتان است؟