نویسندگان این مقاله استدلال کردند که استفاده از اسامی مرسوم زنانه برای نامگذاری این صداها که نقش هدایتی دارند به کلیشههای جنسیتی مضر در جامعه دامن میزند.
براساس مطالعه جدید سازمان ملل متحد، صداهای تولید شده توسط هوش مصنوعی، که اغلب آنها به طور پیشفرض صداهای زنان هستند، کلیشههای جنسیتی مضر را تقویت میکنند.
در این تحقیق صداهای تولید شده از هوش مصنوعی که در بسیاری از دستگاههای دیجیتال از جمله نرمافزارهای کاربردی تلفن همراه، بلندگوهای هوشمند و موقعیتیابها مورد استفاده قرار میگیرند، بررسی شدند.
نویسندگان این مقاله استدلال کرده اند که استفاده از اسامی مرسوم زنانه برای نامگذاری این صداها که نقش «هدایتی» دارند به کلیشههای جنسیتی مضر در جامعه دامن میزند.
در این گزارش آمده است: «شرکتهایی مانند اپل و آمازون که اغلب متشکل از تیمهای مهندسی مردانه هستند با تولید سیستمهای هوش مصنوعی که در آنها از صدای زنان استفاده شده، مسائلی چون سوءستفاده کلامی از زنان و کلیشههایی چون با عشوه سخن گفتن آنان را تقویت میکنند.»
در ادامه آمده است که استفاده از صداهای زنانه در این دستگاهها سبب میشود این تفکر که زنان «وظیفه» مراقبت و نگهداری از خانواده را بر عهده دارند، در جامعه بازتولید شده و گسترش یابد.
بیشتر بخوانید:
- مردانگی در دنیای مد؛ لباس مردانه یا شکستن کلیشهها؟
- مدارس «جنسیت خنثی» در سوئد؛ مبارزه با کلیشه های جنسیتی
- تفاوت جنس و جنسیت به زبان ساده
این تحقیق همچنین با گزارشی که سپتامبر گذشته در بیزنس اینسایدر، وبگاه خبری تجارت و اخبار فنآوری در مورد آمازون منتشرکرد، همخوانی دارد.
در گزارش بیزنس اینسایدر آمده بود که دلیل انتخاب صداهای زنانه از سوی آمازون آن است که خاصیت «متقاعد سازی» دارند و در نتیجه موثرترند، امری که میتواند به عنوان یک کلیشه جنسیتی غلط تلقی شود.
گزارش سازمان ملل در نهایت به این نکته اشاره کرده است که شکاف جنسیتی و نژادی بزرگی در صنعت وجود دارد. در حالی که ۸۵ درصد از افرادی که در حوزه فنی تحصیل و کار میکنند مردان سفیدپوست هستند اما بیشتر صداهای مورد استفاده در نرمافزارهای موجود زنانه است؛ مسالهای که شکاف جنسیتی را در جوامع افزایش میدهد.