Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

پژوهش: چت‌بات‌های هوش مصنوعی چین سوال‌های حساس سیاسی را سانسور می‌کنند

صفحه اپلیکیشن تلفن همراه دیپ‌سیک در صفحه یک گوشی هوشمند در پکن، سه‌شنبه ۲۸ ژانویه ۲۰۲۵ دیده می‌شود
اپ دیپ‌سیک روی صفحه یک گوشی‌هوشمند در پکن در روز سه‌شنبه ۲۸ ژانویه ۲۰۲۵ دیده می‌شود. Copyright  AP Photo/Andy Wong
Copyright AP Photo/Andy Wong
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

یک پژوهش نشان می‌دهد مدل‌های هوش مصنوعی چینی بیش از مدل‌های غیرچینی از پاسخ دادن به پرسش‌های سیاسی یا پاسخ دقیق دادن خودداری می‌کنند.

یک مطالعه جدید نشان می‌دهد چت‌بات های هوش مصنوعی (AI) چینی در بسیاری موارد از پاسخ دادن به سوال های سیاسی خودداری می‌کنند یا روایت های رسمی دولت را تکرار می‌کنند؛ موضوعی که حاکی از احتمال سانسور در آن ها است.

آگهی
آگهی

این مطالعه که در نشریه PNAS Nexus منتشر شده، بررسی کرده است چت‌بات های پیشروی چینی از جمله بای چوان (BaiChuan)، دیپ سیک (DeepSeek) و چت جی ال ام (ChatGLM) در مقایسه با مدل های توسعه یافته خارج از چین به بیش از ۱۰۰ سوال درباره سیاست های حکومتی چگونه پاسخ می‌دهند.

پژوهشگران در مواردی که یک چت‌بات از پاسخ دادن خودداری کرده یا اطلاعات نادرست ارائه داده، پاسخ ها را به عنوان «احتمالا سانسورشده» علامت‌گذاری کرده‌اند.

مطالعه خاطرنشان می‌کند سوال هایی درباره وضعیت تایوان، اقلیت های قومی یا فعالان سرشناس حامی دموکراسی در مدل های چینی با امتناع، طفره رفتن یا تکرار مواضع رسمی دولت روبه‌رو شده است.

پژوهشگران گفتند: «یافته های ما نشان می‌دهد سانسور در مدل های زبانی بزرگ مستقر در چین می‌تواند بر دسترسی کاربران به اطلاعات و حتی آگاهی آن ها از این که سانسور می‌شوند تاثیر بگذارد.» آن ها یادآور شدند چین یکی از معدود کشورهایی غیر از ایالات متحده است که توانایی ساخت مدل های پایه هوش مصنوعی را دارد.

به گفته این مطالعه، در مواردی که این مدل ها به پرسش ها پاسخ داده‌اند، پاسخ ها کوتاه تر و حاوی سطح بالاتری از نادقیق بودن بوده، زیرا اطلاعات کلیدی را حذف کرده‌اند یا اساس سوال را زیر سوال برده‌اند.

در میان مدل های چینی، بای چوان و چت جی ال ام با نرخ خطای ۸ درصد کم ترین میزان نادقیق بودن را داشته اند، در حالی که نرخ خطای دیپ سیک به ۲۲ درصد رسیده که بیش از دو برابر سقف ۱۰ درصدی ثبت شده در مدل های غیر چینی است.

این مطالعه می‌نویسد سانسور هوش مصنوعی می‌تواند «به شکل نامحسوس تصمیم‌گیری را شکل دهد».

در یکی از نمونه ها، مدلی چینی که درباره سانسور اینترنت از آن سوال شده بود، به «دیوار آتش بزرگ» چین اشاره ای نکرد؛ سامانه ای که دانشگاه استنفورد آن را در توصیف می‌کند (منبع به زبان انگلیسی) برنامه دولتی پایش و سانسور اینترنت معرفی می‌کند که تعیین می‌کند از طریق شبکه های آنلاین چه چیزهایی قابل مشاهده است و چه چیزهایی نه. برای نمونه، سایت های پرطرفدار آمریکایی مانند گوگل، فیس بوک و یاهو در چارچوب همین طرح در چین مسدود شده اند.

چت‌بات ها در پاسخ های خود به این دیوار آتش اشاره نکردند و در عوض گفتند مقام ها «اینترنت را مطابق قانون مدیریت می‌کنند».

این مطالعه هشدار می‌دهد این نوع سانسور می‌تواند برای کاربران سخت تر قابل تشخیص باشد، زیرا چت‌بات ها اغلب عذرخواهی می‌کنند یا برای پاسخ ندادن مستقیم توجیهی ارائه می‌دهند. در متن مطالعه آمده است این رویکردی ظریف است که می‌تواند «بی سر و صدا برداشت ها، تصمیم‌گیری ها و رفتارها را شکل دهد».

در سال ۲۰۲۳، قوانین جدید چین در حوزه هوش مصنوعی مقرر کرد شرکت های فعال در این عرصه باید به «ارزش های اصلی سوسیالیستی» پایبند باشند و از تولید محتواهایی که «تحریک کننده براندازی حاکمیت ملی یا برچیدن نظام سوسیالیستی... یا لطمه زننده به تصویر کشور» است منع شده اند.

این مقررات افزوده است شرکت هایی که می‌توانند زمینه «بسیج اجتماعی» را فراهم کنند باید ارزیابی های امنیتی را پشت سر بگذرانند و الگوریتم های خود را به اداره امنیت سایبری چین (CAC) ارائه کنند.

پژوهشگران گفتند این مقررات «این ظرفیت را دارد که بر خروجی مدل های زبانی بزرگ توسعه یافته در داخل چین تاثیر بگذارد».

با این حال آن ها هشدار دادند همه تفاوت ها در نحوه پاسخ‌گویی چت‌بات ها ناشی از فشار دولتی نیست.

مطالعه تاکید می‌کند مدل های چینی ممکن است بر اساس مجموعه داده هایی آموزش دیده باشند که بازتاب دهنده «بافت فرهنگی، اجتماعی و زبانی چین» است؛ داده هایی که شاید در آموزش مدل های دیگر خارج از چین به کار نرفته باشد.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

خروج یک دانشگاه از اجلاس هوش مصنوعی هند پس از ادعای مالکیت بر سگ رباتیک چینی

مارک زاکربرگ، مدیرعامل متا، در دادگاه آسیب شبکه‌های اجتماعی به کودکان شهادت می‌دهد

استارتاپ‌ها: بوروکراسی اروپا رونق هوش مصنوعی سوئد را تهدید می‌کند