یک پژوهش نشان میدهد مدلهای هوش مصنوعی چینی بیش از مدلهای غیرچینی از پاسخ دادن به پرسشهای سیاسی یا پاسخ دقیق دادن خودداری میکنند.
یک مطالعه جدید نشان میدهد چتبات های هوش مصنوعی (AI) چینی در بسیاری موارد از پاسخ دادن به سوال های سیاسی خودداری میکنند یا روایت های رسمی دولت را تکرار میکنند؛ موضوعی که حاکی از احتمال سانسور در آن ها است.
این مطالعه که در نشریه PNAS Nexus منتشر شده، بررسی کرده است چتبات های پیشروی چینی از جمله بای چوان (BaiChuan)، دیپ سیک (DeepSeek) و چت جی ال ام (ChatGLM) در مقایسه با مدل های توسعه یافته خارج از چین به بیش از ۱۰۰ سوال درباره سیاست های حکومتی چگونه پاسخ میدهند.
پژوهشگران در مواردی که یک چتبات از پاسخ دادن خودداری کرده یا اطلاعات نادرست ارائه داده، پاسخ ها را به عنوان «احتمالا سانسورشده» علامتگذاری کردهاند.
مطالعه خاطرنشان میکند سوال هایی درباره وضعیت تایوان، اقلیت های قومی یا فعالان سرشناس حامی دموکراسی در مدل های چینی با امتناع، طفره رفتن یا تکرار مواضع رسمی دولت روبهرو شده است.
پژوهشگران گفتند: «یافته های ما نشان میدهد سانسور در مدل های زبانی بزرگ مستقر در چین میتواند بر دسترسی کاربران به اطلاعات و حتی آگاهی آن ها از این که سانسور میشوند تاثیر بگذارد.» آن ها یادآور شدند چین یکی از معدود کشورهایی غیر از ایالات متحده است که توانایی ساخت مدل های پایه هوش مصنوعی را دارد.
به گفته این مطالعه، در مواردی که این مدل ها به پرسش ها پاسخ دادهاند، پاسخ ها کوتاه تر و حاوی سطح بالاتری از نادقیق بودن بوده، زیرا اطلاعات کلیدی را حذف کردهاند یا اساس سوال را زیر سوال بردهاند.
در میان مدل های چینی، بای چوان و چت جی ال ام با نرخ خطای ۸ درصد کم ترین میزان نادقیق بودن را داشته اند، در حالی که نرخ خطای دیپ سیک به ۲۲ درصد رسیده که بیش از دو برابر سقف ۱۰ درصدی ثبت شده در مدل های غیر چینی است.
این مطالعه مینویسد سانسور هوش مصنوعی میتواند «به شکل نامحسوس تصمیمگیری را شکل دهد».
در یکی از نمونه ها، مدلی چینی که درباره سانسور اینترنت از آن سوال شده بود، به «دیوار آتش بزرگ» چین اشاره ای نکرد؛ سامانه ای که دانشگاه استنفورد آن را در توصیف میکند (منبع به زبان انگلیسی) برنامه دولتی پایش و سانسور اینترنت معرفی میکند که تعیین میکند از طریق شبکه های آنلاین چه چیزهایی قابل مشاهده است و چه چیزهایی نه. برای نمونه، سایت های پرطرفدار آمریکایی مانند گوگل، فیس بوک و یاهو در چارچوب همین طرح در چین مسدود شده اند.
چتبات ها در پاسخ های خود به این دیوار آتش اشاره نکردند و در عوض گفتند مقام ها «اینترنت را مطابق قانون مدیریت میکنند».
این مطالعه هشدار میدهد این نوع سانسور میتواند برای کاربران سخت تر قابل تشخیص باشد، زیرا چتبات ها اغلب عذرخواهی میکنند یا برای پاسخ ندادن مستقیم توجیهی ارائه میدهند. در متن مطالعه آمده است این رویکردی ظریف است که میتواند «بی سر و صدا برداشت ها، تصمیمگیری ها و رفتارها را شکل دهد».
در سال ۲۰۲۳، قوانین جدید چین در حوزه هوش مصنوعی مقرر کرد شرکت های فعال در این عرصه باید به «ارزش های اصلی سوسیالیستی» پایبند باشند و از تولید محتواهایی که «تحریک کننده براندازی حاکمیت ملی یا برچیدن نظام سوسیالیستی... یا لطمه زننده به تصویر کشور» است منع شده اند.
این مقررات افزوده است شرکت هایی که میتوانند زمینه «بسیج اجتماعی» را فراهم کنند باید ارزیابی های امنیتی را پشت سر بگذرانند و الگوریتم های خود را به اداره امنیت سایبری چین (CAC) ارائه کنند.
پژوهشگران گفتند این مقررات «این ظرفیت را دارد که بر خروجی مدل های زبانی بزرگ توسعه یافته در داخل چین تاثیر بگذارد».
با این حال آن ها هشدار دادند همه تفاوت ها در نحوه پاسخگویی چتبات ها ناشی از فشار دولتی نیست.
مطالعه تاکید میکند مدل های چینی ممکن است بر اساس مجموعه داده هایی آموزش دیده باشند که بازتاب دهنده «بافت فرهنگی، اجتماعی و زبانی چین» است؛ داده هایی که شاید در آموزش مدل های دیگر خارج از چین به کار نرفته باشد.