آنچه به آنها حملات تقطیر گفته میشود، پاسخهای مدلهای هوش مصنوعی را جمعآوری میکند تا مدلهای کوچکتر را آموزش دهد و مدلهای کوچکتر جدیدی بسازد.
همزمان با رقابت آمریکا و چین برای توسعه هوش مصنوعی (AI)، شرکت آمریکایی انتروپیک آخرین شرکتی است که هشدار میدهد شرکتهای چینی فعال در حوزه هوش مصنوعی در حال سرقت فناوریای هستند که میتواند تعیین کند چه کسی برنده این رقابت خواهد بود.
انتروپیک ادعا میکند شرکتهای دیپسیک، مونشات ایآی و مینیمکس بهطور مخفیانه با استفاده از بیش از ۲۴ هزار حساب جعلی بیش از ۱۶ میلیون گفتوگو با ربات گفتگویی هوش مصنوعی این شرکت، «کلاود»، تولید کردهاند تا از این راه هوش آن را استخراج و مدلهای رقیب خود را آموزش دهند.
اوپنایآی و گوگل نیز در ماه جاری درباره اتهامهای مشابه علیه شرکتهای چینی هشدار دادهاند؛ موضوعی که نگرانیها را درباره این احتمال افزایش داده که چین در حال میانبرزدن بر سالها تحقیق پرهزینه در زمینه هوش مصنوعی است.
هوش مصنوعیِ «تقطیرشده» چیست؟
حملههای استخراج مدل (MEA) که با عنوان «تقطیر» هم شناخته میشود، روشی است که در آن کسی که به یک مدل قدرتمند هوش مصنوعی دسترسی دارد، از آن برای آموزش یک رقیب ارزانتر و سریعتر استفاده میکند.
در این روش، مدل بزرگتر با هزاران پرسش تغذیه میشود، پاسخهای آن جمعآوری میشود و سپس از این پاسخها برای آموزش یک مدل جدید استفاده میشود تا به همان شیوه «فکر» کند.
انتروپیک ادعا میکند کاربر میتواند از مدل بزرگتر سؤال بپرسد و پاسخهای آن را برای آموزش مدل کوچکتر به کار بگیرد؛ فرایندی که باعث میشود مدل کوچکتر بسیار سریعتر و «با کسری از هزینه» نسبت به زمانی که بازیگر مخرب این کار را از ابتدا انجام میداد، توسعه یابد.
این شرکت آمریکایی میگوید تقطیر زمانی یک روش «قانونی» است که آزمایشگاههای پیشرو هوش مصنوعی مدلهای خود را تقطیر میکنند تا «نسخههای کوچکتر و ارزانتر برای مشتریانشان بسازند».
گوگل میگوید مدلهای کوچکتر بسیار سریعتر به پرسشها پاسخ میدهند و برای اجرا به توان و انرژی محاسباتی کمتری نسبت به مدل بزرگتر نیاز دارند.
در مقابل، به گفته انتروپیک، مدلهایی که با استفاده از تقطیر توسعه مییابند از آنجا که «فاقد تدابیر حفاظتی لازم هستند» میتوانند خطرهای جدی برای امنیت ملی ایجاد کنند، زیرا محدودیتی برای کاهش خطرات بالقوه این مدلها در آنها تعبیه نشده است.
انتروپیک اعلام کرده است که مدلهای تقطیرشده ابزارهای حفاظتی لازم برای جلوگیری از استفاده دولتها و بازیگران غیردولتی از هوش مصنوعی در ساخت سلاحهای بیولوژیک یا انجام حملههای سایبری را نخواهند داشت.
گوگل اضافه میکند در حمله تقطیر، هیچ خطری متوجه مصرفکنندگان عادی هوش مصنوعی نیست، زیرا این حملهها «محرمانگی، دسترسپذیری یا یکپارچگی خدمات هوش مصنوعی را تهدید نمیکنند».
اوپنایآی در فوریه به قانونگذاران آمریکایی گفت این شرکت تلاش دیپسیک برای کپی مخفیانه قدرتمندترین مدلهای هوش مصنوعیاش را شناسایی کرده و هشدار داده است که این شرکت چینی در حال توسعه روشهای جدیدی برای پنهان کردن فعالیت خود است.
هکرها به مدلهای خود چه چیزی یاد میدهند؟
بر اساس این اتهامها، شرکتهای چینی حوزه هوش مصنوعی ترافیک خود را از طریق آدرسهای پروکسی هدایت کردهاند که یک «شبکه هیدرا» وسیع، یعنی مجموعه بزرگی از حسابهای جعلی را مدیریت میکرده است؛ حسابهایی که فعالیت خود را در پلتفرمهای مختلف پخش میکردند تا به خدمات انتروپیک، که در چین ممنوع است، دسترسی پیدا کنند.
پس از ورود، این شرکتها حجم بزرگی از پیامهای ورودی تولید کردند؛ یا برای جمعآوری پاسخهای باکیفیت جهت آموزش مدل، یا برای ایجاد دهها هزار «وظیفه» برای یادگیری تقویتی، یعنی روشی که در آن یک عامل بر اساس بازخورد تصمیمگیری را یاد میگیرد.
حسابهای دیپسیک که به کلاود نفوذ کرده بودند، از این مدل میخواستند توضیح دهد چگونه به یک پاسخ رسیده و آن را گام به گام بنویسد؛ کاری که به گفته این شرکت «حجم انبوهی داده آموزشی زنجیره تفکر تولید کرد».
انتروپیک ادعا میکند حسابهای دیپسیک از کلاود همچنین برای «تولید جایگزینهای سازگار با سانسور برای پرسشهای سیاسی حساس» استفاده کردهاند؛ مثلا درباره مخالفان حزب کمونیست کنونی چین.
این شرکت آمریکایی حدس میزند چنین پرسشهایی مدلهای دیپسیک را طوری آموزش داده که «گفتگوها را از موضوعات سانسورشده منحرف کنند»؛ موضوعی که میتواند موید یک مطالعه اخیر باشد که نشان داد مدلهای هوش مصنوعی چینی احتمالا همان موضوعاتی را سانسور میکنند که در رسانههای این کشور سانسور میشود.
انتروپیک میگوید کارزارهای تقطیر مینیمکس ایآی و مونشات ایآی از نظر حجم از دیپسیک هم بزرگتر بوده است، اما این شرکت مثالی از نوع اطلاعاتی که این دو شرکت در پیامهای خود جمعآوری کردهاند، ارائه نکرد.
گوگل میگوید (منبع به زبان انگلیسی) ربات گفتگویی هوش مصنوعی این شرکت، «جمینی»، بهطور مکرر برای انجام کارهای کدنویسی و اسکریپتنویسی یا جمعآوری اطلاعات حساسی مانند نام کاربری، گذرواژهها و نشانیهای ایمیل مورد سوءاستفاده قرار میگیرد.
انتروپیک میگوید سازوکارهایی برای شناسایی این کارزارها در همان زمان وقوع آنها ایجاد کرده است، اما تاکید میکند هیچ شرکت هوش مصنوعی بهتنهایی نمیتواند این مشکل را حل کند.