Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

جنگ سرد هوش مصنوعی؟ شرکت‌های فناوری آمریکا چین را به سرقت میلیاردها دلار تحقیق متهم کردند

گوگل، اوپن‌ای‌آی و انثروپیک می‌گویند حملات موسوم به «تقطیر» در هوش مصنوعی بیشتر شده که پاسخ پرامپت‌ها را برای آموزش مدل‌های کوچک‌تر می‌دزدند.
گوگل، اوپن‌اِی‌آی و آنتروپیک می‌گویند با افزایش حمله‌های «تقطیر» در هوش مصنوعی روبه‌رو هستند؛ حمله‌هایی که پاسخ پرامپت‌ها را برای آموزش مدل‌های کوچکتر می‌دزدند. Copyright  Canva
Copyright Canva
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

آنچه به آنها حملات تقطیر گفته می‌شود، پاسخهای مدلهای هوش مصنوعی را جمع‌آوری می‌کند تا مدلهای کوچکتر را آموزش دهد و مدلهای کوچکتر جدیدی بسازد.

همزمان با رقابت آمریکا و چین برای توسعه هوش مصنوعی (AI)، شرکت آمریکایی انتروپیک آخرین شرکتی است که هشدار میدهد شرکتهای چینی فعال در حوزه هوش مصنوعی در حال سرقت فناوری‌ای هستند که میتواند تعیین کند چه کسی برنده این رقابت خواهد بود.

آگهی
آگهی

انتروپیک ادعا میکند شرکتهای دیپ‌سیک، مون‌شات ای‌آی و مینی‌مکس بهطور مخفیانه با استفاده از بیش از ۲۴ هزار حساب جعلی بیش از ۱۶ میلیون گفتوگو با ربات گفتگویی هوش مصنوعی این شرکت، «کلاود»، تولید کرده‌اند تا از این راه هوش آن را استخراج و مدلهای رقیب خود را آموزش دهند.

اوپن‌ای‌آی و گوگل نیز در ماه جاری درباره اتهامهای مشابه علیه شرکتهای چینی هشدار داده‌اند؛ موضوعی که نگرانیها را درباره این احتمال افزایش داده که چین در حال میانبرزدن بر سالها تحقیق پرهزینه در زمینه هوش مصنوعی است.

هوش مصنوعیِ «تقطیرشده» چیست؟

حمله‌های استخراج مدل (MEA) که با عنوان «تقطیر» هم شناخته میشود، روشی است که در آن کسی که به یک مدل قدرتمند هوش مصنوعی دسترسی دارد، از آن برای آموزش یک رقیب ارزانتر و سریعتر استفاده میکند.

در این روش، مدل بزرگتر با هزاران پرسش تغذیه میشود، پاسخهای آن جمعآوری میشود و سپس از این پاسخها برای آموزش یک مدل جدید استفاده میشود تا به همان شیوه «فکر» کند.

انتروپیک ادعا میکند کاربر میتواند از مدل بزرگتر سؤال بپرسد و پاسخهای آن را برای آموزش مدل کوچکتر به کار بگیرد؛ فرایندی که باعث میشود مدل کوچکتر بسیار سریعتر و «با کسری از هزینه» نسبت به زمانی که بازیگر مخرب این کار را از ابتدا انجام میداد، توسعه یابد.

این شرکت آمریکایی میگوید تقطیر زمانی یک روش «قانونی» است که آزمایشگاههای پیشرو هوش مصنوعی مدلهای خود را تقطیر میکنند تا «نسخه‌های کوچکتر و ارزانتر برای مشتریانشان بسازند».

گوگل میگوید مدلهای کوچکتر بسیار سریعتر به پرسشها پاسخ میدهند و برای اجرا به توان و انرژی محاسباتی کمتری نسبت به مدل بزرگتر نیاز دارند.​

در مقابل، به گفته انتروپیک، مدلهایی که با استفاده از تقطیر توسعه مییابند از آنجا که «فاقد تدابیر حفاظتی لازم هستند» میتوانند خطرهای جدی برای امنیت ملی ایجاد کنند، زیرا محدودیتی برای کاهش خطرات بالقوه این مدلها در آنها تعبیه نشده است.

انتروپیک اعلام کرده است که مدلهای تقطیرشده ابزارهای حفاظتی لازم برای جلوگیری از استفاده دولت‌ها و بازیگران غیردولتی از هوش مصنوعی در ساخت سلاحهای بیولوژیک یا انجام حمله‌های سایبری را نخواهند داشت.

گوگل اضافه میکند در حمله تقطیر، هیچ خطری متوجه مصرفکنندگان عادی هوش مصنوعی نیست، زیرا این حمله‌ها «محرمانگی، دسترسپذیری یا یکپارچگی خدمات هوش مصنوعی را تهدید نمیکنند».​

اوپن‌ای‌آی در فوریه به قانونگذاران آمریکایی گفت این شرکت تلاش دیپ‌سیک برای کپی مخفیانه قدرتمندترین مدلهای هوش مصنوعی‌اش را شناسایی کرده و هشدار داده است که این شرکت چینی در حال توسعه روشهای جدیدی برای پنهان کردن فعالیت خود است.

هکرها به مدلهای خود چه چیزی یاد میدهند؟

بر اساس این اتهامها، شرکتهای چینی حوزه هوش مصنوعی ترافیک خود را از طریق آدرسهای پروکسی هدایت کرده‌اند که یک «شبکه هیدرا» وسیع، یعنی مجموعه بزرگی از حسابهای جعلی را مدیریت میکرده است؛ حسابهایی که فعالیت خود را در پلتفرمهای مختلف پخش میکردند تا به خدمات انتروپیک، که در چین ممنوع است، دسترسی پیدا کنند.

پس از ورود، این شرکتها حجم بزرگی از پیامهای ورودی تولید کردند؛ یا برای جمعآوری پاسخهای باکیفیت جهت آموزش مدل، یا برای ایجاد دهها هزار «وظیفه» برای یادگیری تقویتی، یعنی روشی که در آن یک عامل بر اساس بازخورد تصمیمگیری را یاد میگیرد.

حسابهای دیپ‌سیک که به کلاود نفوذ کرده بودند، از این مدل میخواستند توضیح دهد چگونه به یک پاسخ رسیده و آن را گام به گام بنویسد؛ کاری که به گفته این شرکت «حجم انبوهی داده آموزشی زنجیره تفکر تولید کرد».

انتروپیک ادعا میکند حسابهای دیپ‌سیک از کلاود همچنین برای «تولید جایگزینهای سازگار با سانسور برای پرسشهای سیاسی حساس» استفاده کرده‌اند؛ مثلا درباره مخالفان حزب کمونیست کنونی چین.

این شرکت آمریکایی حدس میزند چنین پرسشهایی مدلهای دیپ‌سیک را طوری آموزش داده که «گفتگوها را از موضوعات سانسورشده منحرف کنند»؛ موضوعی که میتواند موید یک مطالعه اخیر باشد که نشان داد مدلهای هوش مصنوعی چینی احتمالا همان موضوعاتی را سانسور میکنند که در رسانه‌های این کشور سانسور میشود.

انتروپیک میگوید کارزارهای تقطیر مینی‌مکس ای‌آی و مون‌شات ای‌آی از نظر حجم از دیپ‌سیک هم بزرگتر بوده است، اما این شرکت مثالی از نوع اطلاعاتی که این دو شرکت در پیامهای خود جمعآوری کرده‌اند، ارائه نکرد.

گوگل میگوید (منبع به زبان انگلیسی) ربات گفتگویی هوش مصنوعی این شرکت، «جمینی»، بهطور مکرر برای انجام کارهای کدنویسی و اسکریپتنویسی یا جمعآوری اطلاعات حساسی مانند نام کاربری، گذرواژه‌ها و نشانیهای ایمیل مورد سوءاستفاده قرار میگیرد.

انتروپیک میگوید سازوکارهایی برای شناسایی این کارزارها در همان زمان وقوع آنها ایجاد کرده است، اما تاکید میکند هیچ شرکت هوش مصنوعی بهتنهایی نمیتواند این مشکل را حل کند.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

سپاه صلح آمریکا برنامه «تک کورپس» را برای گسترش تخصص هوش مصنوعی در خارج آغاز کرد

بررسی سن در فروشگاه‌های اپلیکیشن: می‌تواند کودکان را از شبکه‌های اجتماعی دور نگه دارد؟

جنگ سرد هوش مصنوعی؟ شرکت‌های فناوری آمریکا چین را به سرقت میلیاردها دلار تحقیق متهم کردند