شرکت های Anthropic و OpenAI در حال جذب کارشناسان مواد شیمیایی و انفجار برای طراحی سازوکارهای ایمنی در سیستم های هوش مصنوعی خود هستند.
دو شرکت فعال در حوزه هوش مصنوعی Anthropic و OpenAI طبق آگهیهای شغلی خود بهدنبال استخدام کارشناسان سلاح و مواد منفجره هستند تا از سواستفاده از فناوری خود جلوگیری کنند.
Anthropic در یک پست لینکدین (منبع به زبان انگلیسی) اعلام کرده است که در جستوجوی یک کارشناس سیاستگذاری در حوزه سلاحهای شیمیایی و انفجارهاست تا با شکل دادن به نحوه برخورد سیستمهای هوش مصنوعی این شرکت با اطلاعات حساس در این حوزهها از «سواستفاده فاجعهبار» از فناوری خود جلوگیری کند.
فردی که در Anthropic استخدام شود سازوکارهای حفاظتی مربوط به نحوه واکنش مدلهای هوش مصنوعی به درخواستها درباره سلاحهای شیمیایی و مواد منفجره را طراحی و پایش خواهد کرد. او همچنین باید در برابر هر گونه تشدید درخواستها درباره سلاح و انفجار که Anthropic شناسایی کند «واکنش سریع» نشان دهد.
متقاضیان باید دستکم پنج سال سابقه در «دفاع در برابر سلاحهای شیمیایی و/یا مواد منفجره» و همچنین آشنایی با «ابزارهای پخش رادیولوژیک» یا همان بمبهای کثیف داشته باشند. در شرح این شغل آمده است که فرد استخدامشده باید ارزیابیهای ریسک جدیدی طراحی کند که مدیران شرکت بتوانند «در هنگام عرضههای پرخطر» به آن اعتماد کنند.
در آگهی شغلی OpenAI که اوایل ماه جاری منتشر شد آمده است که این شرکت بهدنبال جذب پژوهشگران برای پیوستن به تیم «آمادگی» خود است؛ تیمی که «ریسکهای فاجعهبار مرتبط با مدلهای پیشرفته و مرزی هوش مصنوعی» را رصد میکند.
این شرکت همچنین برای استخدام یک «تهدیدمدلساز» آگهی داده است؛ سمتی که به یک نفر اختیار اصلی «شناسایی، مدلسازی و پیشبینی ریسکهای مرزی» را میدهد و او را به «گره مرکزی پیونددهنده دیدگاههای فنی، حکمرانی و سیاستگذاری درباره اولویتبندی، تمرکز و منطق رویکرد ما به ریسکهای مرزی ناشی از هوش مصنوعی» تبدیل میکند.
یورونیوز نکست برای دریافت توضیح درباره این آگهیهای شغلی با Anthropic و OpenAI تماس گرفت اما پاسخی فوری دریافت نکرد.
این استخدامها در حالی مطرح شده که Anthropic پس از آنکه دولت آمریکا این شرکت را «ریسک زنجیره تامین» نامید، علیه این تصمیم اقدام حقوقی کرده است؛ عنوانی که به دولت اجازه میدهد قراردادها را متوقف کند یا به نهادها دستور دهد با این شرکت همکاری نکنند.
این تنش از ۲۴ فوریه آغاز شد؛ زمانی که وزارت جنگ آمریکا (DOW) خواستار دسترسی نامحدود به چتبات کلود متعلق به Anthropic شد.
داریو آمودی، مدیرعامل Anthropic، گفت قراردادهای وزارت جنگ نباید مواردی را شامل شود که در آن کلود برای نظارت گسترده داخلی به کار گرفته میشود یا در سامانههای کاملا خودکار تسلیحاتی ادغام میشود.
کمی بعد از بروز این تنش با Anthropic، شرکت OpenAI توافقی با وزارت جنگ آمریکا (DOW) امضا کرد تا از هوش مصنوعی خود در محیطهای طبقهبندیشده استفاده شود. به گفته این شرکت، در این توافق خطوط قرمز سختگیرانهای در نظر گرفته شده است؛ از جمله ممنوعیت استفاده از سیستمهای آن برای نظارت گسترده یا تسلیحات خودکار.