Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

آنتروپیک و اوپن‌AI برای جلوگیری از سواستفاده فاجعه‌بار متخصصان تسلیحات جذب می‌کنند

آرشیو - وب‌سایت و اپلیکیشن تلفن همراه Anthropic در این عکس در نیویورک، ۵ ژوئیه ۲۰۲۴ دیده می‌شود
عکس آرشیوی - وب‌سایت و اپلیکیشن تلفن همراه Anthropic در این عکس در نیویورک، ۵ ژوئیه ۲۰۲۴ دیده می‌شود Copyright  AP Photo/Richard Drew, File
Copyright AP Photo/Richard Drew, File
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

شرکت های Anthropic و OpenAI در حال جذب کارشناسان مواد شیمیایی و انفجار برای طراحی سازوکارهای ایمنی در سیستم های هوش مصنوعی خود هستند.

دو شرکت فعال در حوزه هوش مصنوعی Anthropic و OpenAI طبق آگهی‌های شغلی خود به‌دنبال استخدام کارشناسان سلاح و مواد منفجره هستند تا از سواستفاده از فناوری خود جلوگیری کنند.

آگهی
آگهی

Anthropic در یک پست لینکدین (منبع به زبان انگلیسی) اعلام کرده است که در جست‌وجوی یک کارشناس سیاست‌گذاری در حوزه سلاح‌های شیمیایی و انفجارهاست تا با شکل دادن به نحوه برخورد سیستم‌های هوش مصنوعی این شرکت با اطلاعات حساس در این حوزه‌ها از «سواستفاده فاجعه‌بار» از فناوری خود جلوگیری کند.

فردی که در Anthropic استخدام شود سازوکارهای حفاظتی مربوط به نحوه واکنش مدل‌های هوش مصنوعی به درخواست‌ها درباره سلاح‌های شیمیایی و مواد منفجره را طراحی و پایش خواهد کرد. او همچنین باید در برابر هر گونه تشدید درخواست‌ها درباره سلاح و انفجار که Anthropic شناسایی کند «واکنش سریع» نشان دهد.

متقاضیان باید دست‌کم پنج سال سابقه در «دفاع در برابر سلاح‌های شیمیایی و/یا مواد منفجره» و همچنین آشنایی با «ابزارهای پخش رادیولوژیک» یا همان بمب‌های کثیف داشته باشند. در شرح این شغل آمده است که فرد استخدام‌شده باید ارزیابی‌های ریسک جدیدی طراحی کند که مدیران شرکت بتوانند «در هنگام عرضه‌های پرخطر» به آن اعتماد کنند.

در آگهی شغلی OpenAI که اوایل ماه جاری منتشر شد آمده است که این شرکت به‌دنبال جذب پژوهشگران برای پیوستن به تیم «آمادگی» خود است؛ تیمی که «ریسک‌های فاجعه‌بار مرتبط با مدل‌های پیشرفته و مرزی هوش مصنوعی» را رصد می‌کند.

این شرکت همچنین برای استخدام یک «تهدید‌مدل‌ساز» آگهی داده است؛ سمتی که به یک نفر اختیار اصلی «شناسایی، مدل‌سازی و پیش‌بینی ریسک‌های مرزی» را می‌دهد و او را به «گره مرکزی پیونددهنده دیدگاه‌های فنی، حکمرانی و سیاست‌گذاری درباره اولویت‌بندی، تمرکز و منطق رویکرد ما به ریسک‌های مرزی ناشی از هوش مصنوعی» تبدیل می‌کند.

یورونیوز نکست برای دریافت توضیح درباره این آگهی‌های شغلی با Anthropic و OpenAI تماس گرفت اما پاسخی فوری دریافت نکرد.

این استخدام‌ها در حالی مطرح شده که Anthropic پس از آن‌که دولت آمریکا این شرکت را «ریسک زنجیره تامین» نامید، علیه این تصمیم اقدام حقوقی کرده است؛ عنوانی که به دولت اجازه می‌دهد قراردادها را متوقف کند یا به نهادها دستور دهد با این شرکت همکاری نکنند.

این تنش از ۲۴ فوریه آغاز شد؛ زمانی که وزارت جنگ آمریکا (DOW) خواستار دسترسی نامحدود به چت‌بات کلود متعلق به Anthropic شد.

داریو آمودی، مدیرعامل Anthropic، گفت قراردادهای وزارت جنگ نباید مواردی را شامل شود که در آن کلود برای نظارت گسترده داخلی به کار گرفته می‌شود یا در سامانه‌های کاملا خودکار تسلیحاتی ادغام می‌شود.

کمی بعد از بروز این تنش با Anthropic، شرکت OpenAI توافقی با وزارت جنگ آمریکا (DOW) امضا کرد تا از هوش مصنوعی خود در محیط‌های طبقه‌بندی‌شده استفاده شود. به گفته این شرکت، در این توافق خطوط قرمز سخت‌گیرانه‌ای در نظر گرفته شده است؛ از جمله ممنوعیت استفاده از سیستم‌های آن برای نظارت گسترده یا تسلیحات خودکار.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

بازیکنان پوکمون گو ناخودآگاه به آموزش ربات‌های تحویل کمک کرده‌اند

حملات سایبری؛ سلاح تازه در جنگ ایران

از عامل‌های هوش مصنوعی تا مدار: مهمترین لحظات کنفرانس سالانه انویدیا