Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

بن‌بست میان شرکت هوش مصنوعی آنتروپیک و آمریکا بر سر یک قرارداد نظامی

عکس آرشیوی - پیت هگزت وزیر دفاع آمریکا ۱۵ ژانویه ۲۰۲۶ هنگام مراسم استقبال از وزیر دفاع ژاپن بیرون پنتاگون در واشینگتن ایستاده‌است.
FILE - پیت هگستث، وزیر دفاع امریکا، ۱۵ ژانویه ۲۰۲۶ هنگام مراسم استقبال از وزیر دفاع ژاپن، بیرون پنتاگون در واشنگتن ایستاده است. Copyright  AP Photo/Kevin Wolf, File
Copyright AP Photo/Kevin Wolf, File
نگارش از Anna Desmarais با استفاده از AP
تاریخ انتشار به روز شده در
همرسانی نظرها
همرسانی Close Button

شرکت هوش مصنوعی آنتروپیک و پنتاگون آمریکا در بن بست و تقابل قرار گرفته اند؛ در این گزارش با همه جزئیات لازم آشنا می شوید.

دولت ایالات متحده امریکا تهدید کرده است اگر شرکت انتروپیک فناوری هوش مصنوعی خود را بدون هیچ گونه محدودیتی در اختیار ارتش نگذارد، قراردادهای نظامی با این شرکت را لغو می‌کند، اما این شرکت فناوری فعلا بر موضع خود پافشاری می‌کند.

آگهی
آگهی

داریا آمودی، مدیرعامل انتروپیک، روز ۲۶ فوریه در یک بیانیه (منبع به زبان انگلیسی) اعلام کرد که «نمی‌تواند با وجدان آسوده با درخواست پنتاگون برای دسترسی نامحدود به سامانه‌های هوش مصنوعی این شرکت موافقت کند».

او نوشت: «در شماری محدود از موارد، به این نتیجه رسیده‌ایم که هوش مصنوعی می‌تواند ارزش‌های دموکراتیک را تضعیف کند نه این که از آنها دفاع کند. برخی کاربردها نیز اساسا فراتر از توان فناوری امروز است تا بتوان آنها را به شکلی امن و قابل اعتماد عملی کرد».

بیانیه آمودی کمتر از ۲۴ ساعت پیش از ضرب‌الاجل جمعه‌ای منتشر شد که وزارت جنگ امریکا برای گرفتن دسترسی نامحدود خود به کلود تعیین کرده بود.

انتروپیک سازنده چت‌بات کلود است و آخرین شرکت در میان همتایان خود به شمار می‌رود که هنوز فناوری‌اش را در اختیار شبکه داخلی جدید ارتش امریکا قرار نداده است.

انتروپیک ژوئیه سال گذشته از وزارت دفاع امریکا قرارداد ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) دریافت کرد تا به گفته خود «نمونه‌هایی از قابلیت‌های پیشرو هوش مصنوعی را برای تقویت امنیت ملی امریکا توسعه دهد». این شرکت در سال ۲۰۲۴ نیز یک همکاری (منبع به زبان انگلیسی) با شرکت پالانتیر تکنولوژیز امضا کرد تا کلود را در نرم‌افزارهای اطلاعاتی دولت امریکا ادغام کند.

به گزارش رسانه‌ها، پیت هگست، وزیر دفاع، ۲۴ فوریه اعلام کرد اگر انتروپیک همکاری نکند، قرارداد ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) را لغو و این شرکت را «ریسک زنجیره تامین» معرفی خواهد کرد.

اگر انتروپیک طبق قانون (منبع به زبان انگلیسی) تدارکات امریکا به عنوان ریسک زنجیره تامین شناخته شود، دولت می‌تواند این شرکت را از برنده شدن قراردادها محروم کند، محصولات آن را از فهرست گزینه‌ها کنار بگذارد و به پیمانکاران اصلی دستور دهد از این تامین‌کننده استفاده نکنند.

گزارش‌ها از دیدار هگست با آمودی همچنین حاکی است که وزیر دفاع تهدید کرده از قانون (منبع به زبان انگلیسی) تولید دفاعی علیه این شرکت استفاده خواهد کرد؛ قانونی که به رئیس‌جمهور امریکا اختیار گسترده می‌دهد تا شرکت‌های خصوصی را وادار کند نیازهای امنیت ملی، از جمله دسترسی به فناوری آنها را در اولویت قرار دهند.

آمودی در بیانیه خود گفت قراردادها با وزارت جنگ نباید شامل مواردی باشد که در آن کلود برای پایش گسترده داخل کشور به کار گرفته می‌شود یا در سلاح‌های کاملا خودکار ادغام می‌شود.

او گفت این همان ملاحظات حفاظتی است که به باور او دلیل تهدید این وزارتخانه برای کنار گذاشتن انتروپیک از پروژه‌های نظامی امریکا است.

آمودی این دو تهدید را «ذاتا متناقض» توصیف کرد، چون یکی انتروپیک را یک ریسک امنیتی می‌نامد و دیگری می‌گوید کلود «برای امنیت ملی حیاتی است».

او اذعان کرد که وزارت جنگ حق دارد برای قراردادهایی که بیشتر با دیدگاهش همسو است شرکای دیگری برگزیند، اما افزود: «با توجه به ارزشی که فناوری انتروپیک برای نیروهای مسلح ما دارد، امیدواریم در تصمیم خود تجدیدنظر کنند».

این چت‌بات هوش مصنوعی اکنون در سراسر شبکه‌های محرمانه اطلاعاتی دولت امریکا به کار گرفته شده، در آزمایشگاه‌های ملی هسته‌ای مستقر است و مستقیما برای وزارت جنگ تحلیل اطلاعاتی انجام می‌دهد.

یورونیوز نکست برای دریافت نظر وزارت جنگ امریکا با این نهاد تماس گرفت اما پاسخی فوری دریافت نکرد.

عقب‌نشینی انتروپیک از تعهد اصلی خود درباره ایمنی

انتروپیک از زمان تاسیس در سال ۲۰۲۱، زمانی که بنیان‌گذارانش اوپن‌اِی‌آی را ترک کردند تا این استارتاپ را راه‌اندازی کنند، خود را مسئول‌تر و بیش از دیگر غول‌های هوش مصنوعی دغدغه‌مند ایمنی معرفی کرده است.

این شرکت سه‌شنبه در گفت‌وگویی با مجله تایم اعلام کرد که از تعهد خود مبنی بر این که تا زمانی که نتواند از کافی بودن تدابیر ایمنی اطمینان پیدا کند هیچ سامانه هوش مصنوعی را عرضه نخواهد کرد، عقب‌نشینی می‌کند.

در عوض، نسخه جدیدی از «سیاست توسعه مسئولانه» خود را منتشر کرد که چارچوب شرکت برای کاهش خطرهای فاجعه‌بار ناشی از هوش مصنوعی را تشریح می‌کند.

جرد کاپلان، مدیر علمی انتروپیک، به این نشریه گفت جلوگیری از آموزش مدل‌های جدید در حالی که رقبایشان بدون تدابیر حفاظتی پیش می‌تازند، کمکی به همراهی آنها با رقابت در عرصه هوش مصنوعی نخواهد کرد.

انتروپیک در سیاست جدید خود نوشته است: «اگر یک توسعه‌دهنده هوش مصنوعی برای پیاده‌سازی تدابیر ایمنی دست از توسعه بکشد، در حالی که دیگران بدون موانع جدی به آموزش و استقرار سامانه‌های هوش مصنوعی ادامه دهند، نتیجه می‌تواند جهانی باشد که کمتر امن است».

در ادامه این سند آمده است: «در آن صورت، توسعه‌دهندگانی که ضعیف‌ترین حفاظ‌ها را دارند سرعت رشد را تعیین می‌کنند و شرکت‌های مسئول، توان خود را برای انجام تحقیقات ایمنی و گسترش منافع عمومی از دست می‌دهند».

این سیاست امیدهای انتروپیک برای جا انداختن استانداردهای ایمنی در کل صنعت را از اهداف خود شرکت جدا می‌کند، هرچند ایمنی همچنان برای آنها در اولویت است.

انتروپیک گفت سیاست جدید به این معنا است که شرکت برای مدل‌های خود نقشه‌راه‌های ایمنی «جاه‌طلبانه اما دست‌یافتنی» تدوین خواهد کرد و همچنین گزارش‌های ریسک منتشر می‌کند که خطرهای پیش‌بینی‌شده و این که آیا عرضه یک مدل توجیه‌پذیر است یا نه را نشان می‌دهد.

این مقاله در ۲۷ فوریه به‌روز شده است.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

گلکسی S26 اولترا؛ جهش هوش مصنوعی و «نمایشگر حریم خصوصی»، کافی برای رقابت؟

شبکه‌های اجتماعی ذاتا اعتیادآورند و می‌توان الگوریتم را شکست داد؟

بازیکنان پوکمون گو ناخودآگاه به آموزش ربات‌های تحویل کمک کرده‌اند