Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

چرا شرکت هوش مصنوعی آنتروپیک و آمریکا بر سر یک قرارداد نظامی در بن‌بست‌اند

آرشیو - پیت هگزث، وزیر دفاع آمریکا، در مراسم استقبال از وزیر دفاع ژاپن در محوطه پنتاگون در واشنگتن، ۱۵ ژانویه ۲۰۲۶.
آرشیو - پیت هگست، وزیر دفاع، در مراسم استقبال از وزیر دفاع ژاپن بیرون ساختمان پنتاگون در واشنگتن ایستاده است، ۱۵ ژانویه ۲۰۲۶. Copyright  AP Photo/Kevin Wolf, File
Copyright AP Photo/Kevin Wolf, File
نگارش از Anna Desmarais با استفاده از AP
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

شرکت هوش مصنوعی Anthropic و پنتاگون آمریکا در بن‌بست قرار گرفته‌اند. در این گزارش هر آنچه باید بدانید را می‌خوانید.

دولت آمریکا تهدید کرده اگر شرکت انتروپیک (Anthropic) فناوری هوش‌مصنوعی خود را بدون محدودیت در اختیار استفاده نظامی قرار ندهد، قراردادهای نظامی‌اش با این شرکت را خاتمه می‌دهد.

آگهی
آگهی

انتروپیک که چت‌بات «کلود» را تولید می‌کند، آخرین شرکت در میان رقبای خود است که هنوز فناوری‌اش را در اختیار یک شبکه داخلی جدید ارتش آمریکا قرار نداده است.

داریو آمودی، مدیرعامل انتروپیک، بارها نگرانی‌های اخلاقی خود را درباره استفاده مهار‌نشده دولت‌ها از هوش‌مصنوعی مطرح کرده که از جمله شامل خطر پهپادهای مسلح کاملا خودمختار و نظارت گسترده مبتنی بر هوش‌مصنوعی است که می‌تواند مخالفان را ردیابی کند.

انتروپیک تیرماه گذشته اعلام کرد قراردادی ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) با وزارت دفاع آمریکا برای «طراحی اولیه توانمندی‌های پیشرفته هوش‌مصنوعی با هدف تقویت امنیت‌ملی آمریکا» به دست آورده است. این شرکت در سال ۲۰۲۴ یک همکاری (منبع به زبان انگلیسی) با شرکت پالانتیر تکنالوجیز امضا کرد تا کلود را در نرم‌افزارهای اطلاعاتی دولت آمریکا ادغام کند.

به گزارش رسانه‌ها، پیت هگست، وزیر دفاع، روز سه‌شنبه گفته اگر انتروپیک از دستورات پیروی نکند، این قرارداد ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) را لغو و این شرکت را به عنوان «ریسک زنجیره تامین» معرفی خواهد کرد.

اگر انتروپیک طبق قانون (منبع به زبان انگلیسی) تدارکات دولت آمریکا به عنوان ریسک زنجیره تامین شناخته شود، دولت می‌تواند این شرکت را از دریافت قراردادهای جدید محروم کند، محصولات آن را از فهرست گزینه‌ها کنار بگذارد و به پیمانکاران اصلی دستور دهد از این تامین‌کننده استفاده نکنند.

گزارش‌ها درباره دیدار هگست با داریو آمودی، مدیرعامل و هم‌بنیان‌گذار انتروپیک، همچنین حاکی از آن است که او تهدید کرده از قانون تولید دفاعی (منبع به زبان انگلیسی) علیه این شرکت استفاده کند؛ قانونی که اختیار گسترده‌ای به رئیس‌جمهور آمریکا می‌دهد تا شرکت‌های خصوصی را موظف کند نیازهای امنیت‌ملی، از جمله دسترسی به فناوری آنها را در اولویت قرار دهند.

یورونیوز نکست برای تایید این ادعاها با انتروپیک و وزارت دفاع دولت آمریکا تماس گرفت اما پاسخی فوری دریافت نکرد.

عقب‌نشینی انتروپیک از تعهد اصلی ایمنی

انتروپیک از زمانی که بنیان‌گذارانش در سال ۲۰۲۱ از اوپن‌ای‌آی جدا شدند و این استارتاپ را راه‌اندازی کردند، خود را مسئولانه‌تر و ایمن‌محورتر از دیگر شرکت‌های پیشروی حوزه هوش‌مصنوعی معرفی کرده است.

این شرکت روز سه‌شنبه در گفت‌وگو با مجله تایم اعلام کرد از تعهد خود مبنی بر اینکه تا زمانی که نتواند از کافی بودن تدابیر ایمنی اطمینان حاصل کند هیچ سامانه هوش‌مصنوعی‌ای را عرضه نکند، عقب‌نشینی می‌کند.

در عوض، نسخه جدیدی از «سیاست توسعه مسئولانه» خود را منتشر کرد که چارچوب شرکت برای کاهش خطرات فاجعه‌بار هوش‌مصنوعی را تشریح می‌کند.

جرد کاپلان، مدیر علمی انتروپیک، به این نشریه گفت متوقف کردن آموزش مدل‌های جدید در حالی که رقبا بدون ملاحظات ایمنی با سرعت پیش می‌روند، کمک نمی‌کند این شرکت در رقابت هوش‌مصنوعی همگام آنها بماند.

سیاست جدید انتروپیک می‌گوید: «اگر یک توسعه‌دهنده هوش‌مصنوعی توسعه را برای پیاده‌سازی تدابیر ایمنی متوقف کند، در حالی که دیگران بدون موانع قوی به آموزش و استقرار سامانه‌های هوش‌مصنوعی ادامه دهند، ممکن است نتیجه آن جهانی کمتر ایمن باشد.»

در ادامه این سیاست آمده است: «در این صورت، توسعه‌دهندگانی که کمترین سطح محافظت را دارند سرعت پیشرفت را تعیین می‌کنند و توسعه‌دهندگان مسئول توان خود را برای انجام پژوهش‌های ایمنی و ارتقای منافع عمومی از دست می‌دهند.»

در این سیاست، انتروپیک امید خود برای تعمیم استانداردهای ایمنی به کل صنعت را از اهداف خود به عنوان یک شرکت جدا می‌کند، هرچند ایمنی همچنان برای این شرکت در اولویت است.

انتروپیک اعلام کرده بر اساس این سیاست جدید، برای مدل‌های خود نقشه‌راه‌های ایمنی «جاه‌طلبانه اما دست‌یافتنی» تعیین و همچنین گزارش‌های ریسک منتشر خواهد کرد که در آنها خطرات پیش‌بینی‌شده و اینکه آیا انتشار هر مدل توجیه‌پذیر است یا نه توضیح داده می‌شود.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

آیا این آینده سفر با قطار است؟ تسلط ربات‌سگ‌ها و پهپادها بر یک ایستگاه مترو در چین

شبکه‌های اجتماعی ذاتا اعتیادآورند و می‌توان الگوریتم را شکست داد؟

چرا شرکت هوش مصنوعی آنتروپیک و آمریکا بر سر یک قرارداد نظامی در بن‌بست‌اند