شرکت هوش مصنوعی Anthropic و پنتاگون آمریکا در بنبست قرار گرفتهاند. در این گزارش هر آنچه باید بدانید را میخوانید.
دولت آمریکا تهدید کرده اگر شرکت انتروپیک (Anthropic) فناوری هوشمصنوعی خود را بدون محدودیت در اختیار استفاده نظامی قرار ندهد، قراردادهای نظامیاش با این شرکت را خاتمه میدهد.
انتروپیک که چتبات «کلود» را تولید میکند، آخرین شرکت در میان رقبای خود است که هنوز فناوریاش را در اختیار یک شبکه داخلی جدید ارتش آمریکا قرار نداده است.
داریو آمودی، مدیرعامل انتروپیک، بارها نگرانیهای اخلاقی خود را درباره استفاده مهارنشده دولتها از هوشمصنوعی مطرح کرده که از جمله شامل خطر پهپادهای مسلح کاملا خودمختار و نظارت گسترده مبتنی بر هوشمصنوعی است که میتواند مخالفان را ردیابی کند.
انتروپیک تیرماه گذشته اعلام کرد قراردادی ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) با وزارت دفاع آمریکا برای «طراحی اولیه توانمندیهای پیشرفته هوشمصنوعی با هدف تقویت امنیتملی آمریکا» به دست آورده است. این شرکت در سال ۲۰۲۴ یک همکاری (منبع به زبان انگلیسی) با شرکت پالانتیر تکنالوجیز امضا کرد تا کلود را در نرمافزارهای اطلاعاتی دولت آمریکا ادغام کند.
به گزارش رسانهها، پیت هگست، وزیر دفاع، روز سهشنبه گفته اگر انتروپیک از دستورات پیروی نکند، این قرارداد ۲۰۰ میلیون دلاری (۱۶۷ میلیون یورویی) را لغو و این شرکت را به عنوان «ریسک زنجیره تامین» معرفی خواهد کرد.
اگر انتروپیک طبق قانون (منبع به زبان انگلیسی) تدارکات دولت آمریکا به عنوان ریسک زنجیره تامین شناخته شود، دولت میتواند این شرکت را از دریافت قراردادهای جدید محروم کند، محصولات آن را از فهرست گزینهها کنار بگذارد و به پیمانکاران اصلی دستور دهد از این تامینکننده استفاده نکنند.
گزارشها درباره دیدار هگست با داریو آمودی، مدیرعامل و همبنیانگذار انتروپیک، همچنین حاکی از آن است که او تهدید کرده از قانون تولید دفاعی (منبع به زبان انگلیسی) علیه این شرکت استفاده کند؛ قانونی که اختیار گستردهای به رئیسجمهور آمریکا میدهد تا شرکتهای خصوصی را موظف کند نیازهای امنیتملی، از جمله دسترسی به فناوری آنها را در اولویت قرار دهند.
یورونیوز نکست برای تایید این ادعاها با انتروپیک و وزارت دفاع دولت آمریکا تماس گرفت اما پاسخی فوری دریافت نکرد.
عقبنشینی انتروپیک از تعهد اصلی ایمنی
انتروپیک از زمانی که بنیانگذارانش در سال ۲۰۲۱ از اوپنایآی جدا شدند و این استارتاپ را راهاندازی کردند، خود را مسئولانهتر و ایمنمحورتر از دیگر شرکتهای پیشروی حوزه هوشمصنوعی معرفی کرده است.
این شرکت روز سهشنبه در گفتوگو با مجله تایم اعلام کرد از تعهد خود مبنی بر اینکه تا زمانی که نتواند از کافی بودن تدابیر ایمنی اطمینان حاصل کند هیچ سامانه هوشمصنوعیای را عرضه نکند، عقبنشینی میکند.
در عوض، نسخه جدیدی از «سیاست توسعه مسئولانه» خود را منتشر کرد که چارچوب شرکت برای کاهش خطرات فاجعهبار هوشمصنوعی را تشریح میکند.
جرد کاپلان، مدیر علمی انتروپیک، به این نشریه گفت متوقف کردن آموزش مدلهای جدید در حالی که رقبا بدون ملاحظات ایمنی با سرعت پیش میروند، کمک نمیکند این شرکت در رقابت هوشمصنوعی همگام آنها بماند.
سیاست جدید انتروپیک میگوید: «اگر یک توسعهدهنده هوشمصنوعی توسعه را برای پیادهسازی تدابیر ایمنی متوقف کند، در حالی که دیگران بدون موانع قوی به آموزش و استقرار سامانههای هوشمصنوعی ادامه دهند، ممکن است نتیجه آن جهانی کمتر ایمن باشد.»
در ادامه این سیاست آمده است: «در این صورت، توسعهدهندگانی که کمترین سطح محافظت را دارند سرعت پیشرفت را تعیین میکنند و توسعهدهندگان مسئول توان خود را برای انجام پژوهشهای ایمنی و ارتقای منافع عمومی از دست میدهند.»
در این سیاست، انتروپیک امید خود برای تعمیم استانداردهای ایمنی به کل صنعت را از اهداف خود به عنوان یک شرکت جدا میکند، هرچند ایمنی همچنان برای این شرکت در اولویت است.
انتروپیک اعلام کرده بر اساس این سیاست جدید، برای مدلهای خود نقشهراههای ایمنی «جاهطلبانه اما دستیافتنی» تعیین و همچنین گزارشهای ریسک منتشر خواهد کرد که در آنها خطرات پیشبینیشده و اینکه آیا انتشار هر مدل توجیهپذیر است یا نه توضیح داده میشود.