Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

آمریکا انتروپیک را در مناقشه استفاده نظامی از هوش مصنوعی خطر زنجیره تامین می‌داند

صفحات وب‌سایت Anthropic و لوگوی این شرکت روز پنجشنبه ۲۶ فوریه ۲۰۲۶ روی صفحه رایانه در نیویورک نمایش داده شده است.
صفحات وب‌سایت Anthropic و لوگوی این شرکت روی صفحه یک رایانه در نیویورک، پنجشنبه ۲۶ فوریه ۲۰۲۶، دیده می‌شود. Copyright  AP Photo
Copyright AP Photo
نگارش از Roselyne Min با استفاده از AP
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

اقدام بی‌سابقه دولت ترامپ علیه شرکت Anthropic بر سر ضوابط ایمنی هوش مصنوعی، پیمانکاران دولتی را وادار کرده در استفاده از چت‌بات Claude تجدیدنظر کنند.

دولت آمریکا تهدید خود را عملی می‌کند و در اقدامی بی‌سابقه قصد دارد شرکت هوش مصنوعی Anthropic را به عنوان یک خطر برای زنجیره تامین معرفی کند؛ اقدامی که می‌تواند پیمانکاران دیگر دولت را ناچار کند استفاده از چت‌بات هوش مصنوعی این شرکت، Claude، را متوقف کنند.

آگهی
آگهی

پنتاگون در بیانیه‌ای روز پنجشنبه اعلام کرد که «به طور رسمی به مدیران Anthropic اطلاع داده است که این شرکت و محصولاتش از همین حالا به عنوان خطری برای زنجیره تامین تلقی می‌شوند.»

این تصمیم که حدود یک هفته پس از آن گرفته شد که دونالد ترامپ رئیس‌جمهور و پیت هگست، وزیر دفاع، این شرکت را به به‌خطر انداختن امنیت ملی متهم کردند، عملا امکان ادامه مذاکره با Anthropic را از بین برده است.

ترامپ و هگست جمعه گذشته و در آستانه جنگ با ایران مجموعه‌ای از مجازات‌های تهدیدآمیز را اعلام کردند، پس از آن که داریو آمودی مدیرعامل Anthropic حاضر نشد از نگرانی‌های خود درباره این که محصولات شرکت ممکن است برای نظارت گسترده بر شهروندان آمریکایی یا سلاح‌های خودکار به کار گرفته شوند عقب‌نشینی کند.

داریو آمودی در بیانیه‌ای روز پنجشنبه گفت: «ما معتقد نیستیم این اقدام از نظر حقوقی محکم است و چاره‌ای جز به چالش کشیدن آن در دادگاه نمی‌بینیم.»

پنتاگون در این بیانیه گفت: «موضوع بر سر یک اصل بنیادین است: این که ارتش بتواند از فناوری برای همه اهداف قانونی استفاده کند.»

در ادامه بیانیه تاکید شده است: «ارتش به هیچ تامین‌کننده‌ای اجازه نخواهد داد با محدود کردن استفاده قانونی از یک توانمندی حیاتی، خود را در سلسله‌مراتب فرماندهی جا بزند و رزمندگان ما را در معرض خطر قرار دهد.»

آمودی در پاسخ گفت استثناهای محدودی که Anthropic برای محدود کردن نظارت و سلاح‌های خودکار خواستار آنها شده «به حوزه‌های استفاده در سطح بالا مربوط است و نه تصمیم‌گیری‌های عملیاتی».

او اضافه کرد در روزهای اخیر «گفت‌وگوهای سازنده‌ای» با پنتاگون درباره این که آیا می‌تواند به استفاده از Claude ادامه دهد یا در صورت نرسیدن به توافق، «گذار بی‌دردسری» را رقم بزنند، انجام شده است.

ترامپ به ارتش شش ماه مهلت داده تا به تدریج استفاده از Claude را کنار بگذارد؛ ابزاری که هم‌اکنون به طور گسترده در سامانه‌های نظامی و امنیت ملی به کار گرفته شده است. آمودی گفت اولویت این است که اطمینان حاصل شود رزمندگان «در میانه عملیات‌های بزرگ رزمی از ابزارهای مهم محروم نخواهند شد».

برخی پیمانکاران نظامی پیشاپیش در حال قطع همکاری با Anthropic هستند؛ شرکتی نوظهور و در حال اوج‌گیری در صنعت فناوری که Claude را به مجموعه‌ای متنوع از کسب‌وکارها و نهادهای دولتی می‌فروشد.

شرکت دفاعی لاکهید مارتین اعلام کرد از «دستور رئیس‌جمهور و وزارت جنگ پیروی خواهد کرد» و به سراغ تامین‌کنندگان دیگر مدل‌های زبانی بزرگ خواهد رفت.

این شرکت افزود: «انتظار داریم تاثیرها حداقلی باشد، زیرا لاکهید مارتین برای هیچ بخشی از کار خود به یک تامین‌کننده واحد مدل‌های زبانی بزرگ وابسته نیست.»

هنوز روشن نیست وزارت دفاع آمریکا دامنه این برچسب خطر را چگونه تفسیر خواهد کرد. به گفته آمودی، اخطاریه‌ای که Anthropic روز چهارشنبه از پنتاگون دریافت کرده نشان می‌دهد این تصمیم فقط به استفاده مشتریان از Claude به عنوان «جزئی مستقیم» از قراردادهای نظامی‌شان مربوط می‌شود.

شرکت مایکروسافت اعلام کرد وکلای این شرکت این مقرره را بررسی کرده‌اند و مایکروسافت «می‌تواند به همکاری با Anthropic در پروژه‌های غیرمرتبط با دفاع ادامه دهد.»

پنتاگون به خاطر این تصمیم با انتقاد روبه‌رو شد

تصمیم پنتاگون برای به‌کارگیری مقرره‌ای که برای مقابله با تهدیدهای تامین از سوی دشمنان خارجی طراحی شده بود، با موجی از انتقاد روبه‌رو شد. در قوانین فدرال، خطر زنجیره تامین به عنوان «خطری تعریف شده که در آن یک دشمن ممکن است برای مختل کردن، تضعیف یا جاسوسی از یک سامانه، آن را خرابکاری کند، به طور مخرب کارکرد ناخواسته‌ای در آن وارد کند یا به شیوه‌ای دیگر آن را منحرف سازد.»

کریستن گیلیبرند سناتور دموکرات نیویورک و عضو کمیته نیروهای مسلح و کمیته اطلاعاتی سنا این اقدام را «سوءاستفاده خطرناک از ابزاری که برای مقابله با فناوری تحت کنترل دشمنان طراحی شده» توصیف کرد.

گیلیبرند در بیانیه‌ای کتبی روز پنجشنبه گفت: «این اقدام نسنجیده، کوتاه‌نگرانه و خودتخریبگر است و هدیه‌ای برای دشمنان ما.»

نیل چیلسن، رئیس پیشین بخش فناوری کمیسیون فدرال تجارت از حزب جمهوری‌خواه که اکنون مسئول سیاست‌گذاری هوش مصنوعی در اندیشکده اباندنس است، گفت این تصمیم «دخالت بیش از حد گسترده‌ای به نظر می‌رسد که هم به بخش هوش مصنوعی آمریکا و هم به توان ارتش برای دستیابی به بهترین فناوری برای رزمندگان آمریکایی آسیب می‌زند.»

ساعاتی پیش از آن، گروهی از مقام‌های پیشین دفاعی و امنیت ملی در نامه‌ای به قانون‌گذاران آمریکایی نسبت به این برچسب‌گذاری «ابراز نگرانی جدی» کردند.

در این نامه که به امضای شماری از مقام‌ها و کارشناسان سیاست‌گذاری پیشین از جمله مایکل هایدن رئیس پیشین سیا و شماری از فرماندهان بازنشسته نیروی هوایی، زمینی و دریایی رسیده، آمده است: «استفاده از این اختیار علیه یک شرکت داخلی آمریکایی انحرافی عمیق از هدف اولیه آن است و سابقه‌ای خطرناک ایجاد می‌کند.»

در ادامه نامه تاکید شده است که چنین برچسبی قرار است «از ایالات متحده در برابر نفوذ دشمنان خارجی محافظت کند، در برابر شرکت‌های وابسته به پکن یا مسکو، نه در برابر نوآوران آمریکایی که به شکلی شفاف و در چارچوب قانون فعالیت می‌کنند. به‌کارگیری این ابزار برای تنبیه یک شرکت آمریکایی به خاطر خودداری از حذف موانع در برابر نظارت گسترده داخلی و سلاح‌های تماما خودکار، یک خطای مفهومی است که پیامدهای آن بسیار فراتر از این مناقشه خواهد بود.»

رشد دانلودهای کاربری برای Anthropic

همزمان با از دست دادن قراردادهای بزرگ با پیمانکاران دفاعی، Anthropic در هفته گذشته با جهش دانلود از سوی کاربران روبه‌رو شد، چرا که بسیاری از مردم از موضع اخلاقی این شرکت حمایت کردند. به گفته Anthropic، هر روز از این هفته بیش از یک میلیون نفر برای استفاده از Claude ثبت‌نام کرده‌اند و این امر آن را در فروشگاه اپلیکیشن اپل در بیش از ۲۰ کشور بالاتر از ChatGPT متعلق به OpenAI و Gemini گوگل به عنوان برترین اپلیکیشن هوش مصنوعی قرار داده است.

این کشمکش با پنتاگون همچنین رقابت تند Anthropic با OpenAI را عمیق‌تر کرده است؛ رقابتی که از سال ۲۰۲۱ و زمانی آغاز شد که شماری از مدیران پیشین OpenAI از جمله آمودی شرکت Anthropic را تاسیس کردند.

ساعاتی پس از آن که پنتاگون جمعه گذشته Anthropic را مجازات کرد، OpenAI از توافقی خبر داد که عملا جایگزینی Anthropic با ChatGPT در محیط‌های نظامی طبقه‌بندی‌شده را هدف می‌گیرد.

OpenAI اعلام کرد که آن هم به دنبال تضمین‌های مشابهی در برابر نظارت داخلی و سلاح‌های تماما خودکار بوده، اما بعدا ناچار شده مفاد توافق‌ها را اصلاح کند؛ سام آلتمن مدیرعامل این شرکت بعدها گفت نباید برای بستن توافقی که به گفته او «فرصت‌طلبانه و شلخته» به نظر می‌رسید شتاب می‌کرد.

آمودی همچنین بابت نقش خود در آن «روز دشوار برای شرکت» ابراز تاسف کرد و روز پنجشنبه گفت می‌خواهد بابت یادداشت داخلی‌ای که برای کارکنان Anthropic فرستاده و در آن رفتار OpenAI را مورد حمله قرار داده و القا کرده بود Anthropic به خاطر ندادن «ستایش دیکتاتورمآبانه» به ترامپ مجازات می‌شود، «مستقیما عذرخواهی» کند.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

شکایت حریم خصوصی از متا بر سر عینک‌های هوشمند هوش مصنوعی

گوشی برای حیوانات؟ این گجت به آن‌ها امکان تماس با صاحبشان را می‌دهد

افزایش کارزار اطلاعات نادرست رسانه‌های دولتی ایران همزمان با ادامه درگیری با آمریکا