اقدام بیسابقه دولت ترامپ علیه شرکت Anthropic بر سر ضوابط ایمنی هوش مصنوعی، پیمانکاران دولتی را وادار کرده در استفاده از چتبات Claude تجدیدنظر کنند.
دولت آمریکا تهدید خود را عملی میکند و در اقدامی بیسابقه قصد دارد شرکت هوش مصنوعی Anthropic را به عنوان یک خطر برای زنجیره تامین معرفی کند؛ اقدامی که میتواند پیمانکاران دیگر دولت را ناچار کند استفاده از چتبات هوش مصنوعی این شرکت، Claude، را متوقف کنند.
پنتاگون در بیانیهای روز پنجشنبه اعلام کرد که «به طور رسمی به مدیران Anthropic اطلاع داده است که این شرکت و محصولاتش از همین حالا به عنوان خطری برای زنجیره تامین تلقی میشوند.»
این تصمیم که حدود یک هفته پس از آن گرفته شد که دونالد ترامپ رئیسجمهور و پیت هگست، وزیر دفاع، این شرکت را به بهخطر انداختن امنیت ملی متهم کردند، عملا امکان ادامه مذاکره با Anthropic را از بین برده است.
ترامپ و هگست جمعه گذشته و در آستانه جنگ با ایران مجموعهای از مجازاتهای تهدیدآمیز را اعلام کردند، پس از آن که داریو آمودی مدیرعامل Anthropic حاضر نشد از نگرانیهای خود درباره این که محصولات شرکت ممکن است برای نظارت گسترده بر شهروندان آمریکایی یا سلاحهای خودکار به کار گرفته شوند عقبنشینی کند.
داریو آمودی در بیانیهای روز پنجشنبه گفت: «ما معتقد نیستیم این اقدام از نظر حقوقی محکم است و چارهای جز به چالش کشیدن آن در دادگاه نمیبینیم.»
پنتاگون در این بیانیه گفت: «موضوع بر سر یک اصل بنیادین است: این که ارتش بتواند از فناوری برای همه اهداف قانونی استفاده کند.»
در ادامه بیانیه تاکید شده است: «ارتش به هیچ تامینکنندهای اجازه نخواهد داد با محدود کردن استفاده قانونی از یک توانمندی حیاتی، خود را در سلسلهمراتب فرماندهی جا بزند و رزمندگان ما را در معرض خطر قرار دهد.»
آمودی در پاسخ گفت استثناهای محدودی که Anthropic برای محدود کردن نظارت و سلاحهای خودکار خواستار آنها شده «به حوزههای استفاده در سطح بالا مربوط است و نه تصمیمگیریهای عملیاتی».
او اضافه کرد در روزهای اخیر «گفتوگوهای سازندهای» با پنتاگون درباره این که آیا میتواند به استفاده از Claude ادامه دهد یا در صورت نرسیدن به توافق، «گذار بیدردسری» را رقم بزنند، انجام شده است.
ترامپ به ارتش شش ماه مهلت داده تا به تدریج استفاده از Claude را کنار بگذارد؛ ابزاری که هماکنون به طور گسترده در سامانههای نظامی و امنیت ملی به کار گرفته شده است. آمودی گفت اولویت این است که اطمینان حاصل شود رزمندگان «در میانه عملیاتهای بزرگ رزمی از ابزارهای مهم محروم نخواهند شد».
برخی پیمانکاران نظامی پیشاپیش در حال قطع همکاری با Anthropic هستند؛ شرکتی نوظهور و در حال اوجگیری در صنعت فناوری که Claude را به مجموعهای متنوع از کسبوکارها و نهادهای دولتی میفروشد.
شرکت دفاعی لاکهید مارتین اعلام کرد از «دستور رئیسجمهور و وزارت جنگ پیروی خواهد کرد» و به سراغ تامینکنندگان دیگر مدلهای زبانی بزرگ خواهد رفت.
این شرکت افزود: «انتظار داریم تاثیرها حداقلی باشد، زیرا لاکهید مارتین برای هیچ بخشی از کار خود به یک تامینکننده واحد مدلهای زبانی بزرگ وابسته نیست.»
هنوز روشن نیست وزارت دفاع آمریکا دامنه این برچسب خطر را چگونه تفسیر خواهد کرد. به گفته آمودی، اخطاریهای که Anthropic روز چهارشنبه از پنتاگون دریافت کرده نشان میدهد این تصمیم فقط به استفاده مشتریان از Claude به عنوان «جزئی مستقیم» از قراردادهای نظامیشان مربوط میشود.
شرکت مایکروسافت اعلام کرد وکلای این شرکت این مقرره را بررسی کردهاند و مایکروسافت «میتواند به همکاری با Anthropic در پروژههای غیرمرتبط با دفاع ادامه دهد.»
پنتاگون به خاطر این تصمیم با انتقاد روبهرو شد
تصمیم پنتاگون برای بهکارگیری مقررهای که برای مقابله با تهدیدهای تامین از سوی دشمنان خارجی طراحی شده بود، با موجی از انتقاد روبهرو شد. در قوانین فدرال، خطر زنجیره تامین به عنوان «خطری تعریف شده که در آن یک دشمن ممکن است برای مختل کردن، تضعیف یا جاسوسی از یک سامانه، آن را خرابکاری کند، به طور مخرب کارکرد ناخواستهای در آن وارد کند یا به شیوهای دیگر آن را منحرف سازد.»
کریستن گیلیبرند سناتور دموکرات نیویورک و عضو کمیته نیروهای مسلح و کمیته اطلاعاتی سنا این اقدام را «سوءاستفاده خطرناک از ابزاری که برای مقابله با فناوری تحت کنترل دشمنان طراحی شده» توصیف کرد.
گیلیبرند در بیانیهای کتبی روز پنجشنبه گفت: «این اقدام نسنجیده، کوتاهنگرانه و خودتخریبگر است و هدیهای برای دشمنان ما.»
نیل چیلسن، رئیس پیشین بخش فناوری کمیسیون فدرال تجارت از حزب جمهوریخواه که اکنون مسئول سیاستگذاری هوش مصنوعی در اندیشکده اباندنس است، گفت این تصمیم «دخالت بیش از حد گستردهای به نظر میرسد که هم به بخش هوش مصنوعی آمریکا و هم به توان ارتش برای دستیابی به بهترین فناوری برای رزمندگان آمریکایی آسیب میزند.»
ساعاتی پیش از آن، گروهی از مقامهای پیشین دفاعی و امنیت ملی در نامهای به قانونگذاران آمریکایی نسبت به این برچسبگذاری «ابراز نگرانی جدی» کردند.
در این نامه که به امضای شماری از مقامها و کارشناسان سیاستگذاری پیشین از جمله مایکل هایدن رئیس پیشین سیا و شماری از فرماندهان بازنشسته نیروی هوایی، زمینی و دریایی رسیده، آمده است: «استفاده از این اختیار علیه یک شرکت داخلی آمریکایی انحرافی عمیق از هدف اولیه آن است و سابقهای خطرناک ایجاد میکند.»
در ادامه نامه تاکید شده است که چنین برچسبی قرار است «از ایالات متحده در برابر نفوذ دشمنان خارجی محافظت کند، در برابر شرکتهای وابسته به پکن یا مسکو، نه در برابر نوآوران آمریکایی که به شکلی شفاف و در چارچوب قانون فعالیت میکنند. بهکارگیری این ابزار برای تنبیه یک شرکت آمریکایی به خاطر خودداری از حذف موانع در برابر نظارت گسترده داخلی و سلاحهای تماما خودکار، یک خطای مفهومی است که پیامدهای آن بسیار فراتر از این مناقشه خواهد بود.»
رشد دانلودهای کاربری برای Anthropic
همزمان با از دست دادن قراردادهای بزرگ با پیمانکاران دفاعی، Anthropic در هفته گذشته با جهش دانلود از سوی کاربران روبهرو شد، چرا که بسیاری از مردم از موضع اخلاقی این شرکت حمایت کردند. به گفته Anthropic، هر روز از این هفته بیش از یک میلیون نفر برای استفاده از Claude ثبتنام کردهاند و این امر آن را در فروشگاه اپلیکیشن اپل در بیش از ۲۰ کشور بالاتر از ChatGPT متعلق به OpenAI و Gemini گوگل به عنوان برترین اپلیکیشن هوش مصنوعی قرار داده است.
این کشمکش با پنتاگون همچنین رقابت تند Anthropic با OpenAI را عمیقتر کرده است؛ رقابتی که از سال ۲۰۲۱ و زمانی آغاز شد که شماری از مدیران پیشین OpenAI از جمله آمودی شرکت Anthropic را تاسیس کردند.
ساعاتی پس از آن که پنتاگون جمعه گذشته Anthropic را مجازات کرد، OpenAI از توافقی خبر داد که عملا جایگزینی Anthropic با ChatGPT در محیطهای نظامی طبقهبندیشده را هدف میگیرد.
OpenAI اعلام کرد که آن هم به دنبال تضمینهای مشابهی در برابر نظارت داخلی و سلاحهای تماما خودکار بوده، اما بعدا ناچار شده مفاد توافقها را اصلاح کند؛ سام آلتمن مدیرعامل این شرکت بعدها گفت نباید برای بستن توافقی که به گفته او «فرصتطلبانه و شلخته» به نظر میرسید شتاب میکرد.
آمودی همچنین بابت نقش خود در آن «روز دشوار برای شرکت» ابراز تاسف کرد و روز پنجشنبه گفت میخواهد بابت یادداشت داخلیای که برای کارکنان Anthropic فرستاده و در آن رفتار OpenAI را مورد حمله قرار داده و القا کرده بود Anthropic به خاطر ندادن «ستایش دیکتاتورمآبانه» به ترامپ مجازات میشود، «مستقیما عذرخواهی» کند.