شرکت Anthropic روز سهشنبه به دادگاه فدرال سانفرانسیسکو میرود تا علیه تصمیم دولت آمریکا برای قرار دادن نامش در فهرست تهدیدهای امنیت ملی حکم منع بگیرد.
رویارویی میان شرکت هوش مصنوعی Anthropic و دولت آمریکا قرار است سهشنبه به اوج برسد؛ روزی که این شرکت در دادگاه فدرال برای صدور دستور موقت علیه وزارت جنگ و کاخ سفید استدلالهای خود را مطرح میکند.
این تحولات پس از آن روی داد که دونالد ترامپ، رئیسجمهور آمریکا، و پیت هگزث، وزیر دفاع، در فوریه اعلام کردند دولت رابطه خود را با این شرکت هوش مصنوعی قطع میکند، زیرا Anthropic اجازه استفاده نامحدود نظامی از مدل Claude را نداده بود. محدودیتهای مورد مناقشه شامل استفاده از سلاحهای خودکار مرگبار بدون نظارت انسانی و نظارت گسترده بر شهروندان آمریکاست.
در واکنش، دولت آمریکا Anthropic را «خطر زنجیره تامین برای امنیت ملی» نامید و به نهادهای فدرال دستور داد استفاده از Claude را متوقف کنند.
این پرونده تداخل ملاحظات اخلاقی، تجاری و حقوقی در حوزه هوش مصنوعی پیشرفته را نشان میدهد و این پرسش را مطرح میکند که چه کسی باید حدود این فناوری را تعیین کند: شرکتهای فناوری که بر اصول ایمنی درونی خود تکیه میکنند یا نهادهای عمومی که به نام امنیت ملی و منافع ژئوپلیتیکی عمل میکنند؟
در ادامه هر آنچه باید درباره این جلسه بدانید آمده است.
این جلسه در برابر قاضی دادگاه فدرال، ریتا لین، در سانفرانسیسکو برگزار میشود. او تاریخ برگزاری را از سوم آوریل جلو انداخت.
Anthropic چه میگوید؟
Anthropic در برابر این برچسب «خطر زنجیره تامین» مقاومت میکند. همبنیانگذار شرکت و مدیرعامل آن، داریو آمودی، گفته است (منبع به زبان انگلیسی) Anthropic «چارهای جز به چالش کشیدن این تصمیم در دادگاه ندارد».
Anthropic در ۹ مارس دو شکایت علیه دولت بابت این برچسبگذاری تنظیم کرد. یکی از این پروندهها درخواست بازنگری بر اساس قانون موجود درباره نحوه برچسبگذاری پنتاگون است.
به گفته Anthropic، قرار گرفتن در فهرست سیاه «بیسابقه و غیرقانونی» است، زیرا در گذشته فقط برای رقبای خارجی مانند هواوی به کار رفته و نمیتوان از آن به شکل قانونی برای ضربه زدن به یک شرکت داخلی صرفا به دلیل اختلاف نظر بر سر سیاست استفاده کرد.
شکایت دیگر استدلال میکند که این فهرستسیاه با اصل اول قانون اساسی آمریکا، یعنی حق آزادی بیان و حق اعتراض، در تعارض است.
وزارت جنگ آمریکا چه میگوید؟
در سال ۲۰۲۵ Anthropic قراردادی ۲۰۰ میلیون دلاری با پنتاگون امضا کرد تا فناوری خود را در سامانههای طبقهبندیشده این نهاد بهکار گیرد. این شرکت در مذاکرات پس از امضای قرارداد اعلام کرد نمیخواهد سامانههای هوش مصنوعیاش برای نظارت گسترده به کار گرفته شود و این که فناوری آن هنوز برای استفاده در تصمیمگیری درباره شلیک سلاحها آماده نیست.
وزارت جنگ در لایحهای که در ۱۷ مارس به دادگاه ارائه کرد (منبع به زبان انگلیسی)، اعلام کرد نگران است که Anthropic «ممکن است پیش از آغاز یا در جریان عملیات رزمی، برای غیرفعال کردن فناوری خود یا تغییر پیشاپیش رفتار مدلهایش تلاش کند»، اگر این شرکت احساس کند «خطوط قرمز شرکتیاش نقض میشود».
Anthropic میگوید چنین نگرانیای هرگز در جریان مذاکرات مطرح نشده و فقط در لوایح دولت در دادگاه دیده میشود.
یورونیوز نکست برای دریافت توضیح با Anthropic تماس گرفت اما تا زمان انتشار این گزارش پاسخی دریافت نکرد.
قاضی لین قرار است استدلالها درباره اعطای دستور موقت به Anthropic را بررسی کند.
پیامدهای گستردهتر
شماری از دانشمندان و پژوهشگران هوش مصنوعی، از جمله از شرکتهای بزرگ OpenAI، گوگل و مایکروسافت، به همراه گروههای حقوقی، لوایحی در حمایت از Anthropic به دادگاه ارائه کردهاند.
پنتاگون در مقابل تمرکز خود را به همکاری با شرکتهای دیگر فعال در حوزه هوش مصنوعی، از جمله OpenAI، xAI و گوگل، معطوف کرده است.