Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

شکایت شرکت هوش مصنوعی Anthropic از وزارت جنگ آمریکا در دادگاه

داریو آمودی، مدیر‌عامل و هم‌بنیان‌گذار شرکت انتروپیک (راست)، و نشان وزارت دفاع آمریکا روی سکوی پنتاگون (چپ)
داریو آمودی، مدیرعامل و هم‌موسس Anthropic در سمت راست؛ آرم پنتاگون روی سکویی در وزارت دفاع آمریکا در سمت چپ Copyright  AP Photo/Markus Schreiber, File (R) AP Photo/Mark Schiefelbein (L)
Copyright AP Photo/Markus Schreiber, File (R) AP Photo/Mark Schiefelbein (L)
نگارش از Pascale Davies
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

شرکت Anthropic روز سه‌شنبه به دادگاه فدرال سانفرانسیسکو می‌رود تا علیه تصمیم دولت آمریکا برای قرار دادن نامش در فهرست تهدیدهای امنیت ملی حکم منع بگیرد.

رویارویی میان شرکت هوش مصنوعی Anthropic و دولت آمریکا قرار است سه‌شنبه به اوج برسد؛ روزی که این شرکت در دادگاه فدرال برای صدور دستور موقت علیه وزارت جنگ و کاخ سفید استدلال‌های خود را مطرح می‌کند.

آگهی
آگهی

این تحولات پس از آن روی داد که دونالد ترامپ، رئیس‌جمهور آمریکا، و پیت هگزث، وزیر دفاع، در فوریه اعلام کردند دولت رابطه خود را با این شرکت هوش مصنوعی قطع می‌کند، زیرا Anthropic اجازه استفاده نامحدود نظامی از مدل Claude را نداده بود. محدودیت‌های مورد مناقشه شامل استفاده از سلاح‌های خودکار مرگبار بدون نظارت انسانی و نظارت گسترده بر شهروندان آمریکاست.

در واکنش، دولت آمریکا Anthropic را «خطر زنجیره تامین برای امنیت ملی» نامید و به نهادهای فدرال دستور داد استفاده از Claude را متوقف کنند.

این پرونده تداخل ملاحظات اخلاقی، تجاری و حقوقی در حوزه هوش مصنوعی پیشرفته را نشان می‌دهد و این پرسش را مطرح می‌کند که چه کسی باید حدود این فناوری را تعیین کند: شرکت‌های فناوری که بر اصول ایمنی درونی خود تکیه می‌کنند یا نهادهای عمومی که به نام امنیت ملی و منافع ژئوپلیتیکی عمل می‌کنند؟

در ادامه هر آنچه باید درباره این جلسه بدانید آمده است.

این جلسه در برابر قاضی دادگاه فدرال، ریتا لین، در سانفرانسیسکو برگزار می‌شود. او تاریخ برگزاری را از سوم آوریل جلو انداخت.

Anthropic چه می‌گوید؟

Anthropic در برابر این برچسب «خطر زنجیره تامین» مقاومت می‌کند. هم‌بنیانگذار شرکت و مدیرعامل آن، داریو آمودی، گفته است (منبع به زبان انگلیسی) Anthropic «چاره‌ای جز به چالش کشیدن این تصمیم در دادگاه ندارد».

Anthropic در ۹ مارس دو شکایت علیه دولت بابت این برچسب‌گذاری تنظیم کرد. یکی از این پرونده‌ها درخواست بازنگری بر اساس قانون موجود درباره نحوه برچسب‌گذاری پنتاگون است.

به گفته Anthropic، قرار گرفتن در فهرست سیاه «بی‌سابقه و غیرقانونی» است، زیرا در گذشته فقط برای رقبای خارجی مانند هواوی به کار رفته و نمی‌توان از آن به شکل قانونی برای ضربه زدن به یک شرکت داخلی صرفا به دلیل اختلاف نظر بر سر سیاست استفاده کرد.

شکایت دیگر استدلال می‌کند که این فهرست‌سیاه با اصل اول قانون اساسی آمریکا، یعنی حق آزادی بیان و حق اعتراض، در تعارض است.

وزارت جنگ آمریکا چه می‌گوید؟

در سال ۲۰۲۵ Anthropic قراردادی ۲۰۰ میلیون دلاری با پنتاگون امضا کرد تا فناوری خود را در سامانه‌های طبقه‌بندی‌شده این نهاد به‌کار گیرد. این شرکت در مذاکرات پس از امضای قرارداد اعلام کرد نمی‌خواهد سامانه‌های هوش مصنوعی‌اش برای نظارت گسترده به کار گرفته شود و این که فناوری آن هنوز برای استفاده در تصمیم‌گیری درباره شلیک سلاح‌ها آماده نیست.

وزارت جنگ در لایحه‌ای که در ۱۷ مارس به دادگاه ارائه کرد (منبع به زبان انگلیسی)، اعلام کرد نگران است که Anthropic «ممکن است پیش از آغاز یا در جریان عملیات رزمی، برای غیرفعال کردن فناوری خود یا تغییر پیشاپیش رفتار مدل‌هایش تلاش کند»، اگر این شرکت احساس کند «خطوط قرمز شرکتی‌اش نقض می‌شود».

Anthropic می‌گوید چنین نگرانی‌ای هرگز در جریان مذاکرات مطرح نشده و فقط در لوایح دولت در دادگاه دیده می‌شود.

یورونیوز نکست برای دریافت توضیح با Anthropic تماس گرفت اما تا زمان انتشار این گزارش پاسخی دریافت نکرد.

قاضی لین قرار است استدلال‌ها درباره اعطای دستور موقت به Anthropic را بررسی کند.

پیامدهای گسترده‌تر

شماری از دانشمندان و پژوهشگران هوش مصنوعی، از جمله از شرکت‌های بزرگ OpenAI، گوگل و مایکروسافت، به همراه گروه‌های حقوقی، لوایحی در حمایت از Anthropic به دادگاه ارائه کرده‌اند.

پنتاگون در مقابل تمرکز خود را به همکاری با شرکت‌های دیگر فعال در حوزه هوش مصنوعی، از جمله OpenAI، xAI و گوگل، معطوف کرده است.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

ایلان ماسک برنامه ساخت تراشه برای اسپیس ایکس و تسلا را اعلام می‌کند

تعلیق خبرنگار ارشد اروپایی به دلیل انتشار نقل‌قول‌های تولیدشده با هوش مصنوعی

روشن و تاریک هوش مصنوعی: پژوهش گسترده انتروپیک خواسته‌ها و نگرانی‌ها ۸۱ هزار نفر را نشان می‌دهد