بن گرتزل، دانشمند علوم رایانه، به یورونیوز میگوید: «او، یعنی رئیس جمهور ترامپ، میکوشد صنعت هوش مصنوعی را در آمریکا مثل بقیه وادار به تبعیت کند.»
به دنبال اختلاف علنی این شرکت با پنتاگون بر سر خودداری آن از اجازه استفاده نظامی بدون محدودیت از مدل هوش مصنوعی Claude، ممنوعیت دولت آمریکا علیه Anthropic جنبه تنبیهی به خود گرفته است.
Anthropic روز سهشنبه در برابر یک دادگاه فدرال در سانفرانسیسکو استدلالهای خود را مطرح کرد و خواستار صدور دستور موقت علیه تصمیم دولت آمریکا برای قرار دادن نام این شرکت در فهرست سیاه به عنوان خطری برای امنیت ملی شد.
ریتا اف. لین، قاضی دادگاه فدرال منطقهای، در آغاز جلسه استماع گفت که "این اقدامی به نظر میرسد برای زمینگیر کردن Anthropic" و افزود نگران است که دولت به خاطر انتقاد علنی Anthropic از موضع خود، این شرکت را تنبیه کند، رسانههای آمریکا گزارش دادند (منبع به زبان انگلیسی).
دونالد ترامپ، رئیسجمهور آمریکا، و پیت هگزث، وزیر دفاع، در ماه فوریه به طور علنی اعلام کردند که پس از آنکه Anthropic از اجازه استفاده نظامی بدون محدودیت از مدل هوش مصنوعی Claude خودداری کرد، دولت روابط خود را با این شرکت هوش مصنوعی قطع میکند. محدودیتهای مورد اختلاف شامل استفاده از سلاحهای خودکار مرگبار بدون نظارت انسانی و نظارت گسترده بر شهروندان آمریکاست.
در واکنش، دولت آمریکا Anthropic را «ریسک زنجیره تامین برای امنیت ملی» نامید و به ماموران فدرال دستور داد استفاده از Claude را متوقف کنند.
Anthropic در ۹ مارس دو شکایت قضایی علیه دولت به خاطر این نامگذاری به عنوان ریسک زنجیره تامین مطرح کرد. یکی درخواست تجدیدنظر در این برچسب ریسک زنجیره تامین است و دیگری مدعی است دولت ترامپ حق آزادی بیان این شرکت طبق متمم اول قانون اساسی را نقض کرده است.
به گزارش NPR، لین در جلسه دادگاه گفت پنتاگون حق دارد درباره محصولات هوش مصنوعی که از آنها استفاده میکند تصمیم بگیرد، اما این پرسش را مطرح کرد که آیا دولت با ممنوع کردن استفاده نهادهای دولتی از Anthropic و زمانی که هگزث اعلام کرد هر کسی که خواهان رابطه با پنتاگون است باید روابط خود را با Anthropic قطع کند، قانون را نقض کرده است یا نه.
یک وکیل دولت گفت اقدامات پنتاگون تلافیجویانه نبود و بر اساس نحوه استفاده احتمالی از مدل هوش مصنوعی Anthropic اتخاذ شد، نه به خاطر تصمیم این شرکت برای علنی کردن اختلاف.
NPR همچنین گزارش داد که Anthropic در آینده نیز ممکن است در معرض خطر قرار بگیرد، زیرا ممکن است مدل Claude خود را به شکلی بهروز کند که امنیت ملی را به خطر بیندازد.
یورونیوز نکست برای دریافت نظر Anthropic با این شرکت تماس گرفت اما تا زمان انتشار این گزارش پاسخی دریافت نکرد.
این حکم برای شرکتهای هوش مصنوعی چه معنایی خواهد داشت
برچسب ریسک زنجیره تامین معمولا فقط برای شرکتهای خارجی به کار میرود.
بن گرتزل، دانشمند علوم رایانه و مدیرعامل SingularityNet و The Artificial Superintelligence Alliance گفت: "به نظر میرسد استفاده از این برچسب در اینجا مناسب نباشد".
او به یورونیوز نکست گفت: "این یعنی قوه مجریه هر طور که بخواهد میتواند کلمات و قوانین را از نو تفسیر کند".
گرتزل افزود اگر سختگیرانهترین نسخه این برچسب ریسک زنجیره تامین اعمال شود و به این معنا باشد که Anthropic نتواند هیچ نرمافزاری را به هیچ شرکتی که با دولت کار میکند بفروشد، این برای شرکت «بسیار بد» خواهد بود.
او گفت Anthropic از نظر مالی دوام میآورد، چون بخش زیادی از کسبوکار این حوزه خارج از پروژههای دولتی است و «آنها در میان آن بخش از جامعه آمریکا که طرفدار چندانی برای دونالد ترامپ نیست، حمایت زیادی به دست میآورند».
اما او گفت تاثیر فوری حفظ این برچسب ریسک زنجیره تامین این است که «انگیزه دیگر شرکتها برای ایستادگی در برابر دولت ترامپ را از بین میبرد».
گرتزل گفت: «او [رئیسجمهور ترامپ] تلاش میکند به صنعت هوش مصنوعی یاد بدهد که مثل بقیه در خط قرار بگیرد».
قاضی لین گفت انتظار دارد در روزهای آینده درباره این که آیا تا زمانی که دادگاه به بررسی گستردهتر پرونده ادامه میدهد، ممنوعیت دولت به طور موقت متوقف شود یا نه، حکم صادر کند.