شرکت اسپیساکس متعلق به ایلان ماسک ابررایانه کلوسوس 1 خود را به انتروپیک اجاره کرده و با وجود رقابت تلخ قبلی توان پردازشی عظیمی در اختیار سازنده کلود قرار داده است.
هفته گذشته، وقتی آمی وورا، مدیر ارشد محصول Anthropic، روی صحنه کنفرانس توسعهدهندگان این شرکت با عنوان Code with Claude در سانفرانسیسکو رفت، حاضران احتمالا انتظار داشتند خبرهایی از مدلهای جدید بشنوند.
اما وورا اعلام کرد Anthropic توافقی با SpaceX امضا کرده تا کنترل کامل مرکز داده Colossus 1 در ممفیس را در اختیار بگیرد؛ ترکیبی که تا همین چند ماه پیش غیرقابل تصور به نظر میرسید.
طبق یک بیانیه بعدی Anthropic، این توافق دسترسی این شرکت به «بیش از 300 مگاوات ظرفیت جدید و بیش از 220 هزار GPU انویدیا در همین ماه» را فراهم میکند و مستقیما به مشترکان طرحهای Claude Pro و Claude Max سود میرساند.
اتحاد میان ماسک و Anthropic از آن دست اتفاقهایی است که کمتر کسی آن را محتمل میدانست. کسی که تا چند ماه پیش Anthropic را «شرور» و شرکتی که «از تمدن غرب متنفر است» مینامید، حالا زیرساختی را در اختیار دارد که موتور گسترش Claude و امکان عرضه برنامههای گستردهتر برای کاربران پولی آن است.
هوش مصنوعی وک و ضدوک
Anthropic در سال 2021 توسط داریو آمودئی، دانیلا آمودئی و گروهی از پژوهشگرانی تاسیس شد که به دلیل نگرانی از جدی گرفته نشدن موضوع ایمنی، از OpenAI جدا شده بودند.
تمام هویت برند این شرکت بر «هوش مصنوعی مسئولانه» بنا شده است و مدلهایش با روش Constitutional AI آموزش دیدهاند؛ چارچوبی با محدودیتهای اخلاقی درونیشده که به گفته توسعهدهندگان Claude باعث میشود این مدل بیش از رقبا درخواستها را رد کند، در موضوعات حساس با تردید سخن بگوید یا در برابر دستورهایی که مضر تشخیص میدهد مقاومت کند.
در مقابل، Grok در سال 2025 و در اوج درگیر بودن ماسک با دولت ترامپ راهاندازی شد؛ دورانی که او هر روز در X به رسانههای جریان اصلی حمله میکرد و آنها را به سانسور ایدئولوژیک متهم میکرد و از احزاب راست افراطی اروپا، از جمله آلترناتیو برای آلمان، حمایت میکرد. هویت برند Grok آشکارا ضدوک تعریف شده بود.
Anthropic پیوسته خودداری کرده است که محدودیتهای ایمنی Claude را برای استفاده در سامانههای تسلیحاتی خودکار، از جمله آنهایی که در جنگ جاری ایران به کار میروند، بردارد.
در همین حال، ماسک از مواضع تهاجمی در سیاست خارجی حمایت کرده و همراه با گوگل و OpenAI قراردادهای دفاعی با پنتاگون امضا کرده است؛ قراردادهایی با شروطی که Anthropic در فوریه، پس از آنکه پیشتر در ژوئیه 2025 توافقهایی را امضا کرده بود، رد کرد و همین باعث شد پنتاگون از آن پس این شرکت را یک ریسک در زنجیره تامین بداند و آن را از کار روی پروژههای نظامی کنار بگذارد.
مشکلات در دنیای Grok؟
xAI متعلق به ماسک در سهماهه منتهی به سپتامبر 2025 حدود 107 میلیون دلار (91 میلیون یورو) درآمد کسب کرد، در حالی که در همان دوره زیان خالص 1.46 میلیارد دلار (1.24 میلیارد یورو) ثبت شد. در همین حال، بر اساس برآورد تحلیلگران، Anthropic به نرخ درآمد سالانهشدهای در حدود 30 میلیارد دلار (25.5 میلیارد یورو) رسیده است.
جایگاهسازی محصولی «ضدوک» که قرار بود مزیت رقابتی Grok باشد، در عمل به درآمد سازمانی تبدیل نشد. Grok فاقد فناوریای بود که به مدلهای هوش مصنوعی امکان میدهد فراتر از پنجرههای چت بروند و عملیات را روی یک رایانه کنترل کنند.
همزمان، Claude Cowork از Anthropic و Codex از OpenAI راه را برای شیوهای کاملا جدید در بهرهگیری از مدلهای هوش مصنوعی باز کردند. موفقیت این محصولات در زمان عرضه چنان از توان Anthropic برای تامین ظرفیت محاسباتی پیشی گرفت که نشان داد این شرکت تا چه حد موفقیت خود را دستکم گرفته است؛ به همین دلیل هم به سراغ SpaceXAI رفت تا از آن برای تامین پشتیبانی محاسباتی اضافی کمک بگیرد.
در مقابل، Grok بر پایه الگوی چتبات ساخته شده بود و یکپارچگی تنگاتنگ آن با X که در ابتدا شاید مزیتی در توزیع به نظر میرسید، در نهایت به تلهای برای رشد تبدیل شد، چون محصول را حول تعاملات در شبکههای اجتماعی تنظیم کرد نه حول انجام کار، بهینهسازی فرایندها یا خدماتی که کاربران واقعا حاضرند برایشان پول بدهند.
ضربه نهایی که برند Grok را فرو ریخت، اوایل سال 2026 وارد شد؛ زمانی که این چتبات ظرف 9 روز دستکم 1.8 میلیون تصویر جنسیسازیشده از زنان و همچنین تصاویری از افراد کمسنوسال تولید کرد و همین موضوع تحقیقات نهادهای ناظر در اروپا، آسیا و ایالات متحده را به دنبال داشت.
توماس رنیه، سخنگوی امور دیجیتال اتحادیه اروپا، آن زمان گفت: «این موضوع تند و تیز نیست، غیرقانونی است. این هولناک است. چنین چیزی جایی در اروپا ندارد».
ماسک از زمان اعلام این توافق گفته است که تا حدی به این دلیل که SpaceXAI پیشتر آموزشهای خود را به Colossus 2 منتقل کرده، از اجاره دادن Colossus 1 به Anthropic احساس راحتی میکند.
ماسک در X تبصره مهمی هم اضافه کرد و نوشت SpaceXAI «حق پسگرفتن توان محاسباتی» را برای خود محفوظ میدارد، اگر هوش مصنوعی Anthropic «دست به اقداماتی بزند که به بشریت آسیب میزند».
این شرط در اطلاعیه رسمی دیده نمیشد و هنوز تایید نشده که آیا در متن خود قرارداد هم آمده است یا نه.
هیچ آستانه مشخصی برای اینکه «آسیب به بشریت» دقیقا چه چیزی محسوب میشود اعلام نشده، به این معنی که قضاوت میتواند تماما بر عهده خود ماسک باشد. این شرط شاید تلاش آخر او هم باشد تا از این واقعیت فاصله بگیرد که اکنون مستقیما موتور گسترش رقیب وکگرای خود را تغذیه میکند، در حالی که برنامه هوش مصنوعی خودش بیسروصدا از نفس میافتد.