ارتش آمریکا از هوش مصنوعی کلودِ Anthropic استفاده میکرد، اما وقتی این شرکت نپذیرفت محدودیتهایش برای نظارت گسترده و سلاحهای خودران را بردارد، پنتاگون قرارداد را لغو کرد و به اوپنایآی روی آورد.
گزارشهای رسانهای درباره این که ارتش امریکا در جریان عملیات هدفگیری رهبران ونزوئلا و ایران از چتبات هوش مصنوعی «کلود» محصول شرکت انتروپیک استفاده کرده است، پرسشهای تازهای را درباره سرعت ادغام هوش مصنوعی در جنگ برانگیخته است.<\/p>
رسانههای امریکایی گزارش دادهاند که از کلود برای تسهیل عملیاتی در ماه ژانویه استفاده شده که به دستگیری نیکولاس مادورو، رهبر ونزوئلا، انجامید. بعدتر گزارشهای مشابهی منتشر شد مبنی بر این که این چتبات در مرحله تدارک عملیاتی با هدف قرار دادن آیتالله علی خامنهای، رهبر درگذشته ایران، نیز به کار رفته است.<\/p>
کارشناسان میگویند این موارد تصویری نادر از این ارایه میکند که سامانههای پیشرفته هوش مصنوعی همین حالا چگونه ممکن است در خدمت برنامهریزی و کار اطلاعاتی ارتش امریکا قرار گرفته باشند.<\/p><\/cstm>
هایدی خلاف، مدیر علمی بخش هوش مصنوعی در اندیشکده امریکایی «آی ناو اینستیتوت»، میگوید دیدن استقرار ناگهانی این ابزارها بسیار شگفتانگیز بود، بهویژه وقتی به این فکر میکنم که جامعه گستردهتر معتقد نیست این فناوریها برای چنین استفادهای آمادهاند.<\/p>
او به «یورونیوز نکست» گفت اکنون این پرسش را مطرح میکنیم که با توجه به نقصهای جدی این مدلها، آیا اصلا میتوانند در هیچ محیط نظامی موفق باشند یا نه.<\/p>
خلاف گفت پژوهشگران بارها هشدار دادهاند که مدلهای زبانی بزرگ میتوانند خروجیهای نامعتبر یا نادرست تولید کنند و این نگرانی را بهوجود آوردهاند که در محیطهای پرریسکی مانند عملیات نظامی چگونه عمل خواهند کرد.<\/p>
خبر استفاده از کلود در حالی منتشر میشود که دولت ترامپ راهبردی جاهطلبانه را پی میگیرد تا ارتش امریکا را به نهادی «اول هوش مصنوعی» تبدیل کند و استدلال میکند پذیرش سریع این فناوری برای رقابت با رقبایی مانند چین ضروری است.<\/p>«حس فوریت» در امریکا برای بهکارگیری هوش مصنوعی<\/h2>
کارشناسان به «یورونیوز نکست» گفتند ایالات متحده از دهه ۲۰۱۰ میلادی انواع فناوریهای خودکارسازی را در ارتش به کار گرفته و این حوزه در دوره چند رئیسجمهور، از جمله پیشینیان ترامپ، باراک اوباما و جو بایدن، در کانون توجه بوده است.<\/p>
الکه شوارتس، استاد نظریه سیاسی در دانشگاه کوئین مری لندن در بریتانیا، میگوید نسلهای اولیه سامانههای هوش مصنوعی بیشتر در حوزههایی مانند تدارکات، نگهداری تجهیزات و ترجمه به کار میرفتند.<\/p>
به گفته شوارتس و خلاف، دوره دوم ریاست جمهوری ترامپ روند بهکارگیری مدلهای مولد هوش مصنوعی مانند «چتجیپیتی» اوپنایآی یا «کلود» انتروپیک را در چارچوب «رقابت تسلیحاتی هوش مصنوعی» با دشمنان امریکا شتاب داده است.<\/p>
یورگوس وردی، پژوهشگر سیاستگذاری در اندیشکده «شورای روابط خارجی اروپا»، میگوید سیاستهای امریکا «حس فوریت» برای توسعه هوش مصنوعی ایجاد میکند، چون این فناوری «بسیار ارزشمند» تلقی میشود و قرار است این کشور را از رقبایش جلوتر نگه دارد.<\/p>
استراتژی «شتابدهی هوش مصنوعی» وزارت جنگ امریکا در پی آن است<\/a> که با حذف موانع ادغام هوش مصنوعی و سرمایهگذاری در پروژههای راهبردی، برتری نظامی امریکا را تضمین کند.<\/p><\/cstm>شوارتس میگوید هدف اصلی این است که هوش مصنوعی را به همه حوزهها وارد کنند، از حوزههای کمخطر گرفته تا حوزههایی که میتواند بسیار مخرب باشد.<\/p>او افزود دولتهای پیشین در تعیین خطوط قرمز و قواعد ایمنی برای این که این فناوریها چگونه و چه زمانی میتوانند به کار گرفته شوند، محتاطتر عمل میکردند.<\/p>در چارچوب همین تلاش، این استراتژی پلتفرمی به نام genai.mil<\/a> راهاندازی کرده که به کارمندان دولتی امکان میدهد به چتباتهای هوش مصنوعی، از جمله «جمینی» گوگل و «گراک» شرکت xAI، دسترسی داشته باشند.<\/p>بودجه<\/a> سال ۲۰۲۵ دولت امریکا که «بیگ بیوتیفل بیل» نام گرفته است، همچنین شامل صدها میلیون دلار برای پروژههای نظامی مرتبط با هوش مصنوعی است.<\/p>در این سند ۶۵۰ میلیون دلار (۵۵۰ میلیون یورو) برای نوآوری نظامی کنار گذاشته شده است که از این میان ۱۴۵ میلیون دلار (۱۲۳ میلیون یورو) به توسعه سامانههای ضدپهپاد مبتنی بر هوش مصنوعی اختصاص مییابد.<\/p>۲۵۰ میلیون دلار دیگر برای «پیشرفت زیستبوم هوش مصنوعی» هزینه خواهد شد و ۲۵۰ میلیون دلار دیگر نیز به گسترش توانمندیهای هوش مصنوعی در مرکز فرماندهی سایبری اختصاص مییابد. همچنین ۱۱۵ میلیون دلار اضافی برای شتاب دادن به ماموریتهای امنیت ملی هستهای با استفاده از هوش مصنوعی در نظر گرفته شده است.<\/p>ارتش امریکا همچنان در «مرحله آزمایشی» استفاده از چتباتهای هوش مصنوعی است<\/h2>شوارتس میگوید به دلیل «فقدان ذاتی شفافیت» تشخیص این که دولت امریکا در اجرای این برنامهها تا چه اندازه پیش رفته است دشوار است. او میافزاید: «بر خلاف یک نوع مهمات یا سامانه تسلیحاتی فیزیکی مشخص، اینجا واقعا نمیبینید چه چیزی استفاده میشود. همه چیز در یک رابط کاربری و در نوعی منطقه ناپیدا رخ میدهد.»<\/p>به باور او، ارتش امریکا اکنون در یک «مرحله آزمایشی» قرار دارد که در آن با شرکتهای مختلف هوش مصنوعی کار میکند تا بفهمد چه کارهایی میتوانند انجام دهند و محدودیتهایشان کجاست.<\/p>به گفته شرکت انتروپیک، شراکت ۲۰۰ میلیون دلاری<\/a> این شرکت با ارتش امریکا یک نمونه اولیه دو ساله است که هدف آن تقویت امنیت ملی است. قرار است این شرکت با وزارت جنگ همکاری کند تا «استفادههای احتمالی خصمانه از هوش مصنوعی را پیشبینی و مهار کند» و هرگونه ریسک در بهکارگیری این فناوری در سراسر «مجموعه دفاعی» را شناسایی کند.<\/p><\/cstm>شوارتس میگوید این موضوع نشان میدهد این سامانهها در محیطهای واقعی آزموده میشوند؛ امری که به گفته او پرسشهای اخلاقی جدی ایجاد میکند.<\/p>او میافزاید: «برای موضوعی که پای جان انسانها در میان است، این یک رویه بسیار بد است.»<\/p>با این حال، وردی بر این باور است که سامانههایی مانند کلود که در پروندههای ونزوئلا و ایران به کار رفتهاند بیشتر برای «وظایف روزمرهتر»ی مانند جمعآوری یا تحلیل تصاویر ماهوارهای استفاده شدهاند.<\/p>او میگوید: «یک انسان ممکن است نتواند تکتک اطلاعات ورودی را تحلیل کند، اما سامانه هوش مصنوعی میتواند این کار را بسیار سریعتر انجام دهد. سپس انسانها خروجیهای سامانه هوش مصنوعی را تفسیر میکنند و بر اساس آن دست به اقدام میزنند.»<\/p>هشدار کارشناسان درباره علاقه فزاینده به سلاحهای خودکار مجهز به هوش مصنوعی<\/h2>پژوهشگران نگراناند که نقش روبهگسترش هوش مصنوعی در برنامهریزی و تصمیمگیری نظامی امریکا در نهایت به توسعه سلاحهای خودکار منجر شود.<\/p>وردی میگوید: «فکر میکنم قطعا تمایل وجود دارد که دستکم گزینه توسعه کامل سلاحهای خودکار مجهز به هوش مصنوعی روی میز باشد و در صورت لزوم از آنها استفاده شود.»<\/p>به گفته خلاف، سلاح خودکار به هر نوع سلاحی گفته میشود که بتواند بدون دخالت انسان در تصمیم نهایی، هدف را شناسایی، انتخاب و درگیر شود.<\/p>او توضیح میدهد: «بنابراین به جای این که یک مدل زبانی بزرگ صرفا توصیهای ارایه کند و انسان آن را بپذیرد یا رد کند، کل این روند میتواند کاملا خودکار شود.»<\/p>وردی میگوید یکی از استدلالهای اصلی برای توسعه چنین سامانههایی این است که اگر رقیبی زودتر آنها را بسازد، امریکا عقب خواهد افتاد.<\/p><\/cstm>با این حال، به گفته وردی و خلاف هیچ اطلاعات علنیای در دست نیست که نشان دهد چین به هر شکلی هوش مصنوعی را در ساختار نظامی خود ادغام کرده باشد.<\/p>وردی افزود چینیها «بشدت نگراناند که این فناوری را تحت کنترل نگه دارند».<\/p>او گفت توانمندیهای هوش مصنوعی دیگر رقبای امریکا، مانند روسیه، ایران یا کره شمالی، «بهمراتب ابتداییتر» است، بنابراین احتمال این که این کشورها سلاحهای خودکار مجهز به هوش مصنوعی داشته باشند حتی کمتر است.<\/p>وردی افزود ساخت سلاحهای کاملا خودکار با استفاده از هوش مصنوعی میتواند به تشدید درگیریها نیز منجر شود.<\/p>یک مطالعه<\/a> تازه در قالب نسخه پیشاتکثیر از کالج کینگز لندن نشان داد چتباتهای هوش مصنوعی در سناریوهای شبیهسازیشده جنگ تقریبا همیشه گزینه تهدید به استفاده از سلاح هستهای را انتخاب میکنند.<\/p>گذار دشوار پنتاگون در کنار گذاشتن کلود<\/h2>وردی میگوید باید انتظار داشت امریکا به استفاده از کلود یا چتباتهای هوش مصنوعی دیگر در عملیات خود ادامه دهد، زیرا ماموریتهای ونزوئلا و ایران «به نظر میرسد در تحقق هدفهایشان بسیار موفق بودهاند».<\/p>او افزود این تلقی از موفقیت خطر آن را به همراه دارد که امریکا برای موثرتر کردن این فناوری حتی محدودیتهای بیشتری، از جمله نظارت انسانی، را کنار بگذارد. به گفته او چالش اصلی وزارت جنگ این خواهد بود که مدلی بیابد که به خوبی کلود عمل کند.<\/p>دولت امریکا طبق گفته پیت هگزث، وزیر جنگ این کشور، در شش ماه آینده<\/a> به تدریج استفاده از کلود را متوقف خواهد کرد، زیرا این شرکت از دادن دسترسی نامحدود ارتش به فناوری خود سر باز زده است؛ امری که به گفته انتروپیک میتواند برای نظارت انبوه یا توسعه سلاحهای خودکار به کار رود.<\/p><\/cstm>شرکت انتروپیک اعلام کرده است<\/a> کلود در سراسر شبکههای حاوی اطلاعات طبقهبندیشده دولت امریکا مستقر شده، در آزمایشگاههای هستهای ملی به کار رفته و مستقیما برای وزارت جنگ تحلیل اطلاعات انجام میدهد.<\/p>در همین حال، وزارت جنگ قراردادی با اوپنایآی امضا کرده است<\/a> تا «سامانههای پیشرفته هوش مصنوعی را در محیطهای طبقهبندیشده» ادغام کند؛ قراردادی که چند ساعت پس از لغو توافق با انتروپیک نهایی شد.<\/p>
وردی میگوید: «فکر میکنم وزارت جنگ با گذاری چالشبرانگیز روبهرو خواهد بود، اما در عین حال جایگزین کردن کلود با یک سامانه هوش مصنوعی جدید ماموریتی ناممکن نیست.»<\/p>
او افزود اطلاعاتی که کلود جمعآوری و در اختیار وزارت جنگ گذاشته است احتمالا در این وزارتخانه باقی خواهد ماند و میتواند در اختیار تامینکننده بعدی قرار گیرد.<\/p>
<\/p>589efdf8ac319cb07d14c5a4b8204371<\/hash>