Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

هوش مصنوعی در میدان نبرد؛ آمریکا چگونه آن را در ارتش خود ادغام می‌کند؟

نشان روی تریبون پنتاگون در واشنگتن، چهارشنبه ۱۰ دسامبر ۲۰۲۵، پیش از سخنرانی وزیر دفاع پیت هگزت دیده می‌شود.
چهارشنبه ۱۰ دسامبر ۲۰۲۵ در واشینگتن، پیش از سخنرانی پیت هگست، وزیر دفاع، مهر وزارت دفاع روی سکویی در پنتاگون دیده می‌شود. Copyright  AP Photo
Copyright AP Photo
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

ارتش آمریکا از هوش مصنوعی کلودِ Anthropic استفاده می‌کرد، اما وقتی این شرکت نپذیرفت محدودیت‌هایش برای نظارت گسترده و سلاح‌های خودران را بردارد، پنتاگون قرارداد را لغو کرد و به اوپن‌ای‌آی روی آورد.

گزارش‌های رسانه‌ای درباره این که ارتش امریکا در جریان عملیات هدف‌گیری رهبران ونزوئلا و ایران از چت‌بات هوش مصنوعی «کلود» محصول شرکت انتروپیک استفاده کرده است، پرسش‌های تازه‌ای را درباره سرعت ادغام هوش مصنوعی در جنگ برانگیخته است.<\/p>

آگهی
آگهی

رسانه‌های امریکایی گزارش داده‌اند که از کلود برای تسهیل عملیاتی در ماه ژانویه استفاده شده که به دستگیری نیکولاس مادورو، رهبر ونزوئلا، انجامید. بعدتر گزارش‌های مشابهی منتشر شد مبنی بر این که این چت‌بات در مرحله تدارک عملیاتی با هدف قرار دادن آیت‌الله علی خامنه‌ای، رهبر درگذشته ایران، نیز به کار رفته است.<\/p>

کارشناسان می‌گویند این موارد تصویری نادر از این ارایه می‌کند که سامانه‌های پیشرفته هوش مصنوعی همین حالا چگونه ممکن است در خدمت برنامه‌ریزی و کار اطلاعاتی ارتش امریکا قرار گرفته باشند.<\/p><\/cstm>

هایدی خلاف، مدیر علمی بخش هوش مصنوعی در اندیشکده امریکایی «آی ناو اینستیتوت»، می‌گوید دیدن استقرار ناگهانی این ابزارها بسیار شگفت‌انگیز بود، به‌ویژه وقتی به این فکر می‌کنم که جامعه گسترده‌تر معتقد نیست این فناوری‌ها برای چنین استفاده‌ای آماده‌اند.<\/p>

او به «یورونیوز نکست» گفت اکنون این پرسش را مطرح می‌کنیم که با توجه به نقص‌های جدی این مدل‌ها، آیا اصلا می‌توانند در هیچ محیط نظامی موفق باشند یا نه.<\/p>

خلاف گفت پژوهشگران بارها هشدار داده‌اند که مدل‌های زبانی بزرگ می‌توانند خروجی‌های نامعتبر یا نادرست تولید کنند و این نگرانی را به‌وجود آورده‌اند که در محیط‌های پرریسکی مانند عملیات نظامی چگونه عمل خواهند کرد.<\/p>

خبر استفاده از کلود در حالی منتشر می‌شود که دولت ترامپ راهبردی جاه‌طلبانه را پی می‌گیرد تا ارتش امریکا را به نهادی «اول هوش مصنوعی» تبدیل کند و استدلال می‌کند پذیرش سریع این فناوری برای رقابت با رقبایی مانند چین ضروری است.<\/p>«حس فوریت» در امریکا برای به‌کارگیری هوش مصنوعی<\/h2>

کارشناسان به «یورونیوز نکست» گفتند ایالات متحده از دهه ۲۰۱۰ میلادی انواع فناوری‌های خودکارسازی را در ارتش به کار گرفته و این حوزه در دوره چند رئیس‌جمهور، از جمله پیشینیان ترامپ، باراک اوباما و جو بایدن، در کانون توجه بوده است.<\/p>

الکه شوارتس، استاد نظریه سیاسی در دانشگاه کوئین مری لندن در بریتانیا، می‌گوید نسل‌های اولیه سامانه‌های هوش مصنوعی بیشتر در حوزه‌هایی مانند تدارکات، نگه‌داری تجهیزات و ترجمه به کار می‌رفتند.<\/p>

به گفته شوارتس و خلاف، دوره دوم ریاست جمهوری ترامپ روند به‌کارگیری مدل‌های مولد هوش مصنوعی مانند «چت‌جی‌پی‌تی» اوپن‌ای‌آی یا «کلود» انتروپیک را در چارچوب «رقابت تسلیحاتی هوش مصنوعی» با دشمنان امریکا شتاب داده است.<\/p>

یورگوس وردی، پژوهشگر سیاست‌گذاری در اندیشکده «شورای روابط خارجی اروپا»، می‌گوید سیاست‌های امریکا «حس فوریت» برای توسعه هوش مصنوعی ایجاد می‌کند، چون این فناوری «بسیار ارزشمند» تلقی می‌شود و قرار است این کشور را از رقبایش جلوتر نگه دارد.<\/p>

استراتژی «شتاب‌دهی هوش مصنوعی» وزارت جنگ امریکا در پی آن است<\/a> که با حذف موانع ادغام هوش مصنوعی و سرمایه‌گذاری در پروژه‌های راهبردی، برتری نظامی امریکا را تضمین کند.<\/p><\/cstm>شوارتس می‌گوید هدف اصلی این است که هوش مصنوعی را به همه حوزه‌ها وارد کنند، از حوزه‌های کم‌خطر گرفته تا حوزه‌هایی که می‌تواند بسیار مخرب باشد.<\/p>او افزود دولت‌های پیشین در تعیین خطوط قرمز و قواعد ایمنی برای این که این فناوری‌ها چگونه و چه زمانی می‌توانند به کار گرفته شوند، محتاط‌تر عمل می‌کردند.<\/p>در چارچوب همین تلاش، این استراتژی پلتفرمی به نام genai.mil<\/a> راه‌اندازی کرده که به کارمندان دولتی امکان می‌دهد به چت‌بات‌های هوش مصنوعی، از جمله «جمینی» گوگل و «گراک» شرکت xAI، دسترسی داشته باشند.<\/p>بودجه<\/a> سال ۲۰۲۵ دولت امریکا که «بیگ بیوتیفل بیل» نام گرفته است، همچنین شامل صدها میلیون دلار برای پروژه‌های نظامی مرتبط با هوش مصنوعی است.<\/p>در این سند ۶۵۰ میلیون دلار (۵۵۰ میلیون یورو) برای نوآوری نظامی کنار گذاشته شده است که از این میان ۱۴۵ میلیون دلار (۱۲۳ میلیون یورو) به توسعه سامانه‌های ضدپهپاد مبتنی بر هوش مصنوعی اختصاص می‌یابد.<\/p>۲۵۰ میلیون دلار دیگر برای «پیشرفت زیست‌بوم هوش مصنوعی» هزینه خواهد شد و ۲۵۰ میلیون دلار دیگر نیز به گسترش توانمندی‌های هوش مصنوعی در مرکز فرماندهی سایبری اختصاص می‌یابد. همچنین ۱۱۵ میلیون دلار اضافی برای شتاب دادن به ماموریت‌های امنیت ملی هسته‌ای با استفاده از هوش مصنوعی در نظر گرفته شده است.<\/p>ارتش امریکا همچنان در «مرحله آزمایشی» استفاده از چت‌بات‌های هوش مصنوعی است<\/h2>شوارتس می‌گوید به دلیل «فقدان ذاتی شفافیت» تشخیص این که دولت امریکا در اجرای این برنامه‌ها تا چه اندازه پیش رفته است دشوار است. او می‌افزاید: «بر خلاف یک نوع مهمات یا سامانه تسلیحاتی فیزیکی مشخص، اینجا واقعا نمی‌بینید چه چیزی استفاده می‌شود. همه چیز در یک رابط کاربری و در نوعی منطقه ناپیدا رخ می‌دهد.»<\/p>به باور او، ارتش امریکا اکنون در یک «مرحله آزمایشی» قرار دارد که در آن با شرکت‌های مختلف هوش مصنوعی کار می‌کند تا بفهمد چه کارهایی می‌توانند انجام دهند و محدودیت‌هایشان کجاست.<\/p>به گفته شرکت انتروپیک، شراکت ۲۰۰ میلیون دلاری<\/a> این شرکت با ارتش امریکا یک نمونه اولیه دو ساله است که هدف آن تقویت امنیت ملی است. قرار است این شرکت با وزارت جنگ همکاری کند تا «استفاده‌های احتمالی خصمانه از هوش مصنوعی را پیش‌بینی و مهار کند» و هرگونه ریسک در به‌کارگیری این فناوری در سراسر «مجموعه دفاعی» را شناسایی کند.<\/p><\/cstm>شوارتس می‌گوید این موضوع نشان می‌دهد این سامانه‌ها در محیط‌های واقعی آزموده می‌شوند؛ امری که به گفته او پرسش‌های اخلاقی جدی ایجاد می‌کند.<\/p>او می‌افزاید: «برای موضوعی که پای جان انسان‌ها در میان است، این یک رویه بسیار بد است.»<\/p>با این حال، وردی بر این باور است که سامانه‌هایی مانند کلود که در پرونده‌های ونزوئلا و ایران به کار رفته‌اند بیشتر برای «وظایف روزمره‌تر»ی مانند جمع‌آوری یا تحلیل تصاویر ماهواره‌ای استفاده شده‌اند.<\/p>او می‌گوید: «یک انسان ممکن است نتواند تک‌تک اطلاعات ورودی را تحلیل کند، اما سامانه هوش مصنوعی می‌تواند این کار را بسیار سریع‌تر انجام دهد. سپس انسان‌ها خروجی‌های سامانه هوش مصنوعی را تفسیر می‌کنند و بر اساس آن دست به اقدام می‌زنند.»<\/p>هشدار کارشناسان درباره علاقه فزاینده به سلاح‌های خودکار مجهز به هوش مصنوعی<\/h2>پژوهشگران نگران‌اند که نقش رو‌به‌گسترش هوش مصنوعی در برنامه‌ریزی و تصمیم‌گیری نظامی امریکا در نهایت به توسعه سلاح‌های خودکار منجر شود.<\/p>وردی می‌گوید: «فکر می‌کنم قطعا تمایل وجود دارد که دست‌کم گزینه توسعه کامل سلاح‌های خودکار مجهز به هوش مصنوعی روی میز باشد و در صورت لزوم از آنها استفاده شود.»<\/p>به گفته خلاف، سلاح خودکار به هر نوع سلاحی گفته می‌شود که بتواند بدون دخالت انسان در تصمیم نهایی، هدف را شناسایی، انتخاب و درگیر شود.<\/p>او توضیح می‌دهد: «بنابراین به جای این که یک مدل زبانی بزرگ صرفا توصیه‌ای ارایه کند و انسان آن را بپذیرد یا رد کند، کل این روند می‌تواند کاملا خودکار شود.»<\/p>وردی می‌گوید یکی از استدلال‌های اصلی برای توسعه چنین سامانه‌هایی این است که اگر رقیبی زودتر آنها را بسازد، امریکا عقب خواهد افتاد.<\/p><\/cstm>با این حال، به گفته وردی و خلاف هیچ اطلاعات علنی‌ای در دست نیست که نشان دهد چین به هر شکلی هوش مصنوعی را در ساختار نظامی خود ادغام کرده باشد.<\/p>وردی افزود چینی‌ها «بشدت نگران‌اند که این فناوری را تحت کنترل نگه دارند».<\/p>او گفت توانمندی‌های هوش مصنوعی دیگر رقبای امریکا، مانند روسیه، ایران یا کره شمالی، «به‌مراتب ابتدایی‌تر» است، بنابراین احتمال این که این کشورها سلاح‌های خودکار مجهز به هوش مصنوعی داشته باشند حتی کمتر است.<\/p>وردی افزود ساخت سلاح‌های کاملا خودکار با استفاده از هوش مصنوعی می‌تواند به تشدید درگیری‌ها نیز منجر شود.<\/p>یک مطالعه<\/a> تازه در قالب نسخه پیشاتکثیر از کالج کینگز لندن نشان داد چت‌بات‌های هوش مصنوعی در سناریوهای شبیه‌سازی‌شده جنگ تقریبا همیشه گزینه تهدید به استفاده از سلاح هسته‌ای را انتخاب می‌کنند.<\/p>گذار دشوار پنتاگون در کنار گذاشتن کلود<\/h2>وردی می‌گوید باید انتظار داشت امریکا به استفاده از کلود یا چت‌بات‌های هوش مصنوعی دیگر در عملیات خود ادامه دهد، زیرا ماموریت‌های ونزوئلا و ایران «به نظر می‌رسد در تحقق هدف‌هایشان بسیار موفق بوده‌اند».<\/p>او افزود این تلقی از موفقیت خطر آن را به همراه دارد که امریکا برای موثرتر کردن این فناوری حتی محدودیت‌های بیشتری، از جمله نظارت انسانی، را کنار بگذارد. به گفته او چالش اصلی وزارت جنگ این خواهد بود که مدلی بیابد که به خوبی کلود عمل کند.<\/p>دولت امریکا طبق گفته پیت هگزث، وزیر جنگ این کشور، در شش ماه آینده<\/a> به تدریج استفاده از کلود را متوقف خواهد کرد، زیرا این شرکت از دادن دسترسی نامحدود ارتش به فناوری خود سر باز زده است؛ امری که به گفته انتروپیک می‌تواند برای نظارت انبوه یا توسعه سلاح‌های خودکار به کار رود.<\/p><\/cstm>شرکت انتروپیک اعلام کرده است<\/a> کلود در سراسر شبکه‌های حاوی اطلاعات طبقه‌بندی‌شده دولت امریکا مستقر شده، در آزمایشگاه‌های هسته‌ای ملی به کار رفته و مستقیما برای وزارت جنگ تحلیل اطلاعات انجام می‌دهد.<\/p>در همین حال، وزارت جنگ قراردادی با اوپن‌ای‌آی امضا کرده است<\/a> تا «سامانه‌های پیشرفته هوش مصنوعی را در محیط‌های طبقه‌بندی‌شده» ادغام کند؛ قراردادی که چند ساعت پس از لغو توافق با انتروپیک نهایی شد.<\/p>

وردی می‌گوید: «فکر می‌کنم وزارت جنگ با گذاری چالش‌برانگیز روبه‌رو خواهد بود، اما در عین حال جایگزین کردن کلود با یک سامانه هوش مصنوعی جدید ماموریتی ناممکن نیست.»<\/p>

او افزود اطلاعاتی که کلود جمع‌آوری و در اختیار وزارت جنگ گذاشته است احتمالا در این وزارتخانه باقی خواهد ماند و می‌تواند در اختیار تامین‌کننده بعدی قرار گیرد.<\/p>

<\/p>589efdf8ac319cb07d14c5a4b8204371<\/hash>

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

نیروی کار باید هوش مصنوعی را بپذیرد: نقش حیاتی انسان در آینده کار هوشمند

هوش مصنوعی در میدان نبرد؛ آمریکا چگونه آن را در ارتش خود ادغام می‌کند؟

هدف استارلینک: برنامه دویچه‌تله‌کوم برای پایان‌دادن به مناطق بدون آنتن در اروپا