Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

استفاده ارتش آمریکا از هوش مصنوعی در جنگ ایران نگرانی قانون‌گذاران را برانگیخت

حملات آمریکا به ایران
حملات آمریکا به ایران Copyright  AP Photo
Copyright AP Photo
نگارش از یورونیوز فارسی
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

همزمان با گسترش استفاده ارتش آمریکا از ابزارهای هوش مصنوعی برای شناسایی اهداف حملات هوایی در ایران، برخی اعضای کنگره خواستار وضع مقررات محدودکننده و نظارت بیشتر بر استفاده از این فناوری در جنگ شده‌اند.

شبکه ان‌بی‌سی در گزارشی به نقل از دو منبع آگاه که نامشان فاش نشده، تایید کرده‌اند که ارتش آمریکا در حملات جاری از سامانه‌های هوش مصنوعی شرکت پالانتیر (Palantir) برای شناسایی اهداف احتمالی استفاده می‌کند. نرم‌افزار پالانتیر که تا حدی بر سیستم‌های هوش مصنوعی کلود (Claude) از شرکت آنتروپیک (Anthropic) متکی است، در حالی به کار گرفته می‌شود که پیت هگست، وزیر جنگ آمریکا قصد دارد هوش مصنوعی را در مرکز عملیات رزمی این کشور قرار دهد.

آگهی
آگهی

این در حالی است که او پیش‌تر با مدیران آنتروپیک بر سر محدودیت‌های استفاده نظامی از هوش مصنوعی اختلاف نظر داشته است.

با این حال، در حالی که نقش هوش مصنوعی در میدان نبرد گسترش می‌یابد، قانون‌گذاران خواستار توجه بیشتر به ضوابطی که باید بر استفاده از این فناوری حاکم باشد و همچنین شفافیت بیشتر درباره میزان اختیاری هستند که به این فناوری داده می‌شود.

جیل توکودا نماینده دموکرات از ایالت هاوایی و عضو کمیته نیروهای مسلح مجلس نمایندگان به ان‌بی‌سی نیوز گفت: «ما به یک بررسی کامل و بی‌طرفانه نیاز داریم تا مشخص شود آیا هوش مصنوعی در جنگ با ایران تاکنون باعث آسیب یا به خطر افتادن جان انسان‌ها شده است یا نه. قضاوت انسانی باید همچنان در مرکز تصمیم‌های مرگ و زندگی باقی بماند.»

نگرانی از اشتباهات احتمالی

وزارت جنگ آمریکا و شرکت‌های بزرگ هوش مصنوعی مانند اوپن‌ای‌آی (OpenAI) و آنتروپیک پیش‌تر اعلام کرده‌اند که سیستم‌های فعلی هوش مصنوعی نباید بدون تایید انسان قادر به کشتن باشند. با این حال، نگرانی‌ها همچنان باقی است که تکیه بر هوش مصنوعی در بخشی از عملیات یا تصمیم‌گیری‌های نظامی ممکن است به اشتباهات خطرناک در عملیات نظامی منجر شود.

شان پارنل سخنگوی ارشد پنتاگون در پیامی در شبکه ایکس در ۲۶ فوریه نوشته بود که ارتش آمریکا «نمی‌خواهد از هوش مصنوعی برای توسعه سلاح‌های خودکار که بدون دخالت انسان عمل می‌کنند استفاده کند.»

با این حال، وزارت دفاع آمریکا به پرسش‌ها درباره نحوه ایجاد تعادل میان استفاده از هوش مصنوعی برای کاهش حجم کار انسانی و اطمینان از صحت تحلیل‌ها و پیشنهادهای هدف‌گیری پاسخی نداده است.

قانون‌گذاران و کارشناسان مستقلی که با ان‌بی‌سی نیوز گفت‌وگو کرده‌اند نسبت به استفاده ارتش از چنین ابزارهایی هشدار داده و خواستار مقررات مشخص برای تضمین حضور انسان در تصمیم‌های مرگ و زندگی در میدان جنگ شده‌اند.

سارا جیکوبز نماینده دموکرات از کالیفرنیا و عضو کمیته نیروهای مسلح مجلس نمایندگان گفت: «ابزارهای هوش مصنوعی صددرصد قابل اعتماد نیستند. آن‌ها می‌توانند به شکل‌های ظریف دچار خطا شوند، در حالی که کاربران همچنان بیش از حد به آن‌ها اعتماد می‌کنند.»

او افزود: «ما مسئولیت داریم محدودیت‌های سختگیرانه‌ای برای استفاده ارتش از هوش مصنوعی وضع کنیم و تضمین کنیم که در هر تصمیم برای استفاده از نیروی مرگبار، یک انسان در حلقه تصمیم‌گیری حضور داشته باشد؛ زیرا اشتباه در این زمینه می‌تواند پیامدهای فاجعه‌باری برای غیرنظامیان و نیروهای نظامی داشته باشد.»

نقش هوش مصنوعی کلود در تحلیل اطلاعات

سامانه هوش مصنوعی کلود به یکی از اجزای مهم برنامه تحلیل اطلاعات ماون (Maven) شرکت پالانتیر تبدیل شده است. این برنامه پیش‌تر در عملیات آمریکا برای دستگیری نیکولاس مادورو رئیس‌جمهور ونزوئلا نیز استفاده شده بود.

بر اساس گفته یکی از منابع آگاه از همکاری آنتروپیک با وزارت دفاع آمریکا، کلود برای کمک به تحلیلگران نظامی در مرتب‌سازی و تحلیل حجم عظیمی از داده‌های اطلاعاتی استفاده می‌شود و به طور مستقیم توصیه‌ای برای انتخاب اهداف ارائه نمی‌دهد.

خبر استفاده از کلود در عملیات نظامی اخیر نخستین بار توسط وال‌استریت ژورنال و واشنگتن پست گزارش شد.

با این حال نقش این فناوری با اختلاف میان آنتروپیک و وزیر دفاع آمریکا پیچیده‌تر شده است. این شرکت تلاش کرده بود مانع استفاده ارتش از هوش مصنوعی خود برای نظارت داخلی و سلاح‌های مرگبار خودکار شود. هفته گذشته وزارت دفاع آمریکا آنتروپیک را تهدیدی برای امنیت ملی اعلام کرد؛ اقدامی که می‌تواند در ماه‌های آینده استفاده از فناوری این شرکت در ارتش را متوقف کند. آنتروپیک برای مقابله با این تصمیم شکایتی حقوقی ثبت کرده است.

آنتروپیک از اظهار نظر درباره این موضوع خودداری کرد و شرکت پالانتیر نیز به درخواست رسانه‌ها برای اظهار نظر پاسخی نداد.

تاکید ارتش آمریکا بر نقش انسان در تصمیم نهایی

دریادار برد کوپر، فرمانده سنتکام در ویدیویی که در شبکه ایکس منتشر شد تایید کرد که هوش مصنوعی به ابزاری مهم برای انتخاب اهداف در ایران تبدیل شده است.

او گفت: «نیروهای ما از مجموعه‌ای از ابزارهای پیشرفته هوش مصنوعی استفاده می‌کنند. این سیستم‌ها به ما کمک می‌کنند حجم عظیمی از داده‌ها را در چند ثانیه بررسی کنیم تا فرماندهان بتوانند سریع‌تر و هوشمندانه‌تر از دشمن تصمیم بگیرند.»

او افزود: «انسان‌ها همیشه تصمیم نهایی درباره این که چه چیزی هدف قرار گیرد، چه زمانی و چگونه شلیک شود را می‌گیرند. اما ابزارهای پیشرفته هوش مصنوعی فرایندهایی را که قبلا ساعت‌ها یا حتی روزها طول می‌کشید به چند ثانیه کاهش می‌دهند.»

دولت ترامپ به طور علنی از استفاده از این فناوری در ارتش و دیگر نهادهای دولتی حمایت کرده است.

پت هریگان، نماینده جمهوری‌خواه از کارولینای شمالی نیز گفت هوش مصنوعی اکنون برای پردازش سریع اطلاعات نظامی از جمله در ایران به ابزاری حیاتی تبدیل شده است.

او گفت: «هوش مصنوعی ابزاری است که به نیروهای ما کمک می‌کند حجم عظیمی از داده‌ها را سریع‌تر از هر انسان پردازش کنند. آنچه در عملیات اپیک فیوری دیدیم که بیش از دو هزار هدف با دقت بالا مورد حمله قرار گرفت، نشان می‌دهد این قابلیت‌ها می‌تواند به شکل مسئولانه و مؤثر استفاده شود.»

او در عین حال تأکید کرد: «هیچ سیستم هوش مصنوعی جایگزین قضاوت، آموزش و تجربه یک نظامی آمریکایی نمی‌شود. حضور انسان در حلقه تصمیم‌گیری یک تشریفات نیست، بلکه یک الزام است.»

درخواست برای نظارت بیشتر

با وجود این، برخی قانون‌گذاران می‌گویند نظارت بیشتری لازم است. الیس اسلاتکین، سناتور دموکرات از میشیگان و عضو کمیته نیروهای مسلح سنا گفت وزارت جنگ هنوز به اندازه کافی توضیح نداده است که انسان‌ها چگونه داده‌های اطلاعاتی تولیدشده یا کمک‌شده توسط هوش مصنوعی را بررسی می‌کنند.

او گفت: «در نهایت این انسان‌ها هستند که باید مسئولیت را بر عهده بگیرند و در این مورد وزیر دفاع باید تضمین کند که برای آینده قابل پیش‌بینی یک سیستم نظارتی انسانی چندلایه وجود داشته باشد. اما ما در حال حاضر به این موضوع اعتماد نداریم.»

مارک وارنر سناتور دموکرات از ویرجینیا و رئیس دموکرات کمیته اطلاعات سنا نیز گفت نسبت به استفاده ارتش از هوش مصنوعی برای شناسایی اهداف نگران است و پرسش‌های بی‌پاسخ زیادی درباره نحوه استفاده از این فناوری وجود دارد. او گفت: «این موضوع باید بررسی شود.»

خطاهای شناخته‌شده در سیستم‌های هوش مصنوعی

شرکت‌های اوپن‌ای‌آی و آنتروپیک که هر دو با ارتش آمریکا همکاری داشته‌اند تأکید کرده‌اند حتی پیشرفته‌ترین سیستم‌های هوش مصنوعی نیز مستعد خطا هستند. بسیاری از پژوهشگران برجسته هوش مصنوعی نیز اذعان کرده‌اند که هنوز درک کاملی از نحوه عملکرد دقیق این سیستم‌ها ندارند.

داریو آمودی، مدیرعامل آنتروپیک ماه گذشته در گفت‌وگو با ان‌بی‌سی گفت: «نمی‌توانم به شما بگویم که حتی سیستم‌هایی که ما می‌سازیم صددرصد قابل اعتماد هستند.»

یک مطالعه بزرگ شرکت اوپن‌ای‌آی که در سپتامبر منتشر شد نیز نشان داد همه چت‌بات‌های بزرگ هوش مصنوعی که بر مدل‌های زبانی بزرگ متکی هستند گاهی پاسخ‌های ساختگی تولید می‌کنند؛ پدیده‌ای که در این حوزه «هالوسینیشن» نامیده می‌شود.

هشدار درباره خطرات تصمیم‌گیری سریع

کریستن جیلیبرند سناتور دموکرات از نیویورک نیز خواستار تدوین قوانین شفاف‌تری درباره استفاده ارتش از هوش مصنوعی شد.

او گفت: «دولت ترامپ پیش از این نشان داده که برای پیشبرد یک جنگ نامحبوب آماده است قانون آمریکا را دور بزند. بنابراین دلیل کمی وجود دارد که باور کنیم وزارت جنگ بدون مقررات مشخص از هوش مصنوعی مسئولانه‌تر استفاده خواهد کرد.»

مارک بیل، رئیس بخش امور دولتی در اندیشکده شبکه سیاست‌گذاری هوش مصنوعی در واشنگتن و مدیر پیشین راهبرد هوش مصنوعی پنتاگون بین سال‌های ۲۰۱۸ تا ۲۰۲۰ گفت اگرچه هوش مصنوعی می‌تواند روند انتخاب اهداف را سریع‌تر کند، اما هنوز انسان‌ها باید اهداف را به دقت بررسی کنند.

او گفت: «پیش از فشردن ماشه مراحل زیادی وجود دارد. سیستم‌های هوش مصنوعی به طور مؤثر برای سرعت بخشیدن به روندهای موجود به کار گرفته می‌شوند و به فرماندهان و تحلیلگران کمک می‌کنند سریع‌تر و بهتر تصمیم بگیرند. اما برای استفاده مستقیم از سامانه‌های تسلیحاتی، این فناوری هنوز آماده نیست.»

او افزود: «این سیستم‌ها به مرور بسیار پیشرفته خواهند شد و وقتی دشمنان دیگر نیز از آن‌ها استفاده کنند فشار برای کوتاه کردن روند بررسی نتایج هوش مصنوعی افزایش خواهد یافت تا عملیات با سرعت بیشتری انجام شود. ما باید پیش از رسیدن به آن مرحله مشکل قابل اعتماد بودن این سیستم‌ها را حل کنیم. صرف نظر از دیدگاه‌ها درباره سلاح‌های خودکار مرگبار، ایمن و مؤثر کردن آن‌ها به نفع تمام جهان است.»

هایدی خلاف دانشمند ارشد مؤسسه ای‌آی ناو (AI Now Institute) که از استفاده اخلاقی از این فناوری حمایت می‌کند نیز گفت نگران است اتکا به هوش مصنوعی برای تصمیم‌های مرگ و زندگی راهی برای فرار ارتش‌ها از مسئولیت اشتباهات باشد.

به کانال تلگرام یورونیوز فارسی بپیوندید

او گفت: «بسیار خطرناک است که مفهوم سرعت به عنوان یک مزیت راهبردی مطرح می‌شود، در حالی که با توجه به میزان خطای این مدل‌ها، این موضوع می‌تواند پوششی برای هدف‌گیری‌های غیرانتخابی باشد.»

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

از وضعیت سلامت مجتبی خامنه‌ای چه می‌دانیم؟

از زمان آغاز جنگ، چند کشتی در تنگه هرمز مورد حمله قرار گرفته‌اند؟

حملات آمریکا و اسرائیل به ایران؛ ترامپ: مجتبی خامنه‌ای همان مشکلات قبلی را برای ایران به بار می‌آورد