همزمان با گسترش استفاده ارتش آمریکا از ابزارهای هوش مصنوعی برای شناسایی اهداف حملات هوایی در ایران، برخی اعضای کنگره خواستار وضع مقررات محدودکننده و نظارت بیشتر بر استفاده از این فناوری در جنگ شدهاند.
شبکه انبیسی در گزارشی به نقل از دو منبع آگاه که نامشان فاش نشده، تایید کردهاند که ارتش آمریکا در حملات جاری از سامانههای هوش مصنوعی شرکت پالانتیر (Palantir) برای شناسایی اهداف احتمالی استفاده میکند. نرمافزار پالانتیر که تا حدی بر سیستمهای هوش مصنوعی کلود (Claude) از شرکت آنتروپیک (Anthropic) متکی است، در حالی به کار گرفته میشود که پیت هگست، وزیر جنگ آمریکا قصد دارد هوش مصنوعی را در مرکز عملیات رزمی این کشور قرار دهد.
این در حالی است که او پیشتر با مدیران آنتروپیک بر سر محدودیتهای استفاده نظامی از هوش مصنوعی اختلاف نظر داشته است.
با این حال، در حالی که نقش هوش مصنوعی در میدان نبرد گسترش مییابد، قانونگذاران خواستار توجه بیشتر به ضوابطی که باید بر استفاده از این فناوری حاکم باشد و همچنین شفافیت بیشتر درباره میزان اختیاری هستند که به این فناوری داده میشود.
جیل توکودا نماینده دموکرات از ایالت هاوایی و عضو کمیته نیروهای مسلح مجلس نمایندگان به انبیسی نیوز گفت: «ما به یک بررسی کامل و بیطرفانه نیاز داریم تا مشخص شود آیا هوش مصنوعی در جنگ با ایران تاکنون باعث آسیب یا به خطر افتادن جان انسانها شده است یا نه. قضاوت انسانی باید همچنان در مرکز تصمیمهای مرگ و زندگی باقی بماند.»
نگرانی از اشتباهات احتمالی
وزارت جنگ آمریکا و شرکتهای بزرگ هوش مصنوعی مانند اوپنایآی (OpenAI) و آنتروپیک پیشتر اعلام کردهاند که سیستمهای فعلی هوش مصنوعی نباید بدون تایید انسان قادر به کشتن باشند. با این حال، نگرانیها همچنان باقی است که تکیه بر هوش مصنوعی در بخشی از عملیات یا تصمیمگیریهای نظامی ممکن است به اشتباهات خطرناک در عملیات نظامی منجر شود.
شان پارنل سخنگوی ارشد پنتاگون در پیامی در شبکه ایکس در ۲۶ فوریه نوشته بود که ارتش آمریکا «نمیخواهد از هوش مصنوعی برای توسعه سلاحهای خودکار که بدون دخالت انسان عمل میکنند استفاده کند.»
با این حال، وزارت دفاع آمریکا به پرسشها درباره نحوه ایجاد تعادل میان استفاده از هوش مصنوعی برای کاهش حجم کار انسانی و اطمینان از صحت تحلیلها و پیشنهادهای هدفگیری پاسخی نداده است.
قانونگذاران و کارشناسان مستقلی که با انبیسی نیوز گفتوگو کردهاند نسبت به استفاده ارتش از چنین ابزارهایی هشدار داده و خواستار مقررات مشخص برای تضمین حضور انسان در تصمیمهای مرگ و زندگی در میدان جنگ شدهاند.
سارا جیکوبز نماینده دموکرات از کالیفرنیا و عضو کمیته نیروهای مسلح مجلس نمایندگان گفت: «ابزارهای هوش مصنوعی صددرصد قابل اعتماد نیستند. آنها میتوانند به شکلهای ظریف دچار خطا شوند، در حالی که کاربران همچنان بیش از حد به آنها اعتماد میکنند.»
او افزود: «ما مسئولیت داریم محدودیتهای سختگیرانهای برای استفاده ارتش از هوش مصنوعی وضع کنیم و تضمین کنیم که در هر تصمیم برای استفاده از نیروی مرگبار، یک انسان در حلقه تصمیمگیری حضور داشته باشد؛ زیرا اشتباه در این زمینه میتواند پیامدهای فاجعهباری برای غیرنظامیان و نیروهای نظامی داشته باشد.»
نقش هوش مصنوعی کلود در تحلیل اطلاعات
سامانه هوش مصنوعی کلود به یکی از اجزای مهم برنامه تحلیل اطلاعات ماون (Maven) شرکت پالانتیر تبدیل شده است. این برنامه پیشتر در عملیات آمریکا برای دستگیری نیکولاس مادورو رئیسجمهور ونزوئلا نیز استفاده شده بود.
بر اساس گفته یکی از منابع آگاه از همکاری آنتروپیک با وزارت دفاع آمریکا، کلود برای کمک به تحلیلگران نظامی در مرتبسازی و تحلیل حجم عظیمی از دادههای اطلاعاتی استفاده میشود و به طور مستقیم توصیهای برای انتخاب اهداف ارائه نمیدهد.
خبر استفاده از کلود در عملیات نظامی اخیر نخستین بار توسط والاستریت ژورنال و واشنگتن پست گزارش شد.
با این حال نقش این فناوری با اختلاف میان آنتروپیک و وزیر دفاع آمریکا پیچیدهتر شده است. این شرکت تلاش کرده بود مانع استفاده ارتش از هوش مصنوعی خود برای نظارت داخلی و سلاحهای مرگبار خودکار شود. هفته گذشته وزارت دفاع آمریکا آنتروپیک را تهدیدی برای امنیت ملی اعلام کرد؛ اقدامی که میتواند در ماههای آینده استفاده از فناوری این شرکت در ارتش را متوقف کند. آنتروپیک برای مقابله با این تصمیم شکایتی حقوقی ثبت کرده است.
آنتروپیک از اظهار نظر درباره این موضوع خودداری کرد و شرکت پالانتیر نیز به درخواست رسانهها برای اظهار نظر پاسخی نداد.
تاکید ارتش آمریکا بر نقش انسان در تصمیم نهایی
دریادار برد کوپر، فرمانده سنتکام در ویدیویی که در شبکه ایکس منتشر شد تایید کرد که هوش مصنوعی به ابزاری مهم برای انتخاب اهداف در ایران تبدیل شده است.
او گفت: «نیروهای ما از مجموعهای از ابزارهای پیشرفته هوش مصنوعی استفاده میکنند. این سیستمها به ما کمک میکنند حجم عظیمی از دادهها را در چند ثانیه بررسی کنیم تا فرماندهان بتوانند سریعتر و هوشمندانهتر از دشمن تصمیم بگیرند.»
او افزود: «انسانها همیشه تصمیم نهایی درباره این که چه چیزی هدف قرار گیرد، چه زمانی و چگونه شلیک شود را میگیرند. اما ابزارهای پیشرفته هوش مصنوعی فرایندهایی را که قبلا ساعتها یا حتی روزها طول میکشید به چند ثانیه کاهش میدهند.»
دولت ترامپ به طور علنی از استفاده از این فناوری در ارتش و دیگر نهادهای دولتی حمایت کرده است.
پت هریگان، نماینده جمهوریخواه از کارولینای شمالی نیز گفت هوش مصنوعی اکنون برای پردازش سریع اطلاعات نظامی از جمله در ایران به ابزاری حیاتی تبدیل شده است.
او گفت: «هوش مصنوعی ابزاری است که به نیروهای ما کمک میکند حجم عظیمی از دادهها را سریعتر از هر انسان پردازش کنند. آنچه در عملیات اپیک فیوری دیدیم که بیش از دو هزار هدف با دقت بالا مورد حمله قرار گرفت، نشان میدهد این قابلیتها میتواند به شکل مسئولانه و مؤثر استفاده شود.»
او در عین حال تأکید کرد: «هیچ سیستم هوش مصنوعی جایگزین قضاوت، آموزش و تجربه یک نظامی آمریکایی نمیشود. حضور انسان در حلقه تصمیمگیری یک تشریفات نیست، بلکه یک الزام است.»
درخواست برای نظارت بیشتر
با وجود این، برخی قانونگذاران میگویند نظارت بیشتری لازم است. الیس اسلاتکین، سناتور دموکرات از میشیگان و عضو کمیته نیروهای مسلح سنا گفت وزارت جنگ هنوز به اندازه کافی توضیح نداده است که انسانها چگونه دادههای اطلاعاتی تولیدشده یا کمکشده توسط هوش مصنوعی را بررسی میکنند.
او گفت: «در نهایت این انسانها هستند که باید مسئولیت را بر عهده بگیرند و در این مورد وزیر دفاع باید تضمین کند که برای آینده قابل پیشبینی یک سیستم نظارتی انسانی چندلایه وجود داشته باشد. اما ما در حال حاضر به این موضوع اعتماد نداریم.»
مارک وارنر سناتور دموکرات از ویرجینیا و رئیس دموکرات کمیته اطلاعات سنا نیز گفت نسبت به استفاده ارتش از هوش مصنوعی برای شناسایی اهداف نگران است و پرسشهای بیپاسخ زیادی درباره نحوه استفاده از این فناوری وجود دارد. او گفت: «این موضوع باید بررسی شود.»
خطاهای شناختهشده در سیستمهای هوش مصنوعی
شرکتهای اوپنایآی و آنتروپیک که هر دو با ارتش آمریکا همکاری داشتهاند تأکید کردهاند حتی پیشرفتهترین سیستمهای هوش مصنوعی نیز مستعد خطا هستند. بسیاری از پژوهشگران برجسته هوش مصنوعی نیز اذعان کردهاند که هنوز درک کاملی از نحوه عملکرد دقیق این سیستمها ندارند.
داریو آمودی، مدیرعامل آنتروپیک ماه گذشته در گفتوگو با انبیسی گفت: «نمیتوانم به شما بگویم که حتی سیستمهایی که ما میسازیم صددرصد قابل اعتماد هستند.»
یک مطالعه بزرگ شرکت اوپنایآی که در سپتامبر منتشر شد نیز نشان داد همه چتباتهای بزرگ هوش مصنوعی که بر مدلهای زبانی بزرگ متکی هستند گاهی پاسخهای ساختگی تولید میکنند؛ پدیدهای که در این حوزه «هالوسینیشن» نامیده میشود.
هشدار درباره خطرات تصمیمگیری سریع
کریستن جیلیبرند سناتور دموکرات از نیویورک نیز خواستار تدوین قوانین شفافتری درباره استفاده ارتش از هوش مصنوعی شد.
او گفت: «دولت ترامپ پیش از این نشان داده که برای پیشبرد یک جنگ نامحبوب آماده است قانون آمریکا را دور بزند. بنابراین دلیل کمی وجود دارد که باور کنیم وزارت جنگ بدون مقررات مشخص از هوش مصنوعی مسئولانهتر استفاده خواهد کرد.»
مارک بیل، رئیس بخش امور دولتی در اندیشکده شبکه سیاستگذاری هوش مصنوعی در واشنگتن و مدیر پیشین راهبرد هوش مصنوعی پنتاگون بین سالهای ۲۰۱۸ تا ۲۰۲۰ گفت اگرچه هوش مصنوعی میتواند روند انتخاب اهداف را سریعتر کند، اما هنوز انسانها باید اهداف را به دقت بررسی کنند.
او گفت: «پیش از فشردن ماشه مراحل زیادی وجود دارد. سیستمهای هوش مصنوعی به طور مؤثر برای سرعت بخشیدن به روندهای موجود به کار گرفته میشوند و به فرماندهان و تحلیلگران کمک میکنند سریعتر و بهتر تصمیم بگیرند. اما برای استفاده مستقیم از سامانههای تسلیحاتی، این فناوری هنوز آماده نیست.»
او افزود: «این سیستمها به مرور بسیار پیشرفته خواهند شد و وقتی دشمنان دیگر نیز از آنها استفاده کنند فشار برای کوتاه کردن روند بررسی نتایج هوش مصنوعی افزایش خواهد یافت تا عملیات با سرعت بیشتری انجام شود. ما باید پیش از رسیدن به آن مرحله مشکل قابل اعتماد بودن این سیستمها را حل کنیم. صرف نظر از دیدگاهها درباره سلاحهای خودکار مرگبار، ایمن و مؤثر کردن آنها به نفع تمام جهان است.»
هایدی خلاف دانشمند ارشد مؤسسه ایآی ناو (AI Now Institute) که از استفاده اخلاقی از این فناوری حمایت میکند نیز گفت نگران است اتکا به هوش مصنوعی برای تصمیمهای مرگ و زندگی راهی برای فرار ارتشها از مسئولیت اشتباهات باشد.
به کانال تلگرام یورونیوز فارسی بپیوندید
او گفت: «بسیار خطرناک است که مفهوم سرعت به عنوان یک مزیت راهبردی مطرح میشود، در حالی که با توجه به میزان خطای این مدلها، این موضوع میتواند پوششی برای هدفگیریهای غیرانتخابی باشد.»