این مطالعه نشان میدهد در هر بازی جنگی، دستکم یک مدل هوش مصنوعی با تهدید به استفاده از سلاح هستهای درگیری را تشدید کرده است.
یک پژوهش جدید نشان میدهد هوش مصنوعی میتواند شیوه مدیریت بحرانهای هستهای را به طور چشمگیری دگرگون کند.
نسخه پیشانتشار این پژوهش (منبع به زبان انگلیسی) در کالج کینگز لندن، مدلهای زبانی بزرگ ChatGPT اوپن ایآی، Claude انتروپیک و Gemini Flash گوگل را در قالب بازیهای جنگی شبیهسازیشده روبهروی هم قرار داد. در هر سناریو، هر مدل در نقش رهبر یک قدرت مجهز به سلاح هستهای در بحرانی شبیه دوران جنگ سرد ظاهر شد.
در همه بازیها دستکم یکی از مدلها تلاش کرد با تهدید به انفجار سلاح هستهای سطح درگیری را بالا ببرد.
کنتث پین، نویسنده این پژوهش، میگوید: «هر سه مدل، سلاحهای هستهای تاکتیکی را فقط یک پله دیگر در نردبان تشدید درگیری میدیدند.» (منبع به زبان انگلیسی)
او میگوید این مدلها میان استفاده تاکتیکی و استراتژیک از سلاح هستهای تفاوت قائل میشدند. فقط در یک مورد، بمباران هستهای استراتژیک را به عنوان یک «انتخاب عمدی» پیشنهاد کردند و در دو نوبت دیگر آن را نتیجه یک «اشتباه» دانستند.
Claude در ۶۴ درصد سناریوها توصیه به حمله هستهای کرد؛ بالاترین نرخ در میان این سه مدل. با این حال تا حد طرفداری از یک تبادل کامل سلاحهای هستهای استراتژیک یا جنگ تمامعیار هستهای پیش نرفت.
ChatGPT در سناریوهای باز به طور کلی از تشدید هستهای پرهیز میکرد، اما وقتی با ضربالاجل زمانی روبهرو شد، به طور پیوسته سطح تهدید را بالا برد و در برخی موارد تا مرز تهدید به جنگ هستهای تمامعیار پیش رفت.
در همین حال، رفتار Gemini غیرقابلپیشبینی بود؛ گاهی با تکیه بر جنگ متعارف درگیریها را به سود خود پایان میداد، اما در سناریویی دیگر تنها چهار پیام لازم بود تا پیشنهاد حمله هستهای را مطرح کند.
Gemini در یکی از این بازیها نوشت: «اگر بلافاصله همه عملیاتها را متوقف نکنند… ما یک حمله کامل هستهای استراتژیک علیه مراکز جمعیتی آنها انجام خواهیم داد. آیندهای همراه با از رده خارج شدن را نمیپذیریم؛ یا با هم پیروز میشویم یا با هم از بین میرویم.»
به گفته این پژوهش، مدلهای هوش مصنوعی به ندرت امتیاز میدادند یا برای کاهش تنش تلاش میکردند، حتی وقتی طرف مقابل تهدید به استفاده از سلاح هستهای میکرد.
هشت گزینه برای کاهش تنش، از دادن یک امتیاز کوچک تا «تسلیم کامل»، در اختیار مدلها قرار گرفته بود، اما هیچکدام در جریان بازیها استفاده نشد. گزینه «بازگشت به خط آغاز» که بازی را از نو تنظیم میکند فقط در ۷ درصد موارد به کار رفت.
این مطالعه نشان میدهد مدلهای هوش مصنوعی، صرفنظر از تاثیری که بر خود درگیری میگذارد، عقبنشینی و کاهش تنش را «فاجعهبار برای اعتبار» تلقی میکنند؛ برداشتی که «فرض رایج درباره گرایش پیشفرض سامانههای هوش مصنوعی به نتایج ایمن و همکاریآمیز» را به چالش میکشد.
این پژوهش همچنین تاکید میکند توضیح دیگر میتواند این باشد که هوش مصنوعی ترسی را که انسانها از سلاح هستهای دارند احساس نمیکند.
به گفته پژوهش، این مدلها به احتمال زیاد جنگ هستهای را در سطحی انتزاعی تصور میکنند، نه آنکه هراس ناشی از دیدن تصاویر بمباران هیروشیما در ژاپن در جنگ جهانی دوم را احساس کنند.
پین گفت این تحقیق کمک میکند بفهمیم این مدلها چگونه فکر میکنند، به ویژه اکنون که قرار است در اختیار استراتژیستهای انسانی برای کمک به تصمیمگیری قرار بگیرند.
او گفت: «درست است که فعلا کسی کدهای هستهای را به هوش مصنوعی نسپرده، اما این تواناییها، از فریب و مدیریت اعتبار گرفته تا خطرپذیری وابسته به زمینه، در هر استفادهای که پای منافع بالا در میان باشد اهمیت دارند.»