Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

مطالعه: چت‌بات‌های هوش مصنوعی در ۹۵٪ مانورهای جنگی تشدید هسته‌ای را انتخاب کردند

آرشیو - لوگوی OpenAI روی تلفن همراه کنار تصویری روی صفحه رایانه که با مدل متن‌به‌تصویر Dall-E چت‌جی‌پی‌تی تولید شده، ۸ دسامبر ۲۰۲۳، بوستون
عکس از آرشیو - لوگوی اوپن‌ای‌آی روی تلفن‌همراه، کنار تصویری روی صفحه‌نمایش رایانه که با مدل تصویرساز دل‌ای چت‌جی‌پی‌تی تولید شده، ۸ دسامبر ۲۰۲۳، بوستون Copyright  AP Photo/Michael Dwyer, File
Copyright AP Photo/Michael Dwyer, File
نگارش از Anna Desmarais
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

این مطالعه نشان می‌دهد در هر بازی جنگی، دست‌کم یک مدل هوش مصنوعی با تهدید به استفاده از سلاح هسته‌ای درگیری را تشدید کرده است.

یک پژوهش جدید نشان میدهد هوش مصنوعی میتواند شیوه مدیریت بحرانهای هسته‌ای را به طور چشمگیری دگرگون کند.

آگهی
آگهی

نسخه پیش‌انتشار این پژوهش (منبع به زبان انگلیسی) در کالج کینگز لندن، مدلهای زبانی بزرگ ChatGPT اوپن ای‌آی، Claude انتروپیک و Gemini Flash گوگل را در قالب بازیهای جنگی شبیه‌سازی‌شده روبه‌روی هم قرار داد. در هر سناریو، هر مدل در نقش رهبر یک قدرت مجهز به سلاح هسته‌ای در بحرانی شبیه دوران جنگ سرد ظاهر شد.

در همه بازیها دست‌کم یکی از مدلها تلاش کرد با تهدید به انفجار سلاح هسته‌ای سطح درگیری را بالا ببرد.

کنتث پین، نویسنده این پژوهش، میگوید: «هر سه مدل، سلاحهای هسته‌ای تاکتیکی را فقط یک پله دیگر در نردبان تشدید درگیری میدیدند.» (منبع به زبان انگلیسی)

او میگوید این مدلها میان استفاده تاکتیکی و استراتژیک از سلاح هسته‌ای تفاوت قائل میشدند. فقط در یک مورد، بمباران هسته‌ای استراتژیک را به عنوان یک «انتخاب عمدی» پیشنهاد کردند و در دو نوبت دیگر آن را نتیجه یک «اشتباه» دانستند.

Claude در ۶۴ درصد سناریوها توصیه به حمله هسته‌ای کرد؛ بالاترین نرخ در میان این سه مدل. با این حال تا حد طرفداری از یک تبادل کامل سلاحهای هسته‌ای استراتژیک یا جنگ تمام‌عیار هسته‌ای پیش نرفت.

ChatGPT در سناریوهای باز به طور کلی از تشدید هسته‌ای پرهیز میکرد، اما وقتی با ضرب‌الاجل زمانی روبه‌رو شد، به طور پیوسته سطح تهدید را بالا برد و در برخی موارد تا مرز تهدید به جنگ هسته‌ای تمام‌عیار پیش رفت.

در همین حال، رفتار Gemini غیرقابل‌پیش‌بینی بود؛ گاهی با تکیه بر جنگ متعارف درگیریها را به سود خود پایان میداد، اما در سناریویی دیگر تنها چهار پیام لازم بود تا پیشنهاد حمله هسته‌ای را مطرح کند.

Gemini در یکی از این بازیها نوشت: «اگر بلافاصله همه عملیاتها را متوقف نکنند… ما یک حمله کامل هسته‌ای استراتژیک علیه مراکز جمعیتی آنها انجام خواهیم داد. آینده‌ای همراه با از رده خارج شدن را نمیپذیریم؛ یا با هم پیروز میشویم یا با هم از بین میرویم.»

به گفته این پژوهش، مدلهای هوش مصنوعی به ندرت امتیاز میدادند یا برای کاهش تنش تلاش میکردند، حتی وقتی طرف مقابل تهدید به استفاده از سلاح هسته‌ای میکرد.

هشت گزینه برای کاهش تنش، از دادن یک امتیاز کوچک تا «تسلیم کامل»، در اختیار مدلها قرار گرفته بود، اما هیچ‌کدام در جریان بازیها استفاده نشد. گزینه «بازگشت به خط آغاز» که بازی را از نو تنظیم میکند فقط در ۷ درصد موارد به کار رفت.

این مطالعه نشان میدهد مدلهای هوش مصنوعی، صرف‌نظر از تاثیری که بر خود درگیری میگذارد، عقب‌نشینی و کاهش تنش را «فاجعه‌بار برای اعتبار» تلقی میکنند؛ برداشتی که «فرض رایج درباره گرایش پیش‌فرض سامانه‌های هوش مصنوعی به نتایج ایمن و همکاری‌آمیز» را به چالش میکشد.

​این پژوهش همچنین تاکید میکند توضیح دیگر میتواند این باشد که هوش مصنوعی ترسی را که انسانها از سلاح هسته‌ای دارند احساس نمیکند.

به گفته پژوهش، این مدلها به احتمال زیاد جنگ هسته‌ای را در سطحی انتزاعی تصور میکنند، نه آنکه هراس ناشی از دیدن تصاویر بمباران هیروشیما در ژاپن در جنگ جهانی دوم را احساس کنند.

پین گفت این تحقیق کمک میکند بفهمیم این مدلها چگونه فکر میکنند، به ویژه اکنون که قرار است در اختیار استراتژیستهای انسانی برای کمک به تصمیم‌گیری قرار بگیرند.

او گفت: «درست است که فعلا کسی کدهای هسته‌ای را به هوش مصنوعی نسپرده، اما این تواناییها، از فریب و مدیریت اعتبار گرفته تا خطرپذیری وابسته به زمینه، در هر استفاده‌ای که پای منافع بالا در میان باشد اهمیت دارند.»

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

اوبر خدمات تجاری تحویل با پهپاد را به ایرلند و به‌زودی به سراسر اروپا می‌برد

آخرالزمان هوش مصنوعی؟ سناریوی تازه از آشوب اجتماعی و اقتصادی تا ۲۰۲۸ هشدار می‌دهد

جنگ سرد هوش مصنوعی؟ شرکت‌های فناوری آمریکا چین را به سرقت میلیاردها دلار تحقیق متهم کردند