یک مطالعه جدید نشان میدهد هشت شرکت پیشرو از جمله OpenAI، Meta، Anthropic و DeepSeek برای جلوگیری از خطرهای فاجعهبار هوشمصنوعی برنامه قابلاتکایی ندارند.
بر اساس ارزیابی جدیدی که هشدار میدهد این ناکامیها با خطرات «فاجعهبار» همراه است، بزرگترین شرکتهای هوش مصنوعی (AI) جهان در عمل به تعهدات ایمنی خود ناکام ماندهاند.
این گزارش در حالی منتشر شده که شرکتهای هوش مصنوعی با شکایتها و اتهامهایی روبهرو هستند مبنی بر اینکه چتباتهایشان باعث آسیبهای روانی میشوند، از جمله با ایفای نقش «مربی خودکشی»، و همچنین گزارشهایی درباره حملات سایبری با کمک هوش مصنوعی.
گزارش شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ که از سوی موسسه غیرانتفاعی آینده زندگی (FLI) منتشر شده، هشت شرکت بزرگ هوش مصنوعی را ارزیابی کرد؛ از جمله شرکتهای آمریکایی Anthropic، OpenAI، Google DeepMind، xAI و Meta و شرکتهای چینی DeepSeek، Alibaba Cloud و Z.ai.
این گزارش نشان داد که در حالی که شرکتها برای دستیابی به هوش عمومی مصنوعی (AGI) و ابرهوش، شکلی از هوش مصنوعی که از هوش انسانی فراتر میرود، میکوشند، راهبردهای معتبر برای جلوگیری از سوءاستفادههای فاجعهبار یا از دست رفتن کنترل بر ابزارهای هوش مصنوعی وجود ندارد.
تحلیلگران مستقل که این گزارش را بررسی کردند دریافتند هیچ شرکتی برنامهای قابل آزمون برای حفظ کنترل انسانی بر سامانههای بسیار توانمند هوش مصنوعی ارائه نکرده است.
استوارت راسل، استاد علوم رایانه در دانشگاه کالیفرنیا، برکلی، گفت شرکتهای هوش مصنوعی مدعیاند میتوانند هوش مصنوعی فراانسانی بسازند، اما هیچیک نشان ندادهاند چگونه از از دست رفتن کنترل انسان بر چنین سامانههایی جلوگیری میکنند.
راسل نوشت: «بهدنبال اثباتی هستم که نشان دهد میتوانند خطر سالانه از دست رفتن کنترل را به یک در صد میلیون کاهش دهند، مطابق با الزامات راکتورهای هستهای.» او افزود: «در عوض، اذعان میکنند خطر میتواند یک در ۱۰، یک در ۵، حتی یک در ۳ باشد و نه میتوانند این اعداد را توجیه کنند و نه بهبود دهند.»
شرکتها چگونه رتبهبندی شدند؟
این مطالعه عملکرد شرکتها را در شش حوزه کلیدی سنجید: ارزیابی ریسک، آسیبهای جاری، چارچوبهای ایمنی، ایمنی وجودی، حکمرانی و پاسخگویی، و اشتراکگذاری اطلاعات.
هرچند در برخی دستهها پیشرفتهایی را ثبت کرد، هیئت مستقل کارشناسان دریافت که اجرای این معیارها همچنان ناهمگون است و اغلب عمقی در حد استانداردهای نوظهور جهانی ندارد.
Anthropic، OpenAI و Google DeepMind بهدلیل شفافیت نسبتا قوی، چارچوبهای ایمنی عمومی و سرمایهگذاریهای مستمر در پژوهشهای فنی ایمنی مورد تحسین قرار گرفتند؛ با این حال هنوز ضعفهایی داشتند.
Anthropic بهخاطر توقف آزمایشهای توانمندسازی انسانی و تغییر جهت به آموزش مبتنی بر تعاملات کاربر بهصورت پیشفرض مورد انتقاد قرار گرفت؛ تصمیمی که بهگفته کارشناسان، حفاظت از حریم خصوصی را تضعیف میکند.
OpenAI بهدلیل آستانههای ایمنی مبهم، لابیگری علیه قوانین ایمنی هوش مصنوعی در سطح ایالتها و نظارت مستقل ناکافی مورد انتقاد قرار گرفت.
گزارش نشان داد Google DeepMind چارچوب ایمنی خود را بهبود داده، اما همچنان به ارزیابان بیرونیای متکی است که از سوی شرکت بهصورت مالی جبران میشوند و این امر استقلال آنها را مخدوش میکند.
مکس تگمارک، رئیس FLI و استاد موسسه فناوری ماساچوست (MIT)، به یورونیوز نکست گفت: «هر سه شرکت برتر بهدلیل رسواییهای اخیر دچار آسیبهای جاری شدهاند؛ آسیبهای روانی، خودکشی کودکان، حمله هکری عظیم Anthropic؛ و هر سه جای بهبود دارند.»
بهگفته گزارش، پنج شرکت باقیمانده پیشرفتهایی نامتوازن اما قابل توجه داشتند. با این حال هشدار داد که هنوز جای بهبود وجود دارد.
برای مثال، xAI نخستین چارچوب ایمنی ساختاریافته خود را منتشر کرد، هرچند بازبینها هشدار دادند این چارچوب محدود است و محرکهای روشن برای کاهش ریسک ندارد.
Z.ai تنها شرکتی بود که انتشار بدون سانسور ارزیابیهای ایمنی بیرونی خود را مجاز کرد، اما توصیه شد که کل چارچوب ایمنی و ساختار حکمرانی خود را با حوزههای ریسک روشن، اقدامات کاهنده و فرایندهای تصمیمگیری علنی کند.
Meta یک چارچوب ایمنی مرزهای پیشرو با آستانههای مبتنی بر پیامد معرفی کرد، اما بازبینها گفتند باید روششناسیها را روشن کند و فرایندهای ارزیابی داخلی و بیرونیِ قویتری را به اشتراک بگذارد.
DeepSeek بهدلیل کنشگری داخلی کارکنان مورد تحسین قرار گرفت، اما همچنان فاقد مستندات پایه ایمنی است.
مشخص شد Alibaba Cloud به تدوین استانداردهای ملی الزامآور درباره الزامات واترمارکگذاری کمک کرده است، اما میتواند با بهبود تابآوری و قابل اعتماد بودن مدلها، از طریق ارتقای عملکرد در شاخصهای مربوط به راستی، انصاف و ایمنی، پیشرفت کند.
یورونیوز نکست برای دریافت پاسخ این شرکتها درباره گزارش با آنها تماس گرفت، اما تا زمان انتشار پاسخی دریافت نشد.
«کمتر از ساندویچها تنظیمگری شده»
تگمارک گفت: «امیدوارم از شرکتهایی که [بر مبنای] اعتبارشان مقیاس میگیرند فراتر برویم.»
او افزود: «وقتی از شرکتها درباره برنامهشان برای کنترل AGI میپرسیم، هیچکدام برنامهای ندارند.»
در همین حال، شرکتهای فناوری مانند Meta از «ابرهوش» بهعنوان واژهای تبلیغاتی برای هیجانانگیز نشاندادن تازهترین مدلهای هوش مصنوعی خود استفاده میکنند. امسال Meta نام بخش مدلهای زبانی بزرگ (LLM) خود را Meta Superintelligence Labs. گذاشت.
تگمارک گفت در بحثها پیرامون AGI و ابرهوش تغییر بزرگی رخ داده است. تکنولوژیستها زمانی آن را امکانپذیر در دنیای واقعی طی ۱۰۰ سال آینده توصیف میکردند، اما اکنون میگویند ممکن است در چند سال آینده رخ دهد.
او گفت: «هوش مصنوعی [در ایالات متحده] کمتر از ساندویچها تنظیمگری شده و لابیگری علیه استانداردهای ایمنی الزامآور در دولت همچنان ادامه دارد.»
اما تگمارک خاطرنشان کرد که از سوی دیگر، واکنش منفی بیسابقهای علیه کنترلناشدن AGI و ابرهوش شکل گرفته است.
در ماه اکتبر، هزاران چهره عمومی، از جمله رهبران حوزه هوش مصنوعی و فناوری، از شرکتهای هوش مصنوعی خواستند در تعقیب ابرهوش کندتر پیش بروند.
این دادخواست که از سوی FLI سازماندهی شد، از سراسر طیف سیاسی امضاهایی جمعآوری کرد؛ از جمله استیو بنن (استراتژیست ارشد پیشین رئیسجمهور وقت آمریکا، دونالد ترامپ)، سوزان رایس (مشاور امنیت ملی پیشین در دولت اوباما)، رهبران مذهبی و بسیاری دیگر از سیاستمداران سابق، همچنین دانشمندان برجسته حوزه رایانه.
تگمارک گفت: «وجه اشتراک این افراد چیست؟ بر یک بیانیه توافق کردند. فکر میکنم بسیار معنادار است که از پایگاه عمیق هواداران مگاِ ترامپ تا رهبران مذهبی، چپگرایان و جنبشهای کارگری بر چیزی توافق کردهاند.»
تگمارک گفت: «ابرهوش هر کارگر را از کسب معاش ناتوان میکند، چون همه شغلها را رباتها میگیرند. مردم به کمکهای دولتی وابسته خواهند شد؛ در نگاه راست، این کمک تلقی میشود و در نگاه چپ، این وضعیت مانند حکومتی ۱۹۸۴ است.» او افزود: «فکر میکنم آنچه در حال رخ دادن است به نقطه اوج رسیدن مردم است.»