داریو آمودی، مدیرعامل آنتروپیک، میگوید بشر باید استفاده از هوش مصنوعی را تنظیمگری کند؛ وگرنه ممکن است به پیدایش دولتهای خودکامه بینجامد که با این فناوری جمعیتها را سرکوب کنند.
مدیرعامل Anthropic در یک مقاله مفصل هشدار میدهد که جهان وارد مرحلهای از توسعه هوش مصنوعی (AI) شده که «اینکه بهعنوان یک گونه چه هستیم» را به آزمون میگذارد.
داریو آمودی معتقد است بشریت وارد عصر «نوجوانی فناوری» شده؛ عصری که در آن سرعت پیشرفت هوش مصنوعی از نظامهای حقوقی، چارچوبهای تنظیمگری و جامعه بیشتر است و آنها توان همگامشدن با آن را ندارند.
به گفته او، ظرف تنها دو سال هوش مصنوعی میتواند در اغلب حوزههای مرتبط مانند زیستشناسی، برنامهنویسی، ریاضی، مهندسی و نویسندگی «باهوشتر از برنده نوبل» شود.
آمودی این سامانهها را وقتی با هم کار میکنند به «کشوری از نابغهها در یک مرکز داده» تشبیه میکند؛ قادر به انجام کارهای پیچیده دستکم ۱۰ برابر سریعتر از انسان، در حوزههایی مثل طراحی نرمافزار، عملیات سایبری و حتی ایجاد رابطه.
آمودی نوشت: «این ترکیبِ هوش فرابشری، خودمختاری و دشواری مهار این فناوری، هم محتمل است و هم نسخهای برای خطری وجودی.»
آمودی گفت: «بشریت باید بیدار شود و این مقاله تلاشی است (شاید بینتیجه، اما ارزش امتحانکردن دارد) برای بیدارکردن مردم.»
این مقاله پس از آن منتشر شد که شرکت او هفته گذشته برای چتبات کلود خود «قانون اساسیِ» ۸۰ صفحهای منتشر کرد؛ سندی که مشخص میکند شرکت چگونه به هوش مصنوعی خود کمک میکند بهشیوهای ایمن و اخلاقی رفتار کند.
آمودی تنها کسی نیست که درباره خطرات بالقوه هوش مصنوعی هشدار میدهد. یک گزارش ۲۰۲۵که ۳۰ کشور از آن حمایت کردهاند میگوید سامانههای پیشرفته هوش مصنوعی میتوانند خطرات تازه و شدیدی ایجاد کنند؛ از جمله از دسترفتن گسترده مشاغل، توانمندسازی تروریسم یا خارجشدن کنترلِ این فناوری از دست.
دیگر رهبران فناوری از جمله سم آلتمن از OpenAI و استیو وزنیاک، همبنیانگذار اپل، نیز درباره خطرات هوش مصنوعی هشدار دادهاند.
هوش مصنوعی یک «چالش تمدنی» است
هرچند آمودی از حتمیبودن فاجعه سخن نمیگوید، اما هشدار میدهد که هوش مصنوعی یک «چالش جدیِ تمدنی» است.
آمودی نوشت: «هوش مصنوعی آنقدر قدرتمند و آنقدر جایزهای درخشان است که برای تمدن انسانی بسیار دشوار است هرگونه محدودیتی بر آن اعمال کند.»
آمودی افزود سامانههای قدرتمند هوش مصنوعی میتوانند برای مشاوره به دولتها، سازمانها یا افراد درباره ژئوپلیتیک، دیپلماسی یا برنامهریزی نظامی بهکار گرفته شوند.
آمودی نوشت: «بزرگترین خطر این است که خودکامگان از آن توصیههای تولیدشده توسط هوش مصنوعی برای «دزدیدن دائمی» آزادیِ شهروندانِ زیرِ سیطره خود استفاده کنند و «یک دولت تمامیتخواه تحمیل کنند که راه گریزی از آن نیست».»
او افزود استفاده گسترده از هوش مصنوعی برای نظارت باید جنایت علیه بشریت تلقی شود.
آمودی گفت خطر آن وجود دارد که جهان به حوزههای خودکامه تقسیم شود و هرکدام از هوش مصنوعی برای پایش و سرکوب جمعیت خود استفاده کنند.
در این مقاله آمده است: «یک هوش مصنوعی قدرتمند که به میلیاردها گفتوگو از میلیونها نفر نگاه میکند میتواند احساسات عمومی را بسنجد، کانونهای در حال شکلگیریِ نافرمانی را تشخیص دهد و پیش از آنکه رشد کنند آنها را سرکوب کند.»
آمودی دولت چین را اصلیترین نگرانی میداند؛ با توجه به ترکیب توانمندیِ آن در هوش مصنوعی، حکمرانی خودکامه و زیرساختهای نظارتیِ پیشرفتهای که از پیش دارد.
آمودی همچنین گفت دموکراسیهایی که در هوش مصنوعی رقابتی هستند، کشورهای غیردموکراتیک دارای مراکز داده بزرگ و خودِ شرکتهای فعال در حوزه هوش مصنوعی نیز بازیگران بالقوهای هستند که ممکن است این فناوری را سواستفاده کنند.
تراشهها «بزرگترین گلوگاه»
او نوشت که کنترل فروش تراشههای پیشرفته رایانهای که برای آموزش مدلهای هوش مصنوعی بهکار میروند موثرترین راهِ مقابله است.
آمودی افزود دموکراسیها نباید این فناوریها را به دولتهای اقتدارگرا، بهویژه چین، بفروشند؛ کشوری که بهطور گسترده رقیب اصلی ایالات متحده در رقابتِ هوش مصنوعی دانسته میشود.
آمودی گفت: «تراشهها و ابزارهای تراشهسازی بزرگترین گلوگاهِ هوش مصنوعی قدرتمند هستند و مسدودکردن آنها اقدامی ساده اما بهغایت موثر است؛ شاید مهمترین اقدامِ یگانهای که میتوانیم انجام دهیم.»
فراتر از کنترلهای صادراتی، آمودی خواستار هماهنگیِ سراسری در صنعت و نظارت اجتماعی شد. او از قوانین شفافیت حمایت کرد که شرکتهای هوش مصنوعی را ملزم میکند توضیح دهند چگونه رفتارِ مدلهای خود را هدایت میکنند.
او بهعنوان نمونه به قانون SB-53 کالیفرنیا اشاره میکند که با عنوان قانون شفافیت در هوش مصنوعی پیشرو (TFAIA) شناخته میشود.
بهگفته گاوین نیوسام، فرماندار ایالت کالیفرنیا، این قانون شرکتهای هوش مصنوعی را ملزم میکند در وبسایتهای خود چارچوبهایی منتشر کنند که توضیح میدهد شرکت چگونه بهترین رویهها و استانداردهای ملی و بینالمللی را در مدلهای هوش مصنوعی خود اعمال میکند.
اما آمودی درباره آینده هوش مصنوعی نیز خوشبین بود.
آمودی گفت: «باور دارم اگر قاطعانه و با دقت عمل کنیم، میتوان از این خطرات عبور کرد؛ حتی میگویم احتمال موفقیتمان خوب است. آنسوی کار جهانی بهمراتب بهتر قرار دارد. اما باید درک کنیم که این یک چالش جدیِ تمدنی است.»