در نزدیک به یک دهه ماموریت OpenAI چه چیزهایی تغییر کرده است؟ در این گزارش نگاهی داریم به سند «اصول» جدید این شرکت.
طبق بیانیه ماموریت جدید این شرکت، اپنایآی امروز بسیار کمتر از حدود یک دهه پیش نگران هوش عمومی مصنوعی (AGI) است و در عوض اولویت را به گسترش هرچه فراگیرتر فناوری خود میدهد.
اپنایآی روز یکشنبه نسخه بهروزشده سند «اصول ما» را منتشر کرد؛ سندی که ترسیم میکند این شرکت در آینده چگونه فناوری خود را اداره خواهد کرد.
میان این مجموعه جدید از اصول و آنچه این شرکت نزدیک به ده سال پیش، زمانی که یک سازمان غیرانتفاعی نوپا در حوزه پژوهش هوش مصنوعی بود، در اولویت قرار میداد تفاوتهای مهمی وجود دارد.
کمرنگشدن تمرکز بر هوش عمومی مصنوعی
در ۲۰۱۸ (منبع به زبان انگلیسی)، اپنایآی بهشدت بر ابرهوش عمومی مصنوعی (AGI) متمرکز بود؛ ایدهای که طبق آن فناوری این شرکت از هوش انسانی فراتر میرفت، اما اکنون این مفهوم فقط بخشی از برنامه وسیعتر این شرکت برای عرضه هوش مصنوعی است.
در هر دو نسخه سند اصول شرکت آمده که ماموریت اپنایآی این است که تضمین کند این فناوری «به نفع همه بشریت» باشد، اما نسخه ۲۰۱۸ صراحتا بر توسعه ایمن و سودمند آن تاکید میکند.
در این سند آمده است: «مسئولیت اصلی امانی ما در برابر بشریت است. پیشبینی میکنیم برای انجام ماموریت خود به بسیج منابع قابل توجهی نیاز داشته باشیم، اما همواره با دقت عمل خواهیم کرد تا تضاد منافع میان کارکنان و ذینفعانمان را که میتواند منافع گسترده را به خطر بیندازد، به حداقل برسانیم.»
در ۲۰۲۶ (منبع به زبان انگلیسی) اما آمده است که این شرکت باید به ساخت سامانههای ایمن ادامه دهد، اما جامعه نیز باید با «هر سطح جدید توانایی هوش مصنوعی روبهرو شود، آن را درک و در خود ادغام کند و بهطور جمعی بهترین مسیر پیش رو را بیابد».
سام آلتمن، مدیرعامل و یکی از بنیانگذاران اپنایآی، مسیر پیش رو در سال ۲۰۲۶ را دمکراتیککردن هوش مصنوعی در همه سطوح میداند؛ از طریق فراهمکردن دسترسی برای همه و مقاومت در برابر این ایده که این فناوری میتواند «قدرت را در دست عدهای معدود متمرکز کند».
در سند اصول ۲۰۲۶ همچنین آمده است که انتظار میرود اپنایآی با دولتها، نهادهای بینالمللی و دیگر ابتکارهای مرتبط با AGI همکاری کند تا «پیش از ادامهدادن کار خود، مشکلات جدیِ همسوسازی، ایمنی یا تبعات اجتماعی را تا حد کافی حل کند».
بهعنوان نمونه، این همکاری میتواند شامل استفاده از چتجیپیتی برای مقابله با مدلهایی باشد که قادر به ایجاد عوامل بیماریزای جدید هستند یا ادغام مدلهای مقاوم در برابر حملات سایبری در زیرساختهای حیاتی.
آلتمن اوایل ماه جاری در وبلاگ شخصی خود سرنخهایی درباره کمرنگشدن تمرکز اپنایآی بر AGI ارائه کرد.
آلتمن نوشت AGI «حلقه قدرتی» دارد که «آدمها را وادار به کارهای دیوانهوار میکند». او برای مقابله با این وضعیت تنها راهحل را این میداند که «جهتگیری را به سمت بهاشتراکگذاری گسترده فناوری با مردم تغییر دهیم و هیچکس مالک حلقه نباشد».
اپنایآی دیگر به نفع یک محصول ایمن کنار نمیکشد
اپنایآی در سال ۲۰۱۸ اعلام کرده بود نگران است که توسعه AGI به «رقابتی شتابان بدون فرصت کافی برای اقدامات ایمنی لازم» تبدیل شود.
این شرکت متعهد شده بود در صورت لزوم توسعه مدلهای خود را متوقف کند تا به هر پروژه «همسو از نظر ارزشی و حساس به ایمنی» که به تحقق AGI نزدیکتر میشود کمک کند.
در سند ۲۰۱۸ آمده بود: «جزئیات را مشخص خواهیم کرد... اما یک شرط معمول برای فعالشدن این تعهد میتواند این باشد که احتمال موفقیت در دو سال آینده بیشتر از پنجاه درصد باشد.»
در سند ۲۰۲۶ دیگر صحبتی از کناررفتن به سود هدفی والاتر نشده است. در عوض، در این سند اذعان میشود که اپنایآی «امروز نیرویی بهمراتب بزرگتر در جهان است نسبت به چند سال پیش» و تعهد میدهد شفاف باشد که اصول حاکم بر فعالیتهایش چه زمانی و چگونه ممکن است تغییر کند.
این شرکت در رقابتی جدی با چند رقیب از جمله آنتروپیک قرار داشته است.
در فوریه، آنتروپیک خودداری کرد از دادن دسترسی نامحدود دولت دونالد ترامپ، رئیسجمهور امریکا، به هوش مصنوعی خود برای اهداف نظامی؛ اقدامی که باعث شد این شرکت بهعنوان یک ریسک زنجیره تامین شناخته شود و در ماه مارس به ماموران فدرال دستور داده شود استفاده از دستیار هوش مصنوعی آنتروپیک، «کلود»، را متوقف کنند.
در ۲۸ فوریه، اپنایآی برای پرکردن این خلا وارد عمل شد و با وزارت جنگ امریکا قراردادی امضا کرد؛ اقدامی که باعث شد بخشی از کاربران استفاده از چتجیپیتی را تحریم و به نفع کلود از آن رویگردان شوند.
آنتروپیک نیز این ماه ۸۰۰ میلیارد دلار (۶۹۶ میلیارد یورو) ارزشگذاری شد؛ رقمی که آن را همتراز اپنایآی قرار میدهد.
فراخوانهای مبهم در سطح جامعه
اپنایآی در سند ۲۰۲۶ خود خواستار چند تغییر در سطح جامعه شده تا جهان بتواند بهتر با هوش مصنوعی سازگار شود.
در این سند آمده است: «ما جهانی را تصور میکنیم با رونق فراگیر در سطحی که امروز تصور آن دشوار است. بسیاری از چیزهایی که تاکنون فقط در داستانهای علمیتخیلی به خود اجازه خیالپردازی دربارهشان را دادهایم میتواند به واقعیت بدل شود و بیشتر مردم میتوانند زندگی معنادارتری نسبت به امروز داشته باشند.»
در این سند هشدار داده میشود که این آینده تضمینشده نیست، زیرا هوش مصنوعی میتواند یا «در اختیار تعداد اندکی شرکت که ابرهوش را به کار میگیرند و کنترل میکنند» باشد یا «بهصورت غیرمتمرکز در اختیار مردم قرار گیرد».
این سند همچنین برخی از پیشنهادهای سیاستی اخیر اپنایآی را تکرار میکند؛ از جمله درخواست از دولتها برای بررسی «الگوهای اقتصادی جدید» و توسعه فناوریهایی که هزینه زیرساختهای هوش مصنوعی را کاهش دهد.
در این سند آمده است: «بسیاری از کارهایی که انجام میدهیم و از بیرون عجیب به نظر میرسد، مثل خرید حجم عظیمی از توان پردازشی در حالی که درآمد ما نسبتا اندک است، از باور بنیادی ما به آیندهای با رفاه همگانی سرچشمه میگیرد.»