Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

اوپن‌ای‌آی اصول خود را تغییر داد؛ تغییرات چیست

آرشیو - لوگوی اوپن ای آی روی صفحه تلفن همراه در برابر تصویری که مدل متنی‌به‌تصویری Dall-E چت‌جی‌پی‌تی تولید کرده، ۸ دسامبر ۲۰۲۳ در بوستون
بایگانی - لوگوی اوپن‌ای‌آی روی تلفن همراهی در برابر تصویری که مدل متن‌به‌تصویر دل‌ای چت‌جی‌پی‌تی تولید کرده دیده می‌شود، ۸ دسامبر ۲۰۲۳ در بوستون Copyright  AP Photo/Michael Dwyer, File
Copyright AP Photo/Michael Dwyer, File
نگارش از Anna Desmarais
تاریخ انتشار به روز شده در
همرسانی نظرها
همرسانی Close Button

در نزدیک به یک دهه ماموریت OpenAI چه چیزهایی تغییر کرده است؟ در این گزارش نگاهی داریم به سند «اصول» جدید این شرکت.

طبق بیانیه ماموریت جدید این شرکت، اپن‌ای‌آی امروز بسیار کمتر از حدود یک دهه پیش نگران هوش عمومی مصنوعی (AGI) است و در عوض اولویت را به گسترش هرچه فراگیرتر فناوری خود می‌دهد.

آگهی
آگهی

اپن‌ای‌آی روز یکشنبه نسخه به‌روزشده سند «اصول ما» را منتشر کرد؛ سندی که ترسیم می‌کند این شرکت در آینده چگونه فناوری خود را اداره خواهد کرد.

میان این مجموعه جدید از اصول و آنچه این شرکت نزدیک به ده سال پیش، زمانی که یک سازمان غیرانتفاعی نوپا در حوزه پژوهش هوش مصنوعی بود، در اولویت قرار می‌داد تفاوت‌های مهمی وجود دارد.

کمرنگ‌شدن تمرکز بر هوش عمومی مصنوعی

در ۲۰۱۸ (منبع به زبان انگلیسی)، اپن‌ای‌آی به‌شدت بر ابرهوش عمومی مصنوعی (AGI) متمرکز بود؛ ایده‌ای که طبق آن فناوری این شرکت از هوش انسانی فراتر می‌رفت، اما اکنون این مفهوم فقط بخشی از برنامه وسیع‌تر این شرکت برای عرضه هوش مصنوعی است.

در هر دو نسخه سند اصول شرکت آمده که ماموریت اپن‌ای‌آی این است که تضمین کند این فناوری «به نفع همه بشریت» باشد، اما نسخه ۲۰۱۸ صراحتا بر توسعه ایمن و سودمند آن تاکید می‌کند.

در این سند آمده است: «مسئولیت اصلی امانی ما در برابر بشریت است. پیش‌بینی می‌کنیم برای انجام ماموریت خود به بسیج منابع قابل توجهی نیاز داشته باشیم، اما همواره با دقت عمل خواهیم کرد تا تضاد منافع میان کارکنان و ذی‌نفعانمان را که می‌تواند منافع گسترده را به خطر بیندازد، به حداقل برسانیم.»

در ۲۰۲۶ (منبع به زبان انگلیسی) اما آمده است که این شرکت باید به ساخت سامانه‌های ایمن ادامه دهد، اما جامعه نیز باید با «هر سطح جدید توانایی هوش مصنوعی روبه‌رو شود، آن را درک و در خود ادغام کند و به‌طور جمعی بهترین مسیر پیش رو را بیابد».

سام آلتمن، مدیرعامل و یکی از بنیان‌گذاران اپن‌ای‌آی، مسیر پیش رو در سال ۲۰۲۶ را دمکراتیک‌کردن ه‍وش مصنوعی در همه سطوح می‌داند؛ از طریق فراهم‌کردن دسترسی برای همه و مقاومت در برابر این ایده که این فناوری می‌تواند «قدرت را در دست عده‌ای معدود متمرکز کند».

در سند اصول ۲۰۲۶ همچنین آمده است که انتظار می‌رود اپن‌ای‌آی با دولت‌ها، نهادهای بین‌المللی و دیگر ابتکارهای مرتبط با AGI همکاری کند تا «پیش از ادامه‌دادن کار خود، مشکلات جدیِ همسوسازی، ایمنی یا تبعات اجتماعی را تا حد کافی حل کند».

به‌عنوان نمونه، این همکاری می‌تواند شامل استفاده از چت‌جی‌پی‌تی برای مقابله با مدل‌هایی باشد که قادر به ایجاد عوامل بیماری‌زای جدید هستند یا ادغام مدل‌های مقاوم در برابر حملات سایبری در زیرساخت‌های حیاتی.

آلتمن اوایل ماه جاری در وبلاگ شخصی خود سرنخ‌هایی درباره کمرنگ‌شدن تمرکز اپن‌ای‌آی بر AGI ارائه کرد.

آلتمن نوشت AGI «حلقه قدرتی» دارد که «آدم‌ها را وادار به کارهای دیوانه‌وار می‌کند». او برای مقابله با این وضعیت تنها راه‌حل را این می‌داند که «جهت‌گیری را به سمت به‌اشتراک‌گذاری گسترده فناوری با مردم تغییر دهیم و هیچ‌کس مالک حلقه نباشد».

اپن‌ای‌آی دیگر به نفع یک محصول ایمن کنار نمی‌کشد

اپن‌ای‌آی در سال ۲۰۱۸ اعلام کرده بود نگران است که توسعه AGI به «رقابتی شتابان بدون فرصت کافی برای اقدامات ایمنی لازم» تبدیل شود.

این شرکت متعهد شده بود در صورت لزوم توسعه مدل‌های خود را متوقف کند تا به هر پروژه «هم‌سو از نظر ارزشی و حساس به ایمنی» که به تحقق AGI نزدیک‌تر می‌شود کمک کند.

در سند ۲۰۱۸ آمده بود: «جزئیات را مشخص خواهیم کرد... اما یک شرط معمول برای فعال‌شدن این تعهد می‌تواند این باشد که احتمال موفقیت در دو سال آینده بیشتر از پنجاه درصد باشد.»

در سند ۲۰۲۶ دیگر صحبتی از کناررفتن به سود هدفی والاتر نشده است. در عوض، در این سند اذعان می‌شود که اپن‌ای‌آی «امروز نیرویی به‌مراتب بزرگ‌تر در جهان است نسبت به چند سال پیش» و تعهد می‌دهد شفاف باشد که اصول حاکم بر فعالیت‌هایش چه زمانی و چگونه ممکن است تغییر کند.

این شرکت در رقابتی جدی با چند رقیب از جمله آنتروپیک قرار داشته است.

در فوریه، آنتروپیک خودداری کرد از دادن دسترسی نامحدود دولت دونالد ترامپ، رئیس‌جمهور امریکا، به هوش مصنوعی خود برای اهداف نظامی؛ اقدامی که باعث شد این شرکت به‌عنوان یک ریسک زنجیره تامین شناخته شود و در ماه مارس به ماموران فدرال دستور داده شود استفاده از دستیار هوش مصنوعی آنتروپیک، «کلود»، را متوقف کنند.

در ۲۸ فوریه، اپن‌ای‌آی برای پرکردن این خلا وارد عمل شد و با وزارت جنگ امریکا قراردادی امضا کرد؛ اقدامی که باعث شد بخشی از کاربران استفاده از چت‌جی‌پی‌تی را تحریم و به نفع کلود از آن رویگردان شوند.

آنتروپیک نیز این ماه ۸۰۰ میلیارد دلار (۶۹۶ میلیارد یورو) ارزش‌گذاری شد؛ رقمی که آن را هم‌تراز اپن‌ای‌آی قرار می‌دهد.

فراخوان‌های مبهم در سطح جامعه

اپن‌ای‌آی در سند ۲۰۲۶ خود خواستار چند تغییر در سطح جامعه شده تا جهان بتواند بهتر با هوش مصنوعی سازگار شود.

در این سند آمده است: «ما جهانی را تصور می‌کنیم با رونق فراگیر در سطحی که امروز تصور آن دشوار است. بسیاری از چیزهایی که تاکنون فقط در داستان‌های علمی‌تخیلی به خود اجازه خیال‌پردازی درباره‌شان را داده‌ایم می‌تواند به واقعیت بدل شود و بیشتر مردم می‌توانند زندگی معنادارتری نسبت به امروز داشته باشند.»

در این سند هشدار داده می‌شود که این آینده تضمین‌شده نیست، زیرا هوش مصنوعی می‌تواند یا «در اختیار تعداد اندکی شرکت که ابرهوش را به کار می‌گیرند و کنترل می‌کنند» باشد یا «به‌صورت غیرمتمرکز در اختیار مردم قرار گیرد».

این سند همچنین برخی از پیشنهادهای سیاستی اخیر اپن‌ای‌آی را تکرار می‌کند؛ از جمله درخواست از دولت‌ها برای بررسی «الگوهای اقتصادی جدید» و توسعه فناوری‌هایی که هزینه زیرساخت‌های هوش مصنوعی را کاهش دهد.

در این سند آمده است: «بسیاری از کارهایی که انجام می‌دهیم و از بیرون عجیب به نظر می‌رسد، مثل خرید حجم عظیمی از توان پردازشی در حالی که درآمد ما نسبتا اندک است، از باور بنیادی ما به آینده‌ای با رفاه همگانی سرچشمه می‌گیرد.»

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

اتو چاینا ۲۰۲۶: خودروسازان چینی بازار خودروی اروپا را دگرگون می‌کنند

هواپیمای ۹ نفره با برخاست در ۵۰ متر؛ امید نروژ برای اتصال مناطق دورافتاده

آیا اروپا می‌تواند در عصر هوش مصنوعی غولهای صنعتی خود را حفظ کند؟