Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

مارگرت وستاگر پس از ده سال نظارت بر غول‌های فناوری از موسسه ایمنی هوش مصنوعی کودکان حمایت می‌کند

عکس آرشیوی - معاون اجرایی کمیسیون اروپا، مارگرت وستاگر، در حال سخن گفتن با خبرنگاران
آرشیو - مارگریته وستاگر، معاون اجرایی رئیس کمیسیون اروپا، خطاب به رسانه‌ها صحبت می‌کند Copyright  File- AP Photo/Michael Sohn, pool
Copyright File- AP Photo/Michael Sohn, pool
نگارش از Una Hajdari
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

یک نهاد غیرانتفاعی در آمریکا با الگو گرفتن از سیستم‌های ایمنی صنعت خودرو می‌خواهد از کودکان در برابر هوش مصنوعی محافظت کند و بخشی از هزینه را با پول شرکت‌های بزرگ فناوری تامین کند.

قرار است روز سه‌شنبه در پارلمان دانمارک، از یک موسسه مستقل تازه که هدفش ایمن‌تر کردن هوش مصنوعی برای کودکان است، به طور رسمیرونمایی شود؛ مراسمی که مارگرت وستاگر، معاون پیشین اجرایی کمیسیون اروپا، از جمله میزبانان آن خواهد بود.

آگهی
آگهی

به گفته این موسسه در بیانیه‌ای پیش از رونمایی، رویکرد آن «الهام‌گرفته از رتبه‌بندی‌های مستقل تست تصادف» خودروها است.

در ظاهر ایده این است که همان‌طور که خریداران می‌توانند پیش از خرید از ایمنی یک خودرو مطمئن شوند، والدین هم بتوانند برای هوش مصنوعی‌ای که فرزندانشان استفاده می‌کنند چنین ارزیابی‌ای داشته باشند.

اما این موسسه هنوز توضیح نداده است که «تست تصادف» برای یک چت‌بات دقیقا چه شکلی خواهد داشت.

این که اصلا می‌توان محصولات هوش مصنوعی را که به طور مداوم به‌روزرسانی می‌شوند، در موقعیت‌های مختلف رفتار متفاوتی دارند و در برابر شرایط استانداردی که یک پیست آزمایشی در اختیار می‌گذارد مقاومت می‌کنند، به شکلی قابل‌قیاس برای کودکان «تست تصادف» کرد یا نه، پرسش‌هایی است که این موسسه هنوز پاسخی به آنها نداده است.

وستاگر که یک دهه در کمیسیون اروپا مسئول سیاست رقابت بود و دستورکار «اروپای آماده برای عصر دیجیتال» اتحادیه اروپا را هدایت می‌کرد، از چهره‌های شاخصی است که به این ابتکار وزن سیاسی می‌دهد.

آیا می‌توان جن را دوباره به چراغ برگرداند؟

پژوهشگران، فعالان حفاظت از کودکان و برخی سیاستمداران سال‌ها است که نسبت به این موضوع هشدار می‌دهند.

تا کنون چت‌بات‌های هوش مصنوعی در چارچوب قانون خدمات دیجیتال اتحادیه اروپا و قانون ایمنی آنلاین بریتانیا در یک منطقه خاکستری مقرراتی قرار داشته‌اند و کمیسیون اروپا در ژوئیه ۲۰۲۵ اگرچه رهنمودهایی درباره حفاظت از کودکان در اینترنت منتشر کرد، اما این دستورالعمل‌ها جنبه توصیه‌ای دارند و الزام‌آور نیستند.

جیمز پی. استایر، بنیانگذار و مدیرعامل کامن‌سنس مدیا، در این بیانیه گفت: «هوش مصنوعی در حال دگرگون کردن دوران کودکی و نوجوانی است، با این حال ما بدون شواهد لازم برای اطمینان از ایمن بودن آن و همسویی‌اش با منافع کودکان، در حال اتخاذ تصمیم‌های سرنوشت‌ساز درباره آینده آنها هستیم».

او افزود: «نیاز به استانداردهای شفاف ایمنی در هوش مصنوعی و آزمون‌های مستقل، از هر زمان دیگری فوری‌تر است».

در یک ارزیابی ریسک در نوامبر ۲۰۲۵ که همراه با آزمایشگاه برین‌استورم وابسته به دانشکده پزشکی استنفورد انجام شد، کامن‌سنس مدیا دریافت که چت‌بات‌های پیشرو هوش مصنوعی، از جمله چت‌جی‌پی‌تی، کلود، جمینی و متا ای‌آی، همچنان در شناسایی و واکنش مناسب به وضعیت‌های سلامت روانی که جوانان را تحت تاثیر قرار می‌دهد ناکام می‌مانند، هرچند در نحوه برخوردشان با محتوای صریح مربوط به خودکشی و خودآسیب‌رسانی بهبودهایی حاصل شده است.

پژوهشگران مواردی را مشاهده کردند که آنها را «سرنخ‌های از قلم‌افتاده» نامیدند؛ نشانه‌های آشکار آشفتگی روانی که چت‌بات‌ها قادر به تشخیصشان نبودند و مدل‌ها به جای شناسایی علائم اختلالات روانی، بر توضیح‌های مربوط به سلامت جسمی تمرکز می‌کردند.

در ارزیابی جداگانه‌ای از چت‌جی‌پی‌تی نیز مشخص شد هشدارها درباره محتوای مربوط به خودکشی یا خودآسیب‌رسانی اغلب بیش از ۲۴ ساعت پس از گفت‌وگوی مربوطه یا در زمانی صادر می‌شود که، همان طور که در گزارش آمده، برای یک بحران واقعی خیلی دیر است.

پول خود غول‌های فناوری

این موسسه زیر چتر کامن‌سنس مدیا فعالیت خواهد کرد و بودجه‌اش از ترکیبی از کمک‌های خیرخواهانه و بازیگران صنعت، از جمله آنتروپیک، بنیاد اوپن‌ای‌آی و پینترست تامین می‌شود؛ همان شرکت‌هایی که قرار است محصولاتشان را پاسخگو نگه دارد.

این نهاد می‌گوید در قبال یافته‌های خود استقلال کامل تحریریه‌ای را حفظ می‌کند و سیاست تضاد منافعش، کارکنان فعلی یا وابستگان حامیان مالی را از عضویت در هیات مشاوران آن منع می‌کند.

بخشی از این الگو همچنین شامل واگذاری ابزارهایی است که موسسه توسعه داده و آزمایش می‌کند تا دوباره در اختیار صنعت قرار گیرد و این موسسه قصد دارد ارزیابی‌های متن‌باز طراحی کند تا توسعه‌دهندگان هوش مصنوعی بتوانند آنها را روی مدل‌های خود اجرا کنند.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

انتروپیک: داستان‌های «هوش مصنوعی شرور» پشت تلاش‌های باج‌گیری کلود بود

ماسک که روزی انتروپیک را «شرور» خوانده بود، حالا موتور گسترش هوش‌مصنوعی رقیب «ووک» خود است

فعالان جوان اروپا علیه ممنوعیت سراسری شبکه‌های اجتماعی