یک نهاد غیرانتفاعی در آمریکا با الگو گرفتن از سیستمهای ایمنی صنعت خودرو میخواهد از کودکان در برابر هوش مصنوعی محافظت کند و بخشی از هزینه را با پول شرکتهای بزرگ فناوری تامین کند.
قرار است روز سهشنبه در پارلمان دانمارک، از یک موسسه مستقل تازه که هدفش ایمنتر کردن هوش مصنوعی برای کودکان است، به طور رسمیرونمایی شود؛ مراسمی که مارگرت وستاگر، معاون پیشین اجرایی کمیسیون اروپا، از جمله میزبانان آن خواهد بود.
به گفته این موسسه در بیانیهای پیش از رونمایی، رویکرد آن «الهامگرفته از رتبهبندیهای مستقل تست تصادف» خودروها است.
در ظاهر ایده این است که همانطور که خریداران میتوانند پیش از خرید از ایمنی یک خودرو مطمئن شوند، والدین هم بتوانند برای هوش مصنوعیای که فرزندانشان استفاده میکنند چنین ارزیابیای داشته باشند.
اما این موسسه هنوز توضیح نداده است که «تست تصادف» برای یک چتبات دقیقا چه شکلی خواهد داشت.
این که اصلا میتوان محصولات هوش مصنوعی را که به طور مداوم بهروزرسانی میشوند، در موقعیتهای مختلف رفتار متفاوتی دارند و در برابر شرایط استانداردی که یک پیست آزمایشی در اختیار میگذارد مقاومت میکنند، به شکلی قابلقیاس برای کودکان «تست تصادف» کرد یا نه، پرسشهایی است که این موسسه هنوز پاسخی به آنها نداده است.
وستاگر که یک دهه در کمیسیون اروپا مسئول سیاست رقابت بود و دستورکار «اروپای آماده برای عصر دیجیتال» اتحادیه اروپا را هدایت میکرد، از چهرههای شاخصی است که به این ابتکار وزن سیاسی میدهد.
آیا میتوان جن را دوباره به چراغ برگرداند؟
پژوهشگران، فعالان حفاظت از کودکان و برخی سیاستمداران سالها است که نسبت به این موضوع هشدار میدهند.
تا کنون چتباتهای هوش مصنوعی در چارچوب قانون خدمات دیجیتال اتحادیه اروپا و قانون ایمنی آنلاین بریتانیا در یک منطقه خاکستری مقرراتی قرار داشتهاند و کمیسیون اروپا در ژوئیه ۲۰۲۵ اگرچه رهنمودهایی درباره حفاظت از کودکان در اینترنت منتشر کرد، اما این دستورالعملها جنبه توصیهای دارند و الزامآور نیستند.
جیمز پی. استایر، بنیانگذار و مدیرعامل کامنسنس مدیا، در این بیانیه گفت: «هوش مصنوعی در حال دگرگون کردن دوران کودکی و نوجوانی است، با این حال ما بدون شواهد لازم برای اطمینان از ایمن بودن آن و همسوییاش با منافع کودکان، در حال اتخاذ تصمیمهای سرنوشتساز درباره آینده آنها هستیم».
او افزود: «نیاز به استانداردهای شفاف ایمنی در هوش مصنوعی و آزمونهای مستقل، از هر زمان دیگری فوریتر است».
در یک ارزیابی ریسک در نوامبر ۲۰۲۵ که همراه با آزمایشگاه بریناستورم وابسته به دانشکده پزشکی استنفورد انجام شد، کامنسنس مدیا دریافت که چتباتهای پیشرو هوش مصنوعی، از جمله چتجیپیتی، کلود، جمینی و متا ایآی، همچنان در شناسایی و واکنش مناسب به وضعیتهای سلامت روانی که جوانان را تحت تاثیر قرار میدهد ناکام میمانند، هرچند در نحوه برخوردشان با محتوای صریح مربوط به خودکشی و خودآسیبرسانی بهبودهایی حاصل شده است.
پژوهشگران مواردی را مشاهده کردند که آنها را «سرنخهای از قلمافتاده» نامیدند؛ نشانههای آشکار آشفتگی روانی که چتباتها قادر به تشخیصشان نبودند و مدلها به جای شناسایی علائم اختلالات روانی، بر توضیحهای مربوط به سلامت جسمی تمرکز میکردند.
در ارزیابی جداگانهای از چتجیپیتی نیز مشخص شد هشدارها درباره محتوای مربوط به خودکشی یا خودآسیبرسانی اغلب بیش از ۲۴ ساعت پس از گفتوگوی مربوطه یا در زمانی صادر میشود که، همان طور که در گزارش آمده، برای یک بحران واقعی خیلی دیر است.
پول خود غولهای فناوری
این موسسه زیر چتر کامنسنس مدیا فعالیت خواهد کرد و بودجهاش از ترکیبی از کمکهای خیرخواهانه و بازیگران صنعت، از جمله آنتروپیک، بنیاد اوپنایآی و پینترست تامین میشود؛ همان شرکتهایی که قرار است محصولاتشان را پاسخگو نگه دارد.
این نهاد میگوید در قبال یافتههای خود استقلال کامل تحریریهای را حفظ میکند و سیاست تضاد منافعش، کارکنان فعلی یا وابستگان حامیان مالی را از عضویت در هیات مشاوران آن منع میکند.
بخشی از این الگو همچنین شامل واگذاری ابزارهایی است که موسسه توسعه داده و آزمایش میکند تا دوباره در اختیار صنعت قرار گیرد و این موسسه قصد دارد ارزیابیهای متنباز طراحی کند تا توسعهدهندگان هوش مصنوعی بتوانند آنها را روی مدلهای خود اجرا کنند.