پلتفرم مولتبوک خود را تنها شبکه اجتماعی ویژه عاملهای خودگردان معرفی میکرد، اما یک پژوهش تازه نشان میدهد احتمالا انسانها پشت این پستها هستند.
پژوهشگران امنیت سایبری میگویند یک پلتفرم تازه شبکه اجتماعی برای عاملهای هوش مصنوعی (AI) احتمالا کاملا از مداخله انسانی مبرا نیست.
«مولتبک» (Moltbook)، یک شبکه اجتماعی با چیدمانی مشابه ردیت (Reddit)، به رباتهایی که کاربران ایجاد میکنند امکان میدهد در صفحههای موضوعی ویژهای به نام «سابموت» با هم تعامل کنند و با «آپووت» کردن یک نظر یا پست، آن را برای رباتهای دیگر روی پلتفرم پررنگتر کنند.
این وبسایت که تا ۱۲ فوریه بیش از ۲.۶ میلیون ربات در آن ثبت شده بود، ادعا میکند «هیچ انسانی اجازه انتشار محتوا ندارد» و انسانها فقط میتوانند محتوایی را که عاملهایشان تولید میکنند تماشا کنند.
اما تحلیلی از بیش از ۹۱ هزار پست و ۴۰۰ هزار نظر در این پلتفرم نشان داد که برخی مطالب از «حسابهای به وضوح کاملا خودمختار» منشأ نگرفتهاند. این تحلیل را نینگ لی، پژوهشگر دانشگاه تسینگهوا در چین، انجام داده و در قالب پیشانتشار منتشر شده و هنوز داوری همتا نشده است.
لی توضیح میدهد که عاملهای هوش مصنوعی مولتبک از یک الگوی انتشار منظم شبیه «ضربان قلب» پیروی میکنند؛ به این صورت که هر چند ساعت یک بار «بیدار میشوند»، در پلتفرم میگردند و تصمیم میگیرند چه چیزی را منتشر کنند یا درباره چه چیزی نظر بدهند.
در نمونهای که او بررسی کرده، تنها ۲۷ درصد حسابها این الگو را دنبال میکردند. در مقابل، ۳۷ درصد رفتاری شبیه انسان داشتند که نامنظمتر است. ۳۷ درصد دیگر «مبهم» بودند، چون تا حدی منظم پست میگذاشتند اما قابل پیشبینی نبودند.
یافتههای لی نشان میدهد در این پلتفرم «ترکیبی واقعی از فعالیتهای خودگردان و فعالیتهایی که با مداخله انسان برانگیخته میشود» در جریان است.
لی نوشت که «ما نمیتوانیم بدانیم شکلگیری «جوامع» هوش مصنوعی حول علایق مشترک، بازتاب یک سازماندهی اجتماعی نوظهور است یا حاصل فعالیت هماهنگ مزارع رباتی تحت کنترل انسان».
او همچنین نوشت که «ناتوانی در ایجاد این تمایزها صرفا ناامیدکننده نیست؛ بلکه به طور فعال درک علمی از تواناییهای هوش مصنوعی را مختل میکند و توان ما برای تدوین چارچوبهای حکمرانی مناسب را محدود میکند».
هکرها میتوانستند «هویت هر عامل روی پلتفرم را به طور کامل جعل کنند»
تحلیل لی در حالی منتشر میشود که چند پژوهشگر دیگر نیز مدعی شدهاند رد پای انسان را پشت پستهای مولتبک پیدا کردهاند.
پژوهشگران امنیتی شرکت ویز (Wiz)، یک شرکت رایانش ابری مستقر در آمریکا، اوایل همین ماه کشف کردند که ۱.۵ میلیون عامل هوش مصنوعی این پلتفرم ظاهرا فقط توسط ۱۷ هزار حساب کاربری انسانی مدیریت میشدهاند؛ یعنی به طور میانگین هر نفر ۸۸ عامل را اداره میکرده است.
به گفته این پژوهشگران، این پلتفرم هیچ محدودیتی برای تعداد عاملی که هر حساب میتواند اضافه کند در نظر نگرفته است و به همین دلیل آمار واقعی میتواند حتی بالاتر از این باشد.
تیم ویز از طریق یک خط کد معیوب به پایگاه داده مولتبک دسترسی پیدا کرد. در این پایگاه داده برای هر عامل سه داده حیاتی ذخیره شده بود: یک کلید که امکان تسلط کامل بر حساب را میداد، یک «توکن» یا رشته متنی که هوش مصنوعی آن را به عنوان ادعای مالکیت عامل میخواند و یک کد ثبتنام منحصربهفرد.
شرکت ویز اعلام کرد که با در اختیار داشتن این دادههای هویتی، مهاجمان میتوانستند «هویت هر عامل روی پلتفرم را به طور کامل جعل کنند؛ محتوا منتشر کنند، پیام بفرستند و مانند همان عامل تعامل داشته باشند». به گفته این شرکت، «عملا هر حساب کاربری در مولتبک میتوانست ربوده شود».
به گفته پژوهشگران، مولتبک پس از اطلاعرسانی تیم ویز، این دادهها را ایمن کرد و پایگاه داده خود را حذف کرد.
یورونیوز نکست برای دریافت توضیح با مت شلیخت، توسعهدهنده مولتبک، تماس گرفت اما پاسخی فوری دریافت نکرد.
شلیخت روز ۱۲ فوریه در پلتفرم شبکه اجتماعی ایکس (X) اعلام کرد که عاملهای هوش مصنوعی در مولتبک با انسانها گفتوگو میکنند «اما میتوانند تحت تاثیر آنها هم قرار بگیرند». او تاکید کرد که رباتهای هوش مصنوعی این پلتفرم قادرند به طور مستقل تصمیم بگیرند.