Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

زندگی پس از چت‌بات‌ها: «وگان‌های هوش مصنوعی» که واقعیت مجازی را نمی‌پذیرند

جوان‌ترها به‌دلیل رویه‌های «غیر‌اخلاقی» آن روز‌به‌روز نسبت به استفاده از هوش‌مصنوعی مولد بدبین‌تر می‌شوند.
جوانان به دلیل رویه‌های «غیراخلاقی» هوش مصنوعی مولد بیش از پیش نسبت به استفاده از آن بدبین می‌شوند. Copyright  Canva
Copyright Canva
نگارش از Amber Louise Bryce
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

گروهی از جوانان آگاه به محیط‌زیست که به «وگن‌های هوش‌مصنوعی» معروف‌اند، پیشگام مخالفت با چت‌جی‌پی‌تی و دیگر گونه‌های هوش‌مصنوعی مولد‌اند.

یک مسابقه در بازی ویدیویی «وارفریم» کاسه صبر بلا را لبریز کرد.

به همه اعضای تیم بازی او فقط سه روز فرصت داده بودند تا اثر هنری خود را ارسال کنند. با اینکه از ضرب‌الاجلِ تنگ نگران بود، پا پس نکشید؛ تا وقتی که مسابقه اثری تولیدشده با هوش مصنوعی را پذیرفت.

او که 21 سال دارد و اهل جمهوری چک است، به یورونیوز نکست گفت: «اگر هوش مصنوعی در مسابقه پذیرفته نمی‌شد، شاید سعی می‌کردم شرکت کنم، اما این بار برایم نوعی تحقیر بود: رقابت با کسی که حتی یک قطره تلاش برای این تصویر نکرده‌است.»

«یکی از دلایلی که استفاده از هوش مصنوعی مولد را کنار گذاشتم این است که از نظر اخلاقی نادرست است. اگر من، به‌عنوان یک هنرمند، به استفاده از آن ادامه می‌دادم، نوعی خیانت بود. من سال‌ها صرفِ یادگیری و ارتقای مهارت‌هایم کرده‌ام و بعد بیایم از چیزی استفاده کنم که نتایج کارِ دیگرانی مثل خودم را می‌دزدد.»

بلا یکی از شمارِ رو به رشد «وگان‌های هوش مصنوعی» است؛ عنوانی تازه برای کسانی که تصمیم گرفته‌اند از همه انواعِ هوش مصنوعی مولد دوری کنند؛ سامانه‌هایی که با مجموعه‌داده‌های عظیم آموزش می‌بینند تا متن، تصویر، موسیقی و چیزهای دیگر بسازند.

[هوش مصنوعی مولد] بی‌وقفه و بدون رضایت از همه چیز می‌دزدد.
Marc

این جنبش از زمان راه‌اندازی چت‌جی‌پی‌تیِ اوپن‌ای‌آی در سال 2022 پیوسته در حال رشد بوده و جامعهِ ضدِ هوش مصنوعی در ردیت اکنون بیش از 71 هزار عضو دارد.

مشابه وگان بودن، استدلال‌ها عمدتا اخلاقی و زیست‌محیطی است.

بر اساس یک مطالعه 2023 حتی یک گفت‌وگوی کوتاه با چت‌جی‌پی‌تی می‌تواند معادل یک بطری آب مصرف کند. خزشِ این فناوری بر آثار خلاقانه باعث شده هنرمندان، نویسندگان، فیلمسازان و موسیقی‌دانان مشهور در اعتراض متحد شوند.

مارک، 23 ساله و ساکن اسپانیا که از هوش مصنوعی پرهیز می‌کند، به یورونیوز نکست گفت: «[هوش مصنوعی مولد] بی‌وقفه و بدون رضایت از همه چیز می‌دزدد، حریم خصوصی را نقض می‌کند و از این راه پول به دست می‌آورد.»

«ابزاری در خدمت سرمایه‌داری است برای حفظِ استثمارِ کارگران یا حتی ارتقای آن به مرحله‌ای بالاتر.»

در کنار این نگرانی‌ها، ترسی عمیق‌تر هم هست از اینکه هوش مصنوعی چگونه ممکن است به سلامتِ روان و رشدِ شناختیِ ما آسیب بزند و وابستگی به راه‌حل‌های فوری ایجاد کند که اندیشه انتقادی را از ما می‌گیرد.

یک مطالعه اخیر و کوچک از سوی موسسه فناوری ماساچوست (MIT) نیز این موضوع را تایید می‌کند و گزارش می‌دهد شرکت‌کنندگانی که از چت‌جی‌پی‌تی برای نوشتن انشا استفاده کردند، نسبت به کسانی که از این ابزار استفاده نکردند، درگیریِ مغزیِ کمتری داشتند.

احساس می‌کنم عصر دیجیتال همین حالا هم کلی حماقت به بار آورده، فقط چون مردم اینترنت و موبایل را بد استفاده می‌کنند، به‌جای اینکه از آنها برای یاد گرفتن چیزها بهره ببرند.
Lucy

این مطالعه همچنین نشان داد کسانی که از چت‌جی‌پی‌تی استفاده کردند برای نقل‌قول از متنی که همین لحظه تولید کرده بودند هم مشکل داشتند و در «سطوح عصبی، زبانی و رفتاری» عملکرد ضعیف‌تری نشان دادند.

به گفته ناتالیا کاسمینا، هم‌نویسنده این مطالعه و پژوهشگر گروه «رابط‌های سیال» در مدیا لبِ MIT، این موضوع می‌تواند پیامدهای بزرگ‌تری بر یادگیری، اعتمادبه‌نفس و نحوه استفاده انسان‌ها از هوش مصنوعی در موقعیت‌های مهم داشته باشد.

او گفت: «اگر فرد واقعا به یاد نیاورد چه نوشته، حسِ مالکیت هم نخواهد داشت، و در نهایت یعنی برایش مهم نیست. اگر این فقط یک آزمایشِ آزمایشگاهی نباشد چه؟ اگر در یک موقعیت واقعی باشد، مثلا مساله مرگ و زندگی؟ بعضی شغل‌ها چنین چیزی را اقتضا می‌کنند.»

برای لوسی، 22 ساله و «وگان هوش مصنوعی» از اسپانیا، نگرانی‌ها حول تمایل برخی چت‌بات‌ها به چاپلوسی می‌چرخد؛ تمایلی که می‌تواند به تایید ایده‌های هذیانی و حتی خطرناک منجر شود.

او گفت: «احساس می‌کنم عصر دیجیتال همین حالا هم کلی حماقت به بار آورده، فقط چون مردم اینترنت و موبایل را بد استفاده می‌کنند، به‌جای اینکه از آنها برای یاد گرفتن چیزها بهره ببرند. اما اینکه مردم نادان باشند و چت‌بات‌ها هم مدام به آنها بگویند حق با شماست و نابغه‌اید؟ این نگران‌کننده است.»

دشواری‌های پرهیز از هوش مصنوعی

هوش مصنوعی مولد با سرعتی بالا در حال پیشرفت است و به مشاغل، آموزش، اپلیکیشن‌های شبکه‌های اجتماعی و حتی روابطِ ما نفوذ کرده‌است. همین، پرهیز از آن را برای مردم هرچه دشوارتر کرده‌است.

مارک که پیش‌تر در امنیتِ سایبریِ هوش مصنوعی کار می‌کرد، گفت: «باید ذهنیت محکمی داشته باشید، اما من توانسته‌ام از آن دور بمانم.»

او افزود: «دور ماندن از آن در دانشگاه مخصوصا سخت است، وقتی بیشترِ دانشجویان و حتی استادان، برای همه چیز به‌طور منظم از آن استفاده می‌کنند»، و اضافه کرد که این موضوع در خانواده‌اش هم شکاف ایجاد کرده، چون آنها به «ساده‌سازیِ» هوش مصنوعی معتادند.

از لوسی هم در دوره کارآموزی‌اش در یک شرکتِ طراحی گرافیک «به شدت» می‌خواهند از هوش مصنوعی استفاده کند؛ با وجودِ نتایجِ اغلب پرسش‌برانگیزش.

او گفت: «اخیرا یک مشتری از ما خواست دستیارِ هوش مصنوعی‌شان را انیمیشن کنیم (یک نقاشی خیلی زشت از یک زن با تمامِ زشتیِ براقِ هوش مصنوعی). داریم به‌زحمت می‌افتیم، چون ویدئوهایِ هوش مصنوعی برایش دست‌های خیلی بزرگ و چیزهای دیگر می‌سازد. خیلی حسِ دره وهم‌آور دارد.»

با این حال، حتی وقتی زندگیِ حرفه‌ای ما استفاده از این فناوری را اقتضا می‌کند، کاسمینا معتقد است باید حقِ انتخابِ زمان و نحوه استفاده از آن را حفظ کنیم و این حقوق را با دقت به‌کار بگیریم.

او گفت: «از سر کارم و برای اجرای مطالعات با آن تعامل می‌کنم؟ بله، قطعا. آیا وقتی یک قابلیت تازه یا ادعای جدیدی ظاهر می‌شود آن را بررسی می‌کنیم؟ بله. اما برای دیگر کاربردهای شخصی یا حرفه‌ای؟ شخصا نیازی به آن نمی‌بینم.»

او گفت: «برخی از کاربردهای [هوش مصنوعی مولد] البته خیلی جالب‌اند و از بقیه هم جالب‌تر. اما لازم نیست برای بازنویسیِ یک ایمیل هفت درخت بسوزانم و هفت گالن آب هدر بدهم.»

آیا هوش مصنوعی می‌تواند اخلاقی باشد؟

برای بیشترِ «وگان‌های هوش مصنوعی»، باورِ اصلی این است که هوش مصنوعی ذاتا غیراخلاقی است.

در حالی که مارک معتقد است استفاده از آن باید «ممنوع و با قانون مجازات شود»، دیگران همچنان طرفدارِ مقرراتِ سختگیرانه‌تری هستند که اخلاق را بر سود مقدم بدارد.

لوسی گفت: «هوش مصنوعی کاملا می‌تواند اخلاقی باشد اگر موادِ آموزشی‌اش به‌صورت اخلاقی تامین شود و برای آن از کارگرانِ بهره‌کشیده‌شدهِ کنیا استفاده نکنند.»

«هزینه انرژی به احتمال زیاد در هر حال سرسام‌آور خواهد بود، اما انکار نمی‌کنم خودم هم سرگرمی‌هایی دارم که بسیار پرمصرف یا آلاینده‌اند؛ مثل بازی‌های کامپیوتری، خریدِ اقلام از خارج برای مجموعه‌داری و چیزهایی از این دست.»

در زمانی که در برخی کشورها محدودیت‌های سنی در پلتفرم‌های شبکه‌های اجتماعی اعمال می‌شود و استرالیا ممنوعیت برای زیرِ 16 سال‌ها وضع کرده، کاسمینا معتقد است با هوش مصنوعی مولد هم باید مشابهِ آن رفتار شود.

او گفت: «فکر می‌کنم باید برای افرادِ زیرِ سن قانونی کاملا ممنوع باشد. و منظورم از زیرِ سن قانونی، همه کسانی است که تا 18 سالگی در مدرسه هستند»، و افزود: «و در محیط‌های آموزشی، نباید استفاده از آن به شما تحمیل شود.»

همزمان که با جاافتادنِ هوش مصنوعی در زندگی‌مان دست‌وپنجه نرم می‌کنیم، دست‌کم یک یادآوریِ دلگرم‌کننده از سویِ کسانی که پرهیز را برگزیده‌اند وجود دارد: شگفتیِ واقعیت بی‌همتاست.

لوسی گفت: «هوش مصنوعی خیلی تکراری و سطحی است. وقتی نو بودنِ آن فروکش کند، متوجه می‌شوید سرگرمیِ انسانی در مقایسه با آن چقدر خوب است.»

افرادِ موسوم به «وگانِ هوش مصنوعی» که در این گزارش نقل‌قول شده‌اند پذیرفتند دربارهِ تجربهِ پرهیز از هوش مصنوعی با یورونیوز نکست صحبت کنند، اما برای حفظِ حریم خصوصی نخواستند نامِ واقعی‌شان منتشر شود.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

گزارش‌ها: ترامپ پیش‌نویس طرحی برای جلوگیری از مقررات ایالتی مرتبط با هوش مصنوعی آماده کرده است

هشدار مدیرعامل شرکت H: حفظ استعدادها بزرگ‌ترین چالش اروپا در رقابت هوش مصنوعی

یان لکون، پدرخوانده فرانسوی هوش مصنوعی، تایید کرد برای راه‌اندازی استارت‌آپ از متا می‌رود