گروهی از جوانان آگاه به محیطزیست که به «وگنهای هوشمصنوعی» معروفاند، پیشگام مخالفت با چتجیپیتی و دیگر گونههای هوشمصنوعی مولداند.
یک مسابقه در بازی ویدیویی «وارفریم» کاسه صبر بلا را لبریز کرد.
به همه اعضای تیم بازی او فقط سه روز فرصت داده بودند تا اثر هنری خود را ارسال کنند. با اینکه از ضربالاجلِ تنگ نگران بود، پا پس نکشید؛ تا وقتی که مسابقه اثری تولیدشده با هوش مصنوعی را پذیرفت.
او که 21 سال دارد و اهل جمهوری چک است، به یورونیوز نکست گفت: «اگر هوش مصنوعی در مسابقه پذیرفته نمیشد، شاید سعی میکردم شرکت کنم، اما این بار برایم نوعی تحقیر بود: رقابت با کسی که حتی یک قطره تلاش برای این تصویر نکردهاست.»
«یکی از دلایلی که استفاده از هوش مصنوعی مولد را کنار گذاشتم این است که از نظر اخلاقی نادرست است. اگر من، بهعنوان یک هنرمند، به استفاده از آن ادامه میدادم، نوعی خیانت بود. من سالها صرفِ یادگیری و ارتقای مهارتهایم کردهام و بعد بیایم از چیزی استفاده کنم که نتایج کارِ دیگرانی مثل خودم را میدزدد.»
بلا یکی از شمارِ رو به رشد «وگانهای هوش مصنوعی» است؛ عنوانی تازه برای کسانی که تصمیم گرفتهاند از همه انواعِ هوش مصنوعی مولد دوری کنند؛ سامانههایی که با مجموعهدادههای عظیم آموزش میبینند تا متن، تصویر، موسیقی و چیزهای دیگر بسازند.
این جنبش از زمان راهاندازی چتجیپیتیِ اوپنایآی در سال 2022 پیوسته در حال رشد بوده و جامعهِ ضدِ هوش مصنوعی در ردیت اکنون بیش از 71 هزار عضو دارد.
مشابه وگان بودن، استدلالها عمدتا اخلاقی و زیستمحیطی است.
بر اساس یک مطالعه 2023 حتی یک گفتوگوی کوتاه با چتجیپیتی میتواند معادل یک بطری آب مصرف کند. خزشِ این فناوری بر آثار خلاقانه باعث شده هنرمندان، نویسندگان، فیلمسازان و موسیقیدانان مشهور در اعتراض متحد شوند.
مارک، 23 ساله و ساکن اسپانیا که از هوش مصنوعی پرهیز میکند، به یورونیوز نکست گفت: «[هوش مصنوعی مولد] بیوقفه و بدون رضایت از همه چیز میدزدد، حریم خصوصی را نقض میکند و از این راه پول به دست میآورد.»
«ابزاری در خدمت سرمایهداری است برای حفظِ استثمارِ کارگران یا حتی ارتقای آن به مرحلهای بالاتر.»
در کنار این نگرانیها، ترسی عمیقتر هم هست از اینکه هوش مصنوعی چگونه ممکن است به سلامتِ روان و رشدِ شناختیِ ما آسیب بزند و وابستگی به راهحلهای فوری ایجاد کند که اندیشه انتقادی را از ما میگیرد.
یک مطالعه اخیر و کوچک از سوی موسسه فناوری ماساچوست (MIT) نیز این موضوع را تایید میکند و گزارش میدهد شرکتکنندگانی که از چتجیپیتی برای نوشتن انشا استفاده کردند، نسبت به کسانی که از این ابزار استفاده نکردند، درگیریِ مغزیِ کمتری داشتند.
این مطالعه همچنین نشان داد کسانی که از چتجیپیتی استفاده کردند برای نقلقول از متنی که همین لحظه تولید کرده بودند هم مشکل داشتند و در «سطوح عصبی، زبانی و رفتاری» عملکرد ضعیفتری نشان دادند.
به گفته ناتالیا کاسمینا، همنویسنده این مطالعه و پژوهشگر گروه «رابطهای سیال» در مدیا لبِ MIT، این موضوع میتواند پیامدهای بزرگتری بر یادگیری، اعتمادبهنفس و نحوه استفاده انسانها از هوش مصنوعی در موقعیتهای مهم داشته باشد.
او گفت: «اگر فرد واقعا به یاد نیاورد چه نوشته، حسِ مالکیت هم نخواهد داشت، و در نهایت یعنی برایش مهم نیست. اگر این فقط یک آزمایشِ آزمایشگاهی نباشد چه؟ اگر در یک موقعیت واقعی باشد، مثلا مساله مرگ و زندگی؟ بعضی شغلها چنین چیزی را اقتضا میکنند.»
برای لوسی، 22 ساله و «وگان هوش مصنوعی» از اسپانیا، نگرانیها حول تمایل برخی چتباتها به چاپلوسی میچرخد؛ تمایلی که میتواند به تایید ایدههای هذیانی و حتی خطرناک منجر شود.
او گفت: «احساس میکنم عصر دیجیتال همین حالا هم کلی حماقت به بار آورده، فقط چون مردم اینترنت و موبایل را بد استفاده میکنند، بهجای اینکه از آنها برای یاد گرفتن چیزها بهره ببرند. اما اینکه مردم نادان باشند و چتباتها هم مدام به آنها بگویند حق با شماست و نابغهاید؟ این نگرانکننده است.»
دشواریهای پرهیز از هوش مصنوعی
هوش مصنوعی مولد با سرعتی بالا در حال پیشرفت است و به مشاغل، آموزش، اپلیکیشنهای شبکههای اجتماعی و حتی روابطِ ما نفوذ کردهاست. همین، پرهیز از آن را برای مردم هرچه دشوارتر کردهاست.
مارک که پیشتر در امنیتِ سایبریِ هوش مصنوعی کار میکرد، گفت: «باید ذهنیت محکمی داشته باشید، اما من توانستهام از آن دور بمانم.»
او افزود: «دور ماندن از آن در دانشگاه مخصوصا سخت است، وقتی بیشترِ دانشجویان و حتی استادان، برای همه چیز بهطور منظم از آن استفاده میکنند»، و اضافه کرد که این موضوع در خانوادهاش هم شکاف ایجاد کرده، چون آنها به «سادهسازیِ» هوش مصنوعی معتادند.
از لوسی هم در دوره کارآموزیاش در یک شرکتِ طراحی گرافیک «به شدت» میخواهند از هوش مصنوعی استفاده کند؛ با وجودِ نتایجِ اغلب پرسشبرانگیزش.
او گفت: «اخیرا یک مشتری از ما خواست دستیارِ هوش مصنوعیشان را انیمیشن کنیم (یک نقاشی خیلی زشت از یک زن با تمامِ زشتیِ براقِ هوش مصنوعی). داریم بهزحمت میافتیم، چون ویدئوهایِ هوش مصنوعی برایش دستهای خیلی بزرگ و چیزهای دیگر میسازد. خیلی حسِ دره وهمآور دارد.»
با این حال، حتی وقتی زندگیِ حرفهای ما استفاده از این فناوری را اقتضا میکند، کاسمینا معتقد است باید حقِ انتخابِ زمان و نحوه استفاده از آن را حفظ کنیم و این حقوق را با دقت بهکار بگیریم.
او گفت: «از سر کارم و برای اجرای مطالعات با آن تعامل میکنم؟ بله، قطعا. آیا وقتی یک قابلیت تازه یا ادعای جدیدی ظاهر میشود آن را بررسی میکنیم؟ بله. اما برای دیگر کاربردهای شخصی یا حرفهای؟ شخصا نیازی به آن نمیبینم.»
او گفت: «برخی از کاربردهای [هوش مصنوعی مولد] البته خیلی جالباند و از بقیه هم جالبتر. اما لازم نیست برای بازنویسیِ یک ایمیل هفت درخت بسوزانم و هفت گالن آب هدر بدهم.»
آیا هوش مصنوعی میتواند اخلاقی باشد؟
برای بیشترِ «وگانهای هوش مصنوعی»، باورِ اصلی این است که هوش مصنوعی ذاتا غیراخلاقی است.
در حالی که مارک معتقد است استفاده از آن باید «ممنوع و با قانون مجازات شود»، دیگران همچنان طرفدارِ مقرراتِ سختگیرانهتری هستند که اخلاق را بر سود مقدم بدارد.
لوسی گفت: «هوش مصنوعی کاملا میتواند اخلاقی باشد اگر موادِ آموزشیاش بهصورت اخلاقی تامین شود و برای آن از کارگرانِ بهرهکشیدهشدهِ کنیا استفاده نکنند.»
«هزینه انرژی به احتمال زیاد در هر حال سرسامآور خواهد بود، اما انکار نمیکنم خودم هم سرگرمیهایی دارم که بسیار پرمصرف یا آلایندهاند؛ مثل بازیهای کامپیوتری، خریدِ اقلام از خارج برای مجموعهداری و چیزهایی از این دست.»
در زمانی که در برخی کشورها محدودیتهای سنی در پلتفرمهای شبکههای اجتماعی اعمال میشود و استرالیا ممنوعیت برای زیرِ 16 سالها وضع کرده، کاسمینا معتقد است با هوش مصنوعی مولد هم باید مشابهِ آن رفتار شود.
او گفت: «فکر میکنم باید برای افرادِ زیرِ سن قانونی کاملا ممنوع باشد. و منظورم از زیرِ سن قانونی، همه کسانی است که تا 18 سالگی در مدرسه هستند»، و افزود: «و در محیطهای آموزشی، نباید استفاده از آن به شما تحمیل شود.»
همزمان که با جاافتادنِ هوش مصنوعی در زندگیمان دستوپنجه نرم میکنیم، دستکم یک یادآوریِ دلگرمکننده از سویِ کسانی که پرهیز را برگزیدهاند وجود دارد: شگفتیِ واقعیت بیهمتاست.
لوسی گفت: «هوش مصنوعی خیلی تکراری و سطحی است. وقتی نو بودنِ آن فروکش کند، متوجه میشوید سرگرمیِ انسانی در مقایسه با آن چقدر خوب است.»
افرادِ موسوم به «وگانِ هوش مصنوعی» که در این گزارش نقلقول شدهاند پذیرفتند دربارهِ تجربهِ پرهیز از هوش مصنوعی با یورونیوز نکست صحبت کنند، اما برای حفظِ حریم خصوصی نخواستند نامِ واقعیشان منتشر شود.