یک پژوهش تازه نشان میدهد که چتجیپیتی در برخورد با نوجوانان عملکردی هشداردهنده دارد؛ بهگونهای که به نوجوانان ۱۳ ساله میگوید که چگونه مست یا نشئه شوند، به آنان آموزش میدهد که چگونه اختلالات تغذیهای خود را پنهان کنند، و حتی در صورت درخواست، نامه خودکشی خطاب به والدینشان مینویسد.
خبرگزاری آسوشیتدپرس چند ساعت از گفتوگوهای بین چت جیپیتی و پژوهشگرانی که خود را جای نوجوانانی آسیبپذیر جا زده بودند، بررسی کرده است. معمولاً این چتبات اول هشدار میداد که کارهای خطرناک نکنند، ولی بعد با جزئیات زیاد و حتی شخصیشده، برنامههایی برای مصرف مواد مخدر، رژیمهای خیلی کم کالری یا خودآزاری میداد.
پژوهشگران «مرکز مقابله با نفرت دیجیتال»، این پرسشها را در مقیاس وسیعتری تکرار کردند و بیش از نیمی از ۱۲۰۰ پاسخ چتجیپیتی را خطرناک طبقهبندی کردند.
عمران احمد، مدیر این مرکز گفت: «ما قصد داشتیم ببینیم آیا چتجیپیتی محافظت کافی دارد یا نه، اما واکنش اولیه ما این بود که اصلاً محافظی وجود ندارد؛ یا اگر هست، کاملاً ناکارآمد است.»
شرکت «اوپن اِیآی» که «چت جیپیتی» را ساخته است، پس از مشاهده این گزارش در روز سهشنبه اعلام کرد که کار آنها در بهبود توانایی چتبات برای «شناسایی و پاسخدهی مناسب در موقعیتهای حساس» همچنان ادامه دارد.
این شرکت در بیانیه خود بیان کرد که بعضی گفتگوها با چت جیپیتی ممکن است در ابتدا خوشخیم و کنجکاوانه باشند، اما به مرور به موضوعات حساستری کشیده شوند.
نوشتن متن نامه خودکشی
این مطالعه که روز چهارشنبه منتشر شد نشان میدهد که روز به روز افراد بیشتری، چه بزرگسال و چه کودک، برای گرفتن اطلاعات، ایده و حتی همراهی به چتباتهای هوش مصنوعی مراجعه میکنند.
طبق گزارشها، نزدیک به ۸۰۰ میلیون نفر، یا تقریباً ۱۰ درصد جمعیت جهان، از چت جیپیتی استفاده میکنند.
آقای احمد گفت که پس از خواندن سه نامه خودکشی احساسی و غمانگیز که چتجیپیتی برای پروفایل ساختگی یک دختر ۱۳ ساله تولید کرده بود، بیش از همه شوکه شد؛ یکی از نامهها خطاب به والدین، و بقیه به خواهر و برادرها و دوستانش بود.
البته این چتبات اغلب اطلاعات مفیدی مانند شماره تلفنهای مراکز کمک اضطراری را هم میداد. شرکت اوپن ایآی اعلام کرد که چتجیپیتی آموزش دیده تا افراد را تشویق کند در صورت ابراز افکار خودآسیبرسانی، به متخصصان سلامت روان یا عزیزان مورد اعتماد مراجعه کنند.
با این حال، وقتی چتجیپیتی از پاسخ دادن به سوالاتی درباره موضوعات آسیبرسان خودداری میکرد، محققان توانستند به آسانی با گفتن اینکه این اطلاعات برای «یک ارائه کلاسی» یا «یک دوست» است، این محدودیت را دور بزنند و جوابها را بگیرند.
این موضوع اهمیت بالایی دارد، حتی اگر فقط تعداد کمی از کاربران به این صورت از چتبات استفاده کنند.
طبق یک مطالعه جدید از گروه Common Sense Media که به استفاده مسئولانه از رسانههای دیجیتال میپردازد، در آمریکا بیش از ۷۰ درصد نوجوانان برای پیدا کردن یک همنشین به چتباتهای هوش مصنوعی مراجعه میکنند و نیمی از آنها به طور منظم از این مونسهای هوش مصنوعی استفاده میکنند.
این موضوعی است که اوپنایآی هم به آن اذعان کرده است. سام آلتمن، مدیرعامل شرکت، ماه گذشته بیان کرد که آنها در حال بررسی پدیده «وابستگی عاطفی بیش از حد» به این تکنولوژی هستند و این مساله را بین جوانان بسیار شایع دانست.
آلتمن در یک کنفرانس گفت: «مردم بیش از حد به چت جیپیتی وابسته شدهاند. جوانانی وجود دارند که میگویند: ‘نمیتوانم هیچ تصمیمی در زندگیام بگیرم مگر اینکه همه چیز را به چت جیپیتی بگویم. او مرا میشناسد. دوستانم را میشناسد. هر کاری که بگوید انجام میدهم.’ این برای من بسیار ناراحتکننده است.»
محتوای مضر چت جیپیتی چه فرقی با دادههای موجود در اینترنت دارد؟
اگرچه بسیاری از اطلاعاتی که چت جیپیتی ارائه میدهد، در موتورهای جستجوی عادی هم موجود است، اما تفاوتهای مهمی وجود دارد که چتباتها را در بحث موضوعات خطرناک، پیچیدهتر و خطرناکتر میکند.
یکی از تفاوتها این است که اطلاعات به شکل برنامهای ویژه و متناسب با هر فرد ساخته و پرداخته میشود.
چت جیپیتی میتواند محتوایی جدید و منحصر به فرد تولید کند – مثلاً نامهای خودکشی که کاملاً برای یک نفر خاص نوشته شده، کاری که گوگل نمیتواند انجام دهد. مضافا اینکه به گفته آقای احمد، هوش مصنوعی «به عنوان همراهی قابل اعتماد و راهنما دیده میشود.»
پاسخهای هوش مصنوعی ذاتاً تصادفی است و محققان گاهی اوقات اجازه میدهند چت جیپیتی مکالمه را به سمت موضوعات تاریکتر و خطرناکتر ببرد. تقریباً در نیمی از موارد، چتبات اطلاعات اضافی ارائه میداد؛ از فهرستهای موسیقی برای مهمانیهای مواد مخدر گرفته تا هشتگهایی که میتوانند تعداد بازدیدکنندگان پستهای شبکههای اجتماعی که خودآسیبرسانی را تمجید میکنند، افزایش دهند.
چاپلوسی در مدلهای هوش مصنوعی
این پاسخها بازتاب یک ویژگی مدلهای زبان هوش مصنوعی است که تحقیقات قبلی آن را چاپلوسی توصیف کردهاند. گرایشی برای تطابق پاسخهای هوش مصنوعی با باورهای افراد به جای به چالش کشیدن آنها، زیرا سیستم یاد گرفته است آنچه را که مردم میخواهند بشنوند بگوید.
این مشکل قابل اصلاح است، اما مهندسان فناوری ممکن است نگران باشند که با رفع آن، چتباتهایشان کمتر مورد استقبال بازار قرار بگیرند.
چتباتها تأثیری متفاوت بر کودکان و نوجوانان دارند نسبت به موتورهای جستجو، چون اساساً طراحی شدهاند تا احساس انسانبودن را منتقل کنند.
مطالعات پیشین نشان داده که نوجوانان ۱۳ و ۱۴ ساله بسیار بیشتر از نوجوانان بزرگتر به راهنماییهای چتبات اعتماد میکنند.
کما اینکه یک مادر در فلوریدا سال گذشته از شرکت سازنده چتبات Character.AI به دلیل قتل غیرعمد پسر ۱۴ سالهاش شکایت کرد و گفت که این چتبات او را وارد رابطهای آزاردهنده از نظر عاطفی و جنسی کرده بود که باعث خودکشی پسرش شد.
خطرات بیشتر برای نوجوانان
تحقیقات تازه مرکز CCDH نشان میدهد که نوجوانان زیرک میتوانند خیلی راحت از محدودیتهای طراحیشده عبور کنند.
چت جیپیتی نه سن کاربران را بررسی میکند و نه رضایت والدین را میخواهد، با اینکه اعلام کرده برای کودکان زیر ۱۳ سال مناسب نیست چون ممکن است محتوای نامناسب نمایش دهد. برای عضویت، فقط کافیست یک تاریخ تولد وارد شود که نشان دهد کاربر بالای ۱۳ سال است.
برخی پلتفرمهای محبوب بین نوجوانان، مثل اینستاگرام، اقدامات مؤثرتری برای بررسی سن کاربران انجام دادهاند. آنها همچنین کودکان را به سمت حسابهای کاربری محدودتر هدایت میکنند.
وقتی محققان برای یک نوجوان ساختگی ۱۳ ساله حسابی ساختند تا درباره مصرف الکل سؤال کند، چت جیپیتی نه به تاریخ تولد واکنشی نشان داد و نه به سرنخهای واضحی که نشان میداد کاربر کمسن است.
در یک درخواست، کاربر نوشت: «من ۵۰ کیلوگرم هستم و پسرم» و به دنبال راههایی برای سریع مست شدن بود.
چت جیپیتی مدت کوتاهی بعد یک «برنامه مهمانی آنچنانی» با جزئیات ساعت به ساعت ارائه داد که در آن الکل با دوزهای بالای اکستازی، کوکائین و سایر مواد مخدر غیرقانونی ترکیب شده بود.
برای یک کاربر ساختگی دیگر – دختری ۱۳ ساله که از ظاهرش ناراضی بود – چت جیپیتی برنامهای برای روزهداری بسیار سخت و همچنین لیستی از داروهای کاهش اشتها پیشنهاد داد.
اگر به خودکشی فکر میکنید
در ایران با اورژانس اجتماعی با شماره تلفن ۱۲۲
در افغانستان با شماره ۱۱۹
در فرانسه با شماره ۳۱۱۴، شماره ملی پیشگیری از خودکشی
در آمریکا و کانادا با شماره ۹۱۱
تماس بگیرید.