در حالی که استفاده از هوش مصنوعی طی ماههای اخیر در میان مردم رشد سرسامآوری داشته است، پژوهشگران میگویند این ابزار تازه به ما «توهم توانایی» میدهد.
پژوهشگران در دانشگاه آلتو فنلاند، همراه با محققانی از آلمان و کانادا، دریافتهاند که هوش مصنوعی اعتمادبهنفس را در همه یکسان و بیش از حد بالا میبرد.
طبق این پژوهش وقتی شرکتکنندگان برای حل مسائل از چتباتهایی مانند چت جیپیتی استفاده کردند، تقریبا همه آنها (صرفنظر از مهارت واقعی) بیش از حد به کیفیت پاسخها اعتماد کردند.
جالبتر اینکه افرادی که بیشتر از هوش مصنوعی استفاده میکردند، این اعتماد بیجا را بیشتر نشان دادند.
رابین ولش، یکی از نویسندگان پژوهش، میگوید: «ما انتظار داشتیم افرادِ آشنا با هوش مصنوعی بتوانند عملکرد خود را دقیقتر بسنجند، اما یافتههای ما نشان داد که مردم در تشخیص عملکرد واقعیشان، حتی با وجود تجربه زیاد استفاده از هوش مصنوعی ضعیف عمل میکنند.»
«کمعمق شدن» تفکر بهعلت اتکای بیش از حد به پاسخ هوش مصنوعی
در این پژوهش، ۵۰۰ نفر مجموعهای از مسائل استدلال منطقی را حل کردند و نیمی اجازه داشتند از چتجیپیتی کمک بگیرند. سپس از آنها خواسته شد هم توانایی خودشان و هم مهارتشان در استفاده از هوش مصنوعی را ارزیابی کنند.
افرادی که از هوش مصنوعی استفاده کردند، معمولا بعد از همان پاسخ اول قانع میشدند و کمتر به بررسی بیشتر، پرسش دوباره و یا سنجش انتقادی پاسخ میپرداختند.
در واقع پژوهش نشان داد کاربرانی که از هوش مصنوعی کمک میگیرند مهارت خود را بیش از حد برآورد میکنند و مستقل از هوش، توانایی یا تجربهشان، اعتمادبهنفس نادرست پیدا میکنند.
در عین حال از آنجا که هوش مصنوعی تا حدودی عملکرد همه را بهتر میکند، همه از جمله افراد کممهارت، به یک میزان احساس توانایی میکنند. حتی اگر این احساس درست نباشد.
خطرات: تصمیمگیری بد، تحلیل کمتر و تضعیف مهارتهای انسانی
پژوهشگران هشدار میدهند که این روند میتواند پیامدهای گستردهای داشته باشد.
این پیامدها شامل کاهش توانایی انسانها در بررسی انتقادی اطلاعات، افزایش تصمیمگیریهای اشتباه بهدلیل اعتماد بیجا به خود و به هوش مصنوعی و از دست رفتن مهارتهای شناختی، بهویژه مهارتهای تحلیلی و ارزیابی و بدتر شدن «دقت فراشناختی» (یعنی توانایی تشخیص درستی یا نادرستی عملکرد خود) میشود.
در حقیقت با فراگیر شدن هوش مصنوعی، این خطر وجود دارد که تواناییهای تحلیلی و انتقادی انسانها بهتدریج تضعیف شود.
به کانال تلگرام یورونیوز فارسی بپیوندید
چاره چیست؟
بهگفته پژوهشگران، بخشی از راهحل این است که هوش مصنوعی باید طوری طراحی شود که کاربران را به پرسیدن دوباره، سنجش، و تفکر انتقادی ترغیب کند.
مثلا با پرسیدن سؤالهایی مانند چقدر به این پاسخ اطمینان دارید؟، چه گزینهای ممکن است از قلم افتاده باشد؟ و آیا منابع دیگری را بررسی کردهاید؟، وضعیت در این خصوص میتواند بهتر شود.
نتایج پژوهش تازه قرار است در شماره آینده نشریه علمی «Computers in Human Behavior» منتشر شود.