بسیاری از کارفرمایان امروز بهدنبال استخدام افرادی هستند که بتوانند از هوش مصنوعی برای انجام وظایفی مانند تحقیق، تنظیم گزارش و افزایش بهرهوری استفاده کنند. اما همانطور که استفاده از این ابزارها گستردهتر میشود، خطاها و اشتباهات ناشی از آن نیز افزایش یافته است.
قضات در نقاط مختلف جهان اکنون با مشکل فزایندهای روبهرو هستند: لوایح و اسنادی که با کمک هوش مصنوعی تهیه شدهاند اما حاوی ارجاعات اشتباه یا حتی ساختگی به پروندههایی هستند که اصلا وجود ندارند.
این روند، هشداری است برای افرادی که تازه یاد میگیرند چگونه از هوش مصنوعی در کار خود استفاده کنند.
دمین شارلوتن، پژوهشگر در حوزه تحلیل دادهها و حقوقدان فرانسوی، دستکم ۴۹۰ پرونده قضایی را در شش ماه گذشته ثبت کرده است که در آنها محتوای تولیدشده با هوش مصنوعی شامل اطلاعات نادرست یا ساختگی بوده است. او میگوید هرچه تعداد کاربران بیشتر میشود، سرعت بروز چنین «توهماتی» هم افزایش مییابد.
دمین شارلوتن معتقد است که حتی حرفهایترین کاربران هم ممکن است دچار این مشکل شوندچون هوش مصنوعی همزمان با این که میتواند فوقالعاده مفید باشد، اما دامهای خود را هم دارد.
او پایگاه دادهای برای ردیابی مواردی ایجاد کرده که در آنها قاضی تشخیص داده محتوای تولیدی هوش مصنوعی شامل ارجاعات یا نقلقولهای جعلی بوده است. بیشتر این پروندهها در ایالات متحده ثبت شدهاند و اغلب شاکیان بدون وکیل اقدام کردهاند. برخی از قضات تنها هشدار دادهاند، اما عدهای نیز جریمه تعیین کردهاند.
حتی شرکتهای بزرگ نیز از این خطاها در امان نماندهاند؛ بهعنوان نمونه، قاضی فدرال در ایالت کلرادو اعلام کرد وکیل شرکت MyPillow Inc در یکی از پروندههای افترا، متنی ارائه کرده که حاوی نزدیک به ۳۰ ارجاع نادرست بوده است.
هوش مصنوعی را مانند یک دستیار ببینید، نه تصمیمگیرنده
ماریا فلین، مدیرعامل سازمان «مشاغل برای آینده» میگوید: «به هوش مصنوعی مثل یک کارآموز فکر کنید که وظیفهاش کمک به شماست، نه تصمیمگیری بهجای شما.»
او توضیح میدهد که این فناوری میتواند در نگارش ایمیلها، تنظیم برنامه سفر یا آمادهسازی برای جلسات مفید باشد، اما نباید جایگزین قضاوت انسانی شود.
فلین تجربهاش را چنین شرح میدهد: «زمانی که از ابزار داخلی هوش مصنوعی شرکت خود خواست پرسشهایی برای بحث گروهی پیشنهاد دهد، برخی سوالات بیارتباط بودند؛ اما پس از بازخورد و اصلاح، ابزار توانست پنج سوال دقیق و مفید ارائه کند.»
دقت نتایج را حتما بررسی کنید
فلین همچنین متوجه اشتباهاتی در خروجی ابزار هوش مصنوعی شد؛ مثلا گاهی تفاوت میان پروژههای انجامشده و پروژههای صرفا پیشنهادی را تشخیص نمیداد. او میگوید: «اگر تازهوارد سازمانی هستید، از همکاران خود بپرسید که آیا نتایج ابزار درست بهنظر میرسند یا نه.»
جاستین دنیلز، وکیل آمریکایی، هشدار میدهد: «فقط چون پاسخ هوش مصنوعی منطقی یا باورپذیر است، به این معنی نیست که درست است. باید همیشه صحت آن را بررسی کرد، حتی اگر زمانبر باشد.»
احتیاط در استفاده از ابزارهای یادداشتبردار
بسیاری از کاربران برای ثبت و خلاصهکردن جلسات از هوش مصنوعی استفاده میکنند، اما در برخی کشورها ضبط صدا بدون رضایت همه شرکتکنندگان غیرقانونی است.
دنیل کِیز، وکیل در شیکاگو، توصیه میکند قبل از استفاده از چنین ابزارهایی در موقعیتهای حساسی مانند تحقیقات داخلی، ارزیابی عملکرد یا جلسات حقوقی، حتما با بخش حقوقی یا منابع انسانی مشورت کنید.
او میگوید: «موضوع رضایت در استفاده از ابزارهای هوش مصنوعی در دادگاهها در حال بررسی است و شرکتها باید تحولات حقوقی آن را بهدقت دنبال کنند.»
از اطلاعات محرمانه حفاظت کنید
اگر از ابزارهای رایگان برای نوشتن یادداشت یا کمپین تبلیغاتی استفاده میکنید، هرگز اطلاعات شناساییشده یا اسرار شرکتی را در اختیار آن نگذارید. ماریا فلین توضیح میدهد: «وقتی دادهای را به یک ابزار عمومی میدهید، ممکن است آن اطلاعات در پاسخهای دیگر کاربران هم ظاهر شود. هوش مصنوعی هنوز تفاوت میان دادههای عمومی و خصوصی را بهخوبی تشخیص نمیدهد.»
آموزش ببینید
اگر محل کار شما دوره آموزشی هوش مصنوعی ندارد، میتوانید با ابزارهای رایگانی مانند چت جیپیتی (ChatGPT) یا مایکروسافت کاپایلوت (Microsoft Copilot) تمرین کنید. دورههایی که نحوه نوشتن درخواستهای دقیق (prompting) یا تمرین عملی کار با ابزارها را آموزش میدهند، بسیار مفیدند.
ماریا فلین در پایان میگوید: «بزرگترین خطری که در یادگیری هوش مصنوعی وجود دارد، این است که اصلا آن را یاد نگیریم. همه ما باید در استفاده از این فناوری به سطحی از سواد و تسلط برسیم؛ هرچه زودتر شروع کنیم، بهتر است.»
 
     
     
     
     
             
             
            