Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

قبل از مشاوره پزشکی با چت‌بات چه باید بدانید

زنی بیمار روی تخت دراز کشیده است
یک زن بیمار روی تخت دراز کشیده است Copyright  Pexels
Copyright Pexels
نگارش از Indrabati Lahiri & AP
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

پس از راه‌اندازی تازه «چت‌جی‌پی‌تی هلث» توسط اوپن‌ای‌آی، اینها نکاتی است که پیش از رجوع به چت‌بات‌های هوش‌مصنوعی برای مشاوره پزشکی باید در نظر بگیرید.

با توجه به این که صدها میلیون نفر برای گرفتن مشاوره به چت‌بات‌ها مراجعه می‌کنند، طبیعی بود که دیر یا زود شرکت‌های فناوری برنامه‌هایی عرضه کنند که به طور ویژه برای پاسخ دادن به پرسش‌های سلامت طراحی شده‌اند.

آگهی
آگهی

در ماه ژانویه، شرکت اوپن ای آی نسخه تازه‌ای از چت‌بات خود به نام چت‌جی‌پی‌تی هلس (ChatGPT Health) معرفی کرد که به گفته این شرکت می‌تواند پرونده‌های پزشکی کاربران، داده‌های برنامه‌های تندرستی و ابزارهای پوشیدنی را تحلیل کند و به پرسش‌های سلامت و پزشکی پاسخ دهد.

در حال حاضر برای استفاده از این برنامه فهرست انتظار وجود دارد. شرکت آنتروپیک، یک رقیب در حوزه هوش مصنوعی، امکانات مشابهی را برای برخی کاربران چت‌بات خود به نام کلود (Claude) ارائه می‌کند.

هر دو شرکت می‌گویند برنامه‌هایشان که با عنوان مدل‌های زبانی بزرگ شناخته می‌شوند، جایگزین مراقبت حرفه‌ای پزشکی نیستند و نباید برای تشخیص بیماری‌ها از آنها استفاده شود. به گفته آنها، چت‌بات‌ها بیشتر می‌توانند نتایج پیچیده آزمایش‌ها را خلاصه و توضیح کنند، به بیمار برای آماده شدن پیش از ویزیت پزشک کمک کنند یا روندهای مهم سلامت را که در پرونده‌های پزشکی و داده‌های برنامه‌ها پنهان مانده تحلیل کنند.

اما این چت‌بات‌ها تا چه حد برای تحلیل داده‌ها و وضعیت‌های پزشکی ایمن و دقیق هستند؟ و آیا واقعا می‌توان به آنها تکیه کرد؟

پیش از آن که درباره سلامت خود با یک چت‌بات گفت‌وگو کنید، این نکات را در نظر داشته باشید:

چت‌بات‌ها می‌توانند اطلاعات شخصی‌سازی‌شده‌تری از یک جست‌وجوی گوگل ارائه کنند

برخی پزشکان و پژوهشگرانی که با چت‌جی‌پی‌تی هلس و برنامه‌های مشابه کار کرده‌اند، این ابزارها را نسبت به وضعیت کنونی یک گام رو به جلو می‌دانند.

سکوهای هوش مصنوعی بی‌عیب نیستند؛ گاهی دچار توهم می‌شوند یا حتی می‌توانند توصیه‌های نادرست (منبع به زبان انگلیسی) ارائه کنند، اما اطلاعاتی که تولید می‌کنند معمولا شخصی‌سازی‌شده‌تر و مشخص‌تر از چیزی است که بیماران در یک جست‌وجوی ساده گوگل پیدا می‌کنند.

دکتر رابرت واکتر، کارشناس فناوری‌های پزشکی در دانشگاه کالیفرنیا در سانفرانسیسکو، گفت: «در بسیاری از موارد اصلا جایگزینی وجود ندارد یا بیمار خودش سرخود عمل می‌کند. به نظر من اگر این ابزارها را مسئولانه به کار ببرید، می‌توانید اطلاعات مفیدی به دست بیاورید.»

در کشورهایی مثل بریتانیا یا ایالات متحده، که گرفتن نوبت پزشک ممکن است هفته‌ها طول بکشد و انتظار برای خدمات فوری اغلب چندین ساعت زمان ببرد، چت‌بات‌ها در بسیاری موارد می‌توانند از وحشت بی‌مورد بکاهند و در وقت صرفه‌جویی کنند.

با این حال همین ابزارها می‌توانند مشخص کنند چه زمانی علائم خطرناک است و لازم است حتما توسط متخصصان واقعی ارزیابی شود.

یکی از مزیت‌های چت‌بات‌های جدید این است که به پرسش‌های کاربران بر اساس زمینه‌ای از سوابق پزشکی آنها پاسخ می‌دهند؛ از جمله نسخه‌های دارویی، سن و یادداشت‌های پزشک.

حتی اگر به هوش مصنوعی دسترسی مستقیم به اطلاعات پزشکی خود نداده باشید، واکتر و دیگر متخصصان توصیه می‌کنند برای بهتر شدن پاسخ‌ها تا حد امکان جزئیات بیشتری در اختیار چت‌بات بگذارید.

اگر علائم نگران‌کننده‌ای دارید، سراغ هوش مصنوعی نروید

واکتر و سایر متخصصان تاکید می‌کنند که در برخی موقعیت‌ها مردم باید قید چت‌بات را بزنند و فورا به دنبال دریافت خدمات پزشکی باشند. علائمی مثل تنگی نفس، درد قفسه سینه یا سردرد شدید می‌تواند نشانه یک اورژانس پزشکی باشد.

دکتر لوید ماینر از دانشگاه استنفورد گفت بیماران و پزشکان حتی در موقعیت‌های کم‌خطرتر هم باید با «اندکی تردید سالم» سراغ برنامه‌های هوش مصنوعی بروند.

ماینر که رئیس دانشکده پزشکی استنفورد است، اضافه کرد: «اگر پای یک تصمیم مهم پزشکی در میان است، یا حتی یک تصمیم کوچک‌تر درباره سلامتتان، هرگز نباید فقط به چیزی که از یک مدل زبانی بزرگ دریافت می‌کنید تکیه کنید.»

حتی در موارد به‌ظاهر ساده‌تر یا شایع، مثل سندرم تخمدان پلی‌کیستیک (PCOS)، بهتر است با یک متخصص واقعی مشورت کنید، چون این بیماری در افراد مختلف می‌تواند خود را به شکل‌های بسیار متنوعی نشان دهد و همین تفاوت‌ها بر نوع درمان اثر می‌گذارد.

پیش از بارگذاری هر گونه داده سلامت، به حریم خصوصی خود فکر کنید

بسیاری از مزایایی که ربات‌های هوش مصنوعی ارائه می‌کنند از این واقعیت ناشی می‌شود که کاربران اطلاعات پزشکی شخصی خود را در اختیار آنها می‌گذارند. اما باید دانست هر چیزی که با یک شرکت ارائه‌دهنده هوش مصنوعی به اشتراک می‌گذارید، مشمول قانون فدرال حریم خصوصی در ایالات متحده که معمولا از اطلاعات حساس پزشکی محافظت می‌کند، نمی‌شود.

این قانون که با نام هیپا (HIPAA) شناخته می‌شود، برای پزشکان، بیمارستان‌ها، شرکت‌های بیمه و دیگر ارائه‌دهندگان خدمات سلامت که پرونده‌های پزشکی را افشا کنند جریمه و حتی مجازات زندان در نظر گرفته است، اما شامل شرکت‌هایی که چت‌بات طراحی می‌کنند نمی‌شود.

ماینر گفت: «وقتی کسی پرونده پزشکی خود را در یک مدل زبانی بزرگ بارگذاری می‌کند، این کار کاملا متفاوت از آن است که همان پرونده را در اختیار یک پزشک جدید بگذارد. مردم باید درک کنند که در این دو حالت استانداردهای حریم خصوصی کاملا متفاوت است.»

اوپن ای آی و آنتروپیک می‌گویند اطلاعات سلامت کاربران را جدا از سایر انواع داده نگه می‌دارند و برای آن لایه‌های بیشتری از محافظت حریم خصوصی در نظر گرفته‌اند. این دو شرکت از داده‌های سلامت برای آموزش مدل‌های خود استفاده نمی‌کنند. کاربران باید برای اشتراک‌گذاری اطلاعاتشان اجازه بدهند و هر زمان بخواهند می‌توانند این دسترسی را قطع کنند.

آزمایش‌ها نشان می‌دهد چت‌بات‌ها می‌توانند دچار خطا شوند

با وجود هیجان زیادی که پیرامون هوش مصنوعی شکل گرفته، آزمون‌های مستقل این فناوری هنوز در مراحل ابتدایی است. پژوهش‌های اولیه نشان می‌دهد برنامه‌هایی مثل چت‌جی‌پی‌تی می‌توانند در امتحان‌های سطح بالای پزشکی نمره عالی بگیرند، اما هنگام تعامل با انسان‌ها اغلب دچار مشکل می‌شوند.

یک مطالعه با مشارکت ۱۳۰۰ نفر در دانشگاه آکسفورد اخیرا نشان داد کسانی که برای بررسی وضعیت‌های فرضی سلامت از چت‌بات‌های هوش مصنوعی استفاده کردند، تصمیم‌هایی بهتر از افرادی که سراغ جست‌وجوی آنلاین یا قضاوت شخصی خود رفتند نگرفتند.

در این پژوهش، وقتی سناریوهای پزشکی به صورت مکتوب و جامع در اختیار چت‌بات‌های هوش مصنوعی قرار گرفت، آنها در ۹۵ درصد موارد بیماری زمینه‌ای را درست تشخیص دادند.

آدام مهدی، نویسنده اصلی این تحقیق از موسسه اینترنت آکسفورد، گفت: «مشکل از اینجا نبود. جایی اوضاع به هم می‌ریخت که پای تعامل با شرکت‌کنندگان واقعی به میان می‌آمد.»

مهدی و همکارانش چندین مشکل ارتباطی پیدا کردند. مردم اغلب اطلاعات لازم را در اختیار چت‌بات‌ها نمی‌گذاشتند تا بتوانند به درستی مشکل سلامت را تشخیص دهند. در مقابل، سیستم‌های هوش مصنوعی هم اغلب ترکیبی از اطلاعات درست و نادرست ارائه می‌کردند و کاربران در تشخیص این دو از هم مشکل داشتند.

این مطالعه که در سال ۲۰۲۴ انجام شد، از تازه‌ترین نسخه‌های چت‌بات‌ها، از جمله ابزارهای جدیدی مثل چت‌جی‌پی‌تی هلس، استفاده نکرد.

دریافت نظر دوم از یک هوش مصنوعی دیگر می‌تواند مفید باشد

به گفته واکتر، توانایی چت‌بات‌ها برای مطرح کردن پرسش‌های تکمیلی و گرفتن جزئیات کلیدی از کاربران یکی از حوزه‌هایی است که هنوز جای زیادی برای بهبود دارد.

واکتر گفت: «به نظر من زمانی این فناوری واقعا خوب عمل خواهد کرد که این ابزارها در نحوه رفت و برگشت و گفت‌وگو با بیمار کمی شبیه‌تر به پزشکان شوند.»

در حال حاضر یکی از راه‌های افزایش اطمینان نسبت به اطلاعاتی که دریافت می‌کنید این است که با چند چت‌بات مختلف مشورت کنید؛ کاری شبیه گرفتن نظر دوم از یک پزشک دیگر.

واکتر با اشاره به ابزار هوش مصنوعی گوگل گفت: «من گاهی اطلاعات را در چت‌جی‌پی‌تی و همان اطلاعات را در جمینی وارد می‌کنم و وقتی هر دو یک چیز می‌گویند، کمی مطمئن‌تر می‌شوم که پاسخ درست همین است.»

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

آیا برای پرسشهای پزشکی باید از چت‌جی‌پی‌تی استفاده کرد؟ یک پژوهش جدید هشدار می‌دهد

نظام سلامت گرینلند تا این حد بد است که دونالد ترامپ می‌گوید؟

تحقیق جدید: اسپرم مردان در تابستان سریع‌تر از زمستان حرکت می‌کند