پس از راهاندازی تازه «چتجیپیتی هلث» توسط اوپنایآی، اینها نکاتی است که پیش از رجوع به چتباتهای هوشمصنوعی برای مشاوره پزشکی باید در نظر بگیرید.
با توجه به این که صدها میلیون نفر برای گرفتن مشاوره به چتباتها مراجعه میکنند، طبیعی بود که دیر یا زود شرکتهای فناوری برنامههایی عرضه کنند که به طور ویژه برای پاسخ دادن به پرسشهای سلامت طراحی شدهاند.
در ماه ژانویه، شرکت اوپن ای آی نسخه تازهای از چتبات خود به نام چتجیپیتی هلس (ChatGPT Health) معرفی کرد که به گفته این شرکت میتواند پروندههای پزشکی کاربران، دادههای برنامههای تندرستی و ابزارهای پوشیدنی را تحلیل کند و به پرسشهای سلامت و پزشکی پاسخ دهد.
در حال حاضر برای استفاده از این برنامه فهرست انتظار وجود دارد. شرکت آنتروپیک، یک رقیب در حوزه هوش مصنوعی، امکانات مشابهی را برای برخی کاربران چتبات خود به نام کلود (Claude) ارائه میکند.
هر دو شرکت میگویند برنامههایشان که با عنوان مدلهای زبانی بزرگ شناخته میشوند، جایگزین مراقبت حرفهای پزشکی نیستند و نباید برای تشخیص بیماریها از آنها استفاده شود. به گفته آنها، چتباتها بیشتر میتوانند نتایج پیچیده آزمایشها را خلاصه و توضیح کنند، به بیمار برای آماده شدن پیش از ویزیت پزشک کمک کنند یا روندهای مهم سلامت را که در پروندههای پزشکی و دادههای برنامهها پنهان مانده تحلیل کنند.
اما این چتباتها تا چه حد برای تحلیل دادهها و وضعیتهای پزشکی ایمن و دقیق هستند؟ و آیا واقعا میتوان به آنها تکیه کرد؟
پیش از آن که درباره سلامت خود با یک چتبات گفتوگو کنید، این نکات را در نظر داشته باشید:
چتباتها میتوانند اطلاعات شخصیسازیشدهتری از یک جستوجوی گوگل ارائه کنند
برخی پزشکان و پژوهشگرانی که با چتجیپیتی هلس و برنامههای مشابه کار کردهاند، این ابزارها را نسبت به وضعیت کنونی یک گام رو به جلو میدانند.
سکوهای هوش مصنوعی بیعیب نیستند؛ گاهی دچار توهم میشوند یا حتی میتوانند توصیههای نادرست (منبع به زبان انگلیسی) ارائه کنند، اما اطلاعاتی که تولید میکنند معمولا شخصیسازیشدهتر و مشخصتر از چیزی است که بیماران در یک جستوجوی ساده گوگل پیدا میکنند.
دکتر رابرت واکتر، کارشناس فناوریهای پزشکی در دانشگاه کالیفرنیا در سانفرانسیسکو، گفت: «در بسیاری از موارد اصلا جایگزینی وجود ندارد یا بیمار خودش سرخود عمل میکند. به نظر من اگر این ابزارها را مسئولانه به کار ببرید، میتوانید اطلاعات مفیدی به دست بیاورید.»
در کشورهایی مثل بریتانیا یا ایالات متحده، که گرفتن نوبت پزشک ممکن است هفتهها طول بکشد و انتظار برای خدمات فوری اغلب چندین ساعت زمان ببرد، چتباتها در بسیاری موارد میتوانند از وحشت بیمورد بکاهند و در وقت صرفهجویی کنند.
با این حال همین ابزارها میتوانند مشخص کنند چه زمانی علائم خطرناک است و لازم است حتما توسط متخصصان واقعی ارزیابی شود.
یکی از مزیتهای چتباتهای جدید این است که به پرسشهای کاربران بر اساس زمینهای از سوابق پزشکی آنها پاسخ میدهند؛ از جمله نسخههای دارویی، سن و یادداشتهای پزشک.
حتی اگر به هوش مصنوعی دسترسی مستقیم به اطلاعات پزشکی خود نداده باشید، واکتر و دیگر متخصصان توصیه میکنند برای بهتر شدن پاسخها تا حد امکان جزئیات بیشتری در اختیار چتبات بگذارید.
اگر علائم نگرانکنندهای دارید، سراغ هوش مصنوعی نروید
واکتر و سایر متخصصان تاکید میکنند که در برخی موقعیتها مردم باید قید چتبات را بزنند و فورا به دنبال دریافت خدمات پزشکی باشند. علائمی مثل تنگی نفس، درد قفسه سینه یا سردرد شدید میتواند نشانه یک اورژانس پزشکی باشد.
دکتر لوید ماینر از دانشگاه استنفورد گفت بیماران و پزشکان حتی در موقعیتهای کمخطرتر هم باید با «اندکی تردید سالم» سراغ برنامههای هوش مصنوعی بروند.
ماینر که رئیس دانشکده پزشکی استنفورد است، اضافه کرد: «اگر پای یک تصمیم مهم پزشکی در میان است، یا حتی یک تصمیم کوچکتر درباره سلامتتان، هرگز نباید فقط به چیزی که از یک مدل زبانی بزرگ دریافت میکنید تکیه کنید.»
حتی در موارد بهظاهر سادهتر یا شایع، مثل سندرم تخمدان پلیکیستیک (PCOS)، بهتر است با یک متخصص واقعی مشورت کنید، چون این بیماری در افراد مختلف میتواند خود را به شکلهای بسیار متنوعی نشان دهد و همین تفاوتها بر نوع درمان اثر میگذارد.
پیش از بارگذاری هر گونه داده سلامت، به حریم خصوصی خود فکر کنید
بسیاری از مزایایی که رباتهای هوش مصنوعی ارائه میکنند از این واقعیت ناشی میشود که کاربران اطلاعات پزشکی شخصی خود را در اختیار آنها میگذارند. اما باید دانست هر چیزی که با یک شرکت ارائهدهنده هوش مصنوعی به اشتراک میگذارید، مشمول قانون فدرال حریم خصوصی در ایالات متحده که معمولا از اطلاعات حساس پزشکی محافظت میکند، نمیشود.
این قانون که با نام هیپا (HIPAA) شناخته میشود، برای پزشکان، بیمارستانها، شرکتهای بیمه و دیگر ارائهدهندگان خدمات سلامت که پروندههای پزشکی را افشا کنند جریمه و حتی مجازات زندان در نظر گرفته است، اما شامل شرکتهایی که چتبات طراحی میکنند نمیشود.
ماینر گفت: «وقتی کسی پرونده پزشکی خود را در یک مدل زبانی بزرگ بارگذاری میکند، این کار کاملا متفاوت از آن است که همان پرونده را در اختیار یک پزشک جدید بگذارد. مردم باید درک کنند که در این دو حالت استانداردهای حریم خصوصی کاملا متفاوت است.»
اوپن ای آی و آنتروپیک میگویند اطلاعات سلامت کاربران را جدا از سایر انواع داده نگه میدارند و برای آن لایههای بیشتری از محافظت حریم خصوصی در نظر گرفتهاند. این دو شرکت از دادههای سلامت برای آموزش مدلهای خود استفاده نمیکنند. کاربران باید برای اشتراکگذاری اطلاعاتشان اجازه بدهند و هر زمان بخواهند میتوانند این دسترسی را قطع کنند.
آزمایشها نشان میدهد چتباتها میتوانند دچار خطا شوند
با وجود هیجان زیادی که پیرامون هوش مصنوعی شکل گرفته، آزمونهای مستقل این فناوری هنوز در مراحل ابتدایی است. پژوهشهای اولیه نشان میدهد برنامههایی مثل چتجیپیتی میتوانند در امتحانهای سطح بالای پزشکی نمره عالی بگیرند، اما هنگام تعامل با انسانها اغلب دچار مشکل میشوند.
یک مطالعه با مشارکت ۱۳۰۰ نفر در دانشگاه آکسفورد اخیرا نشان داد کسانی که برای بررسی وضعیتهای فرضی سلامت از چتباتهای هوش مصنوعی استفاده کردند، تصمیمهایی بهتر از افرادی که سراغ جستوجوی آنلاین یا قضاوت شخصی خود رفتند نگرفتند.
در این پژوهش، وقتی سناریوهای پزشکی به صورت مکتوب و جامع در اختیار چتباتهای هوش مصنوعی قرار گرفت، آنها در ۹۵ درصد موارد بیماری زمینهای را درست تشخیص دادند.
آدام مهدی، نویسنده اصلی این تحقیق از موسسه اینترنت آکسفورد، گفت: «مشکل از اینجا نبود. جایی اوضاع به هم میریخت که پای تعامل با شرکتکنندگان واقعی به میان میآمد.»
مهدی و همکارانش چندین مشکل ارتباطی پیدا کردند. مردم اغلب اطلاعات لازم را در اختیار چتباتها نمیگذاشتند تا بتوانند به درستی مشکل سلامت را تشخیص دهند. در مقابل، سیستمهای هوش مصنوعی هم اغلب ترکیبی از اطلاعات درست و نادرست ارائه میکردند و کاربران در تشخیص این دو از هم مشکل داشتند.
این مطالعه که در سال ۲۰۲۴ انجام شد، از تازهترین نسخههای چتباتها، از جمله ابزارهای جدیدی مثل چتجیپیتی هلس، استفاده نکرد.
دریافت نظر دوم از یک هوش مصنوعی دیگر میتواند مفید باشد
به گفته واکتر، توانایی چتباتها برای مطرح کردن پرسشهای تکمیلی و گرفتن جزئیات کلیدی از کاربران یکی از حوزههایی است که هنوز جای زیادی برای بهبود دارد.
واکتر گفت: «به نظر من زمانی این فناوری واقعا خوب عمل خواهد کرد که این ابزارها در نحوه رفت و برگشت و گفتوگو با بیمار کمی شبیهتر به پزشکان شوند.»
در حال حاضر یکی از راههای افزایش اطمینان نسبت به اطلاعاتی که دریافت میکنید این است که با چند چتبات مختلف مشورت کنید؛ کاری شبیه گرفتن نظر دوم از یک پزشک دیگر.
واکتر با اشاره به ابزار هوش مصنوعی گوگل گفت: «من گاهی اطلاعات را در چتجیپیتی و همان اطلاعات را در جمینی وارد میکنم و وقتی هر دو یک چیز میگویند، کمی مطمئنتر میشوم که پاسخ درست همین است.»