▫️گایدلاین FUTURE-AI: اجماع بینالمللی برای هوش مصنوعیِ قابل اعتماد و قابل استقرار در مراقبتهای بهداشتی
گروهی متشکل از 117 متخصص بینرشتهای از 50 کشور جهان، کنسرسیومی به نام FUTURE-AI تأسیس کردند.
آنها گایدلاینی را بر اساس شش اصل بنیادین تدوین کردند: عدالت (fairness)، جامعیت (universality)، قابلیت ردیابی (traceability)، کاربردپذیری (usability)، استحکام (robustness) و تبیینپذیری (explainability).
برای عملیاتی کردن هوش مصنوعیِ قابل اعتماد در مراقبتهای بهداشتی 30 مورد Best Practice تعریف شده است. این توصیهها کل چرخه عمر هوش مصنوعی در سلامت، از طراحی، توسعه و اعتبارسنجی گرفته تا تنظیمگری، استقرار و پایش را شامل میشود.
مقاله منتشر شده در BMJ را ببینید. یا به سایت اختصاصی این پژوه سر بزنید تا 30 توصیه را ببینید.
عدالت
اصل عدالت بیان میکند که ابزارهای AI در پزشکی باید در میان افراد و گروههای مختلف، عملکرد یکسانی داشته باشند. همچنین، مراقبتهای پزشکی مبتنی بر هوش مصنوعی باید برای همه شهروندان، فارغ از جنس، جنسیت، قومیت، سن، وضعیت اقتصادی-اجتماعی و (نا) تواناییها، بهطور برابر ارائه شود. در طراحی ابزارهای AI عادلانه، ضروری است سوگیریهای بالقوه تا حد امکان کاهش یابند یا در صورت بروز، شناسایی و گزارش شوند.
جامعیت
اصل جامعیت ایجاب میکند که ابزار AI پزشکی بتواند فراتر از محیط کنترلشدهای که در آن توسعه یافته است، عملکرد خود را حفظ کند (قابلیت تعمیم داشته باشد). به بیان دیگر، این ابزار باید در برخورد با بیماران، کاربران و در صورت نیاز، مراکز بالینی جدید نیز کارآمد باقی بماند. بسته به گسترۀ کاربردِ درنظرگرفتهشده، چنین ابزاری باید تا حد امکان از نظر تبادلپذیری (interoperable) و انتقالپذیری توانمند باشد تا بتواند در مقیاس وسیع، مزایای خود را در اختیار شهروندان و متخصصان بالینی قرار دهد.
قابلیت ردیابی یا پایشپذیری
اصل قابلیت ردیابی تصریح میکند که ابزارهای AI در پزشکی باید همراه با مکانیسمهایی برای مستندسازی و پایش مسیر کامل آنها، از مرحله توسعه و اعتبارسنجی تا استقرار و استفاده، طراحی شوند. این کار با ارائه اطلاعات جامع و پیوسته در طول چرخۀ عمر ابزارهای AI به بالینگران، سازمانهای بهداشتی، بیماران و شهروندان، توسعهدهندگان AI و نهادهای نظارتی، موجب ارتقای شفافیت و مسئولیتپذیری میشود. همچنین، این قابلیت شرایط را برای ممیزی مداوم مدلها، شناسایی خطرات و محدودیتها و بهروزرسانی مدلها در صورت نیاز فراهم میسازد.
کاربردپذیری
این اصل بر این نکته تأکید دارد که کاربران نهایی باید بتوانند در محیط واقعی خود، با بهرهگیری از ابزارهای AI، به اهداف بالینی بهصورت کارآمد و ایمن دست یابند. از یک سو، این به معنای سهولت استفاده از قابلیتها و رابطهای کاربری AI و کاهش خطاهای احتمالی است. از سوی دیگر، ابزار مورد نظر باید از نظر بالینی مفید و ایمن باشد؛ بهعنوان مثال، موجب افزایش کارایی پزشکان، بهبود پیامدهای سلامتیِ بیماران و پیشگیری از آسیب شود.
استحکام
این اصل بر توانایی ابزارهای AI پزشکی در حفظ عملکرد و دقتشان در مواجهه با تغییرات قابل پیشبینی یا غیرمنتظره در دادههای ورودی تأکید میکند. پژوهشها نشان دادهاند که حتی تغییرات جزئی و نامحسوس در دادههای ورودی میتوانند تصمیمات مدلهای AI را به خطا بکشانند. از آنجا که دادههای زیستپزشکی و بهداشتی در دنیای واقعی ممکن است دستخوش تغییرات عمده، چه قابل انتظار و چه غیرمنتظره، شوند و در نتیجه بر عملکرد ابزارهای AI تأثیر بگذارند، لازم است این ابزارها به گونهای طراحی و توسعه یابند که در برابر چنین تغییراتی مقاوم باشند و بهشیوهای مناسب ارزشیابی و بهینهسازی شوند.
تبیینپذیری
اصل تبیینپذیری بر این نکته تأکید دارد که ابزارهای AI در پزشکی باید اطلاعاتی معنادار از نظر بالینی درباره منطقِ تصمیمات خود ارائه دهند. اگرچه حوزه پزشکی، به دلیل حساسیت و ریسک بالا، نیازمند شفافیت، قابلیت اطمینان و پاسخگویی است، اما فنون یادگیری ماشین اغلب به مدلهای پیچیده و اصطلاحاً جعبه سیاه منجر میشوند. از دیدگاه فنی، پزشکی، اخلاقی، حقوقی و بیماران، تبیینپذیری ویژگی مطلوبی محسوب میشود چون به کاربران نهایی امکان میدهد تا مدل AI و خروجیهای آن را تفسیر کنند، ظرفیتها و محدودیتهای ابزار را بشناسند و در صورت لزوم مداخله کنند؛ برای مثال، تصمیم بگیرند از آن استفاده کنند یا خیر. با این حال، تبیینپذیری فرایندی پیچیده است که چالشهای خاص خود را دارد و باید در تمامی مراحل توسعه و ارزیابی AI مورد توجه دقیق قرار گیرد تا اطمینان حاصل شود که تبیینهای ارائهشده، از نظر بالینی معنادار و برای کاربران نهایی سودمند هستند.
#AI
#healthcare
#guideline
🆔 @irevidence
گروهی متشکل از 117 متخصص بینرشتهای از 50 کشور جهان، کنسرسیومی به نام FUTURE-AI تأسیس کردند.
آنها گایدلاینی را بر اساس شش اصل بنیادین تدوین کردند: عدالت (fairness)، جامعیت (universality)، قابلیت ردیابی (traceability)، کاربردپذیری (usability)، استحکام (robustness) و تبیینپذیری (explainability).
برای عملیاتی کردن هوش مصنوعیِ قابل اعتماد در مراقبتهای بهداشتی 30 مورد Best Practice تعریف شده است. این توصیهها کل چرخه عمر هوش مصنوعی در سلامت، از طراحی، توسعه و اعتبارسنجی گرفته تا تنظیمگری، استقرار و پایش را شامل میشود.
مقاله منتشر شده در BMJ را ببینید. یا به سایت اختصاصی این پژوه سر بزنید تا 30 توصیه را ببینید.
عدالت
اصل عدالت بیان میکند که ابزارهای AI در پزشکی باید در میان افراد و گروههای مختلف، عملکرد یکسانی داشته باشند. همچنین، مراقبتهای پزشکی مبتنی بر هوش مصنوعی باید برای همه شهروندان، فارغ از جنس، جنسیت، قومیت، سن، وضعیت اقتصادی-اجتماعی و (نا) تواناییها، بهطور برابر ارائه شود. در طراحی ابزارهای AI عادلانه، ضروری است سوگیریهای بالقوه تا حد امکان کاهش یابند یا در صورت بروز، شناسایی و گزارش شوند.
جامعیت
اصل جامعیت ایجاب میکند که ابزار AI پزشکی بتواند فراتر از محیط کنترلشدهای که در آن توسعه یافته است، عملکرد خود را حفظ کند (قابلیت تعمیم داشته باشد). به بیان دیگر، این ابزار باید در برخورد با بیماران، کاربران و در صورت نیاز، مراکز بالینی جدید نیز کارآمد باقی بماند. بسته به گسترۀ کاربردِ درنظرگرفتهشده، چنین ابزاری باید تا حد امکان از نظر تبادلپذیری (interoperable) و انتقالپذیری توانمند باشد تا بتواند در مقیاس وسیع، مزایای خود را در اختیار شهروندان و متخصصان بالینی قرار دهد.
قابلیت ردیابی یا پایشپذیری
اصل قابلیت ردیابی تصریح میکند که ابزارهای AI در پزشکی باید همراه با مکانیسمهایی برای مستندسازی و پایش مسیر کامل آنها، از مرحله توسعه و اعتبارسنجی تا استقرار و استفاده، طراحی شوند. این کار با ارائه اطلاعات جامع و پیوسته در طول چرخۀ عمر ابزارهای AI به بالینگران، سازمانهای بهداشتی، بیماران و شهروندان، توسعهدهندگان AI و نهادهای نظارتی، موجب ارتقای شفافیت و مسئولیتپذیری میشود. همچنین، این قابلیت شرایط را برای ممیزی مداوم مدلها، شناسایی خطرات و محدودیتها و بهروزرسانی مدلها در صورت نیاز فراهم میسازد.
کاربردپذیری
این اصل بر این نکته تأکید دارد که کاربران نهایی باید بتوانند در محیط واقعی خود، با بهرهگیری از ابزارهای AI، به اهداف بالینی بهصورت کارآمد و ایمن دست یابند. از یک سو، این به معنای سهولت استفاده از قابلیتها و رابطهای کاربری AI و کاهش خطاهای احتمالی است. از سوی دیگر، ابزار مورد نظر باید از نظر بالینی مفید و ایمن باشد؛ بهعنوان مثال، موجب افزایش کارایی پزشکان، بهبود پیامدهای سلامتیِ بیماران و پیشگیری از آسیب شود.
استحکام
این اصل بر توانایی ابزارهای AI پزشکی در حفظ عملکرد و دقتشان در مواجهه با تغییرات قابل پیشبینی یا غیرمنتظره در دادههای ورودی تأکید میکند. پژوهشها نشان دادهاند که حتی تغییرات جزئی و نامحسوس در دادههای ورودی میتوانند تصمیمات مدلهای AI را به خطا بکشانند. از آنجا که دادههای زیستپزشکی و بهداشتی در دنیای واقعی ممکن است دستخوش تغییرات عمده، چه قابل انتظار و چه غیرمنتظره، شوند و در نتیجه بر عملکرد ابزارهای AI تأثیر بگذارند، لازم است این ابزارها به گونهای طراحی و توسعه یابند که در برابر چنین تغییراتی مقاوم باشند و بهشیوهای مناسب ارزشیابی و بهینهسازی شوند.
تبیینپذیری
اصل تبیینپذیری بر این نکته تأکید دارد که ابزارهای AI در پزشکی باید اطلاعاتی معنادار از نظر بالینی درباره منطقِ تصمیمات خود ارائه دهند. اگرچه حوزه پزشکی، به دلیل حساسیت و ریسک بالا، نیازمند شفافیت، قابلیت اطمینان و پاسخگویی است، اما فنون یادگیری ماشین اغلب به مدلهای پیچیده و اصطلاحاً جعبه سیاه منجر میشوند. از دیدگاه فنی، پزشکی، اخلاقی، حقوقی و بیماران، تبیینپذیری ویژگی مطلوبی محسوب میشود چون به کاربران نهایی امکان میدهد تا مدل AI و خروجیهای آن را تفسیر کنند، ظرفیتها و محدودیتهای ابزار را بشناسند و در صورت لزوم مداخله کنند؛ برای مثال، تصمیم بگیرند از آن استفاده کنند یا خیر. با این حال، تبیینپذیری فرایندی پیچیده است که چالشهای خاص خود را دارد و باید در تمامی مراحل توسعه و ارزیابی AI مورد توجه دقیق قرار گیرد تا اطمینان حاصل شود که تبیینهای ارائهشده، از نظر بالینی معنادار و برای کاربران نهایی سودمند هستند.
#AI
#healthcare
#guideline
🆔 @irevidence