Ethics and governance of artificial intelligence for health

این سند راهنمای WHO نتیجه یک فرایند توسعه دو ساله است که توسط دو بخش در بخش علوم - سلامت دیجیتال و نوآوری و تحقیقات برای سلامت هدایت می شود. WHO با یک گروه پیشرو متشکل از بیست متخصص برای شناسایی اصول اصلی برای ارتقا استفاده اخلاقی از هوش مصنوعی برای سلامتی کار کرده است - این اولین اصول اجماع در این زمینه است.

سازمان بهداشت جهانی راهنمای "اخلاق و حاکمیت هوش مصنوعی برای سلامتی" در گزارشی 150 صفحه ای مورخ 28 ژوئن 2021 منتشر کرده است.

خلاصه

هوش مصنوعی (AI) به توانایی الگوریتم های رمزگذاری شده در فناوری برای یادگیری از داده ها اشاره می کند تا آنها بتوانند کارهای خودکار را انجام دهند بدون اینکه هر مرحله از فرآیند به صراحت توسط یک انسان برنامه ریزی شود. WHO تشخیص داده است که هوش مصنوعی نویدبخش زیادی در زمینه بهداشت عمومی و پزشکی است. WHO همچنین به رسمیت می شناسد که ، برای بهره مندی کامل از مزایای هوش مصنوعی ، باید چالش های اخلاقی برای سیستم های مراقبت های بهداشتی ، پزشکان و ذی نفعان خدمات پزشکی و بهداشت عمومی مورد توجه قرار گیرد. بسیاری از نگرانی های اخلاقی توصیف شده در این گزارش قبل از ظهور هوش مصنوعی است ، اگرچه خود هوش مصنوعی تعدادی از نگرانی های جدید را ایجاد می کند.

اینکه هوش مصنوعی می تواند منافع بیماران و جوامع را پیش ببرد ، به تلاش جمعی برای طراحی و اجرای قوانین و سیاست های قابل دفاع از نظر اخلاقی و فناوری های هوش مصنوعی با اخلاق طراحی شده بستگی دارد. همچنین در صورت اولویت قرار ندادن اصول اخلاقی و تعهدات حقوق بشری توسط کسانی که بودجه ، طراحی ، تنظیم یا استفاده از فناوری های هوش مصنوعی را برای سلامتی در نظر می گیرند ، پیامدهای جدی منفی نیز وجود دارد. بنابراین فرصت ها و چالش های هوش مصنوعی به طور جدایی ناپذیری با هم مرتبط هستند.

هوش مصنوعی می تواند توانایی ارائه دهندگان مراقبت های بهداشتی را در بهبود مراقبت از بیمار ، ارائه تشخیص های دقیق ، بهینه سازی برنامه های درمانی ، پشتیبانی از آمادگی و پاسخ به بیماری همه گیر ، تقویت تصمیمات سیاست گذاران بهداشتی یا تخصیص منابع در سیستم های بهداشتی افزایش دهد. برای باز کردن این پتانسیل ، کارکنان مراقبت های بهداشتی و سیستم های بهداشتی باید اطلاعات دقیق در زمینه هایی را که چنین سیستم هایی می توانند با خیال راحت و موثر کار کنند ، شرایط لازم برای اطمینان از استفاده مطمئن ، مناسب و مکانیسم های ممیزی مستمر و ارزیابی عملکرد سیستم داشته باشند. . کارکنان بهداشت و سیستم های بهداشتی برای استفاده و نگهداری از این سیستم ها تحت شرایط استفاده ایمن و م theirثر از آنها ، باید به آموزش و آموزش دسترسی داشته باشند.

هوش مصنوعی همچنین می تواند بیماران و جوامع را قادر به کنترل مراقبت های بهداشتی خود و درک بهتر نیازهای تکاملی خود کند. برای دستیابی به این هدف ، بیماران و جوامع نیاز به اطمینان دارند که حقوق و منافع آنها تابع منافع تجاری قدرتمند شرکت های فناوری یا منافع دولت ها در نظارت و کنترل اجتماعی نخواهد بود. همچنین مستلزم آن است که پتانسیل هوش مصنوعی برای شناسایی خطرات سلامتی بیمار یا جامعه در سیستم های بهداشتی گنجانده شده است به گونه ای که استقلال و کرامت انسان را ارتقا بخشد و انسان را از مرکز تصمیم گیری بهداشت آواره نکند.

هوش مصنوعی می تواند کشورهای فقیرنشانه ، که در آن بیماران دسترسی محدودی به کارکنان مراقبت های بهداشتی یا متخصصان پزشکی دارند ، را قادر سازد تا شکاف های موجود در دسترسی به خدمات بهداشتی را برطرف کند. سیستم های هوش مصنوعی باید به دقت طراحی شوند تا انعکاس دهنده تنوع تنظیمات اقتصادی اجتماعی و بهداشتی باشد و همراه با آموزش مهارت های دیجیتالی ، مشارکت جامعه و آگاهی بخشی باشد. سیستم هایی که اساساً بر اساس داده های افراد در کشورهای با درآمد بالا ساخته شده اند ، ممکن است عملکرد خوبی در مورد افراد در محیط های کم درآمد و متوسط ​​نداشته باشند. سرمایه گذاری های کشورها در زمینه هوش مصنوعی و زیرساخت های حمایتی باید با جلوگیری از هوش مصنوعی که تعصبات مضر برای تأمین عادلانه خدمات و دسترسی به خدمات مراقبت های بهداشتی را ایجاد می کند ، به ایجاد سیستم های مراقبت بهداشتی موثر کمک کنند.

این سند راهنما که به طور مشترک توسط واحد اخلاق و حاکمیت بهداشت WHO در بخش تحقیقات بهداشت و وزارت بهداشت و نوآوری دیجیتال تهیه شده است ، بر اساس نظرات جمعی یک گروه متخصص WHO در زمینه اخلاق و حاکمیت AI برای سلامتی ، که شامل 20 متخصص در زمینه بهداشت عمومی ، پزشکی ، قانون ، حقوق بشر ، فناوری و اخلاق است. این گروه بسیاری از فرصت ها و چالش های هوش مصنوعی را مورد تجزیه و تحلیل قرار داده و سیاست ها ، اصول و روش های استفاده اخلاقی از هوش مصنوعی را برای سلامتی و ابزارهایی برای جلوگیری از سوء استفاده از آن برای تضعیف حقوق بشر و تعهدات قانونی توصیه کرده است.

هوش مصنوعی برای سلامتی تحت تأثیر همه گیر COVID-19 قرار گرفته است. اگرچه همه گیری مورد توجه این گزارش نیست ، اما فرصت ها و چالش های مرتبط با هوش مصنوعی را برای سلامتی نشان داده است. بسیاری از برنامه های جدید برای پاسخ به همه گیری ظهور کرده اند ، در حالی که سایر برنامه ها بی اثر شناخته شده اند. چندین برنامه ، نگرانی های اخلاقی را در رابطه با نظارت ، نقض حقوق حریم خصوصی و خودمختاری ، نابرابری بهداشتی و اجتماعی و شرایط لازم برای اعتماد و استفاده های مشروع از برنامه های کاربردی پر اطلاعات ایجاد کرده اند. اعضای گروه متخصص در حین مشورت درباره این گزارش ، راهنمایی های WHO برای استفاده از برنامه های ردیابی مجاورت برای ردیابی تماس COVID-19 تهیه کردند.

اصول اخلاقی کلیدی برای استفاده از هوش مصنوعی برای سلامتی

این گزارش مجموعه ای از اصول مهم اخلاقی را تأیید می کند. WHO امیدوار است که این اصول به عنوان پایه ای برای دولت ها ، توسعه دهندگان فناوری ، شرکت ها ، جامعه مدنی و سازمان های بین دولتی برای اتخاذ رویکردهای اخلاقی در استفاده مناسب از هوش مصنوعی برای سلامت مورد استفاده قرار گیرد. شش اصل در زیر خلاصه شده و بطور عمیق در بخش 5 توضیح داده شده است.

محافظت از خودمختاری انسان: استفاده از هوش مصنوعی می تواند منجر به شرایطی شود که در آن قدرت تصمیم گیری به ماشین ها منتقل شود. اصل خودمختاری ایجاب می کند که استفاده از هوش مصنوعی یا سایر سیستم های محاسباتی استقلال انسان را تضعیف نکند. در زمینه مراقبت های بهداشتی ، این بدان معنی است که انسان باید کنترل سیستم های مراقبت های بهداشتی و تصمیمات پزشکی را حفظ کند. احترام به استقلال انسان همچنین وظایف مرتبط را به دنبال دارد تا اطمینان حاصل شود که ارائه دهندگان اطلاعات لازم را برای استفاده ایمن و موثر از سیستم های هوش مصنوعی دارند و مردم نقشی را که این سیستم ها در مراقبت از آنها بازی می کنند ، درک می کنند. این امر همچنین نیاز به محافظت از حریم خصوصی و رازداری و اخذ رضایت آگاهانه معتبر از طریق چارچوب های قانونی مناسب برای حفاظت از داده ها دارد.

ارتقا رفاه و امنیت انسان و منافع عمومی: فناوری های هوش مصنوعی نباید به مردم آسیب برساند. طراحان فناوری های هوش مصنوعی باید الزامات نظارتی ایمنی ، دقت و کارایی را در موارد استفاده یا نشانه های کاملاً مشخص رعایت کنند. اقدامات کنترل کیفیت در عمل و بهبود کیفیت استفاده از هوش مصنوعی در طول زمان باید در دسترس باشد. پیشگیری از آسیب ، مستلزم آن است که هوش مصنوعی منجر به آسیب روحی یا جسمی نشود که با استفاده از یک روش یا روشهای دیگر می توان از آن جلوگیری کرد.

اطمینان از شفافیت ، قابلیت توجیح و قابل فهم بودن: فناوری های هوش مصنوعی باید برای توسعه دهندگان ، متخصصان پزشکی ، بیماران ، کاربران و تنظیم کننده ها قابل درک یا درک باشند. دو روش كلی برای فهم ، بهبود شفافیت فناوری هوش مصنوعی و قابل توضیح بودن فناوری هوش مصنوعی است. شفافیت مستلزم آن است که قبل از طراحی یا بکارگیری فناوری هوش مصنوعی ، اطلاعات کافی منتشر یا مستند شود و این اطلاعات مشاوره عمومی و بحث و گفتگو راجع به چگونگی طراحی این فناوری و چگونگی استفاده یا عدم استفاده از آن را تسهیل کند. فناوری های هوش مصنوعی باید با توجه به ظرفیت افرادی که به آنها توضیح داده می شود ، قابل توضیح باشند.

تقویت مسئولیت پذیری و پاسخگویی: انسانها به وظایفی که سیستمها می توانند انجام دهند و شرایطی که می توانند عملکرد مطلوب را داشته باشند ، به مشخصات مشخص و شفافی نیاز دارند. اگرچه فناوری های هوش مصنوعی وظایف خاصی را انجام می دهند ، اما مسئولیت ذینفعان این است که اطمینان حاصل کنند آنها می توانند آن وظایف را انجام دهند و هوش مصنوعی در شرایط مناسب و توسط افراد آموزش دیده به کار گرفته می شود. مسئولیت را می توان با استفاده از "ضمانت انسانی" ، که به معنی ارزیابی بیماران و پزشکان در توسعه و بکارگیری فناوری های هوش مصنوعی است ، تضمین کرد. ضمانت انسانی نیاز به اعمال اصول نظارتی در بالادست و پایین دست الگوریتم با ایجاد نقاط نظارت بر انسان دارد. اگر مشکلی در فناوری AI وجود دارد ، باید پاسخگویی وجود داشته باشد. برای پرسشگری و جبران خسارات برای افراد و گروههایی که تحت تأثیر تصمیمات مبتنی بر الگوریتمها هستند ، باید سازوکارهای مناسب در دسترس باشد.

اطمینان از شمول و عدالت. فراگیر بودن ، مستلزم آن است که هوش مصنوعی برای سلامتی به منظور تشویق و استفاده گسترده و مناسب ، عادلانه و بدون توجه به سن ، جنس ، جنس ، درآمد ، نژاد ، قومیت ، گرایش جنسی ، توانایی یا سایر خصوصیاتی که تحت قوانین حقوق بشر محافظت می شود ، طراحی شود. فناوری هوش مصنوعی ، مانند هر فناوری دیگر ، باید تا حد ممکن گسترده به اشتراک گذاشته شود. فناوری های هوش مصنوعی باید برای استفاده نه تنها در زمینه ها و نیازها در تنظیمات با درآمد بالا بلکه در زمینه ها و ظرفیت و تنوع LMIC نیز در دسترس باشند. فن آوری های هوش مصنوعی نباید تعصبات مربوط به ضرر گروه های قابل شناسایی ، به ویژه گروه هایی را که قبلاً به حاشیه رانده شده اند ، رمزگذاری کنند. تعصب تهدیدی برای شمولیت و عدالت است ، زیرا می تواند منجر به ترک ، اغلب خودسرانه ، از رفتار برابر شود. فناوری های هوش مصنوعی باید اختلافات اجتناب ناپذیری در قدرت را که بین ارائه دهندگان و بیماران ، بین سیاست گذاران و مردم و شرکت ها و دولت هایی که فناوری های هوش مصنوعی را ایجاد و به کار می گیرند و کسانی که از آنها استفاده می کنند و به آنها تکیه می کنند ، به حداقل برسانند. ابزارها و سیستم های هوش مصنوعی باید شناسایی و ارزیابی شوند تا تأثیرات نامتناسب بر گروه های خاصی از افراد مشخص شود. هیچ فناوری ، هوش مصنوعی یا سایر موارد ، نباید اشکال موجود تعصب و تبعیض را حفظ یا بدتر کند.

ارتقا هوش مصنوعی پاسخگو و پایدار: پاسخگویی مستلزم آن است که طراحان ، توسعه دهندگان و کاربران به طور مداوم ، سیستماتیک و شفاف برنامه های هوش مصنوعی را در حین استفاده واقعی ارزیابی کنند. آنها باید تعیین کنند که آیا هوش مصنوعی به اندازه کافی و مناسب و با توجه به انتظارات و الزامات مشروع اعلام شده پاسخ می دهد. پاسخگویی همچنین مستلزم آن است که فناوری های هوش مصنوعی با ارتقاء گسترده تر پایداری سیستم های بهداشتی ، محیط ها و محل کار سازگار باشد. سیستم های هوش مصنوعی باید به گونه ای طراحی شوند که پیامدهای زیست محیطی آنها را به حداقل برسانند و بازده انرژی را افزایش دهند. یعنی ، استفاده از هوش مصنوعی باید با تلاش های جهانی برای کاهش تأثیر انسان بر محیط زیست زمین ، اکوسیستم ها و آب و هوا مطابقت داشته باشد. پایداری همچنین دولت ها و شرکت ها را ملزم می کند تا با اختلالات پیش بینی شده در محل کار ، از جمله آموزش کارکنان مراقبت های بهداشتی برای انطباق با استفاده از سیستم های هوش مصنوعی و از دست دادن شغل های احتمالی ناشی از استفاده از سیستم های خودکار ، مقابله کنند.

مروری بر گزارش

این گزارش به نه بخش و یک ضمیمه تقسیم شده است.

بخش 1 منطق مشارکت WHO در این موضوع و خوانندگان در نظر گرفته شده برای یافته ها ، تحلیل ها و توصیه های گزارش را توضیح می دهد. در بخشهای 2 و 3 هوش مصنوعی برای سلامتی از طریق روشها و کاربردهای آن تعریف شده است. بخش 2 تعریفی غیر فنی از هوش مصنوعی ارائه می دهد که شامل اشکال مختلفی از یادگیری ماشین به عنوان زیرمجموعه تکنیک های هوش مصنوعی است. همچنین "داده های بزرگ" ، از جمله منابع داده ای که شامل داده های بزرگ زیست پزشکی یا بهداشتی است ، تعریف می شود. بخش 3 یک طبقه بندی غیر جامع و نمونه هایی از فناوری های هوش مصنوعی برای سلامتی ، از جمله برنامه های مورد استفاده در LMIC ، مانند پزشکی ، تحقیقات بهداشتی ، توسعه دارو ، مدیریت و برنامه ریزی سیستم های بهداشتی و نظارت بر بهداشت عمومی را ارائه می دهد.

بخش 4 خلاصه ای از قوانین ، سیاست ها و اصولی است که در استفاده از AI برای سلامتی اعمال می شود یا می تواند اعمال شود. این موارد شامل تعهدات حقوق بشر در مورد AI ، نقش قوانین و چارچوب های محافظت از داده ها و سایر قوانین و سیاست های داده های بهداشتی است. این بخش چندین چارچوب را توصیف می کند که اصول اخلاقی استفاده از هوش مصنوعی برای سلامتی را ستایش می کند ، همچنین نقش اخلاق زیستی ، قانون ، سیاست های عمومی و چارچوب های نظارتی را به عنوان منابع هنجارهای اخلاقی ستایش می کند.

بخش 5 شش اصل اخلاقی را توصیف می کند که گروه متخصص به عنوان راهنمای توسعه و استفاده از AI برای سلامتی شناسایی کرده است. بخش 6 چالشهای اخلاقی مشخص شده و مورد بحث توسط گروه متخصص را كه می توان از آنها به عنوان اصول اخلاقی راهنما استفاده كرد ، استفاده می كند: AI و شکاف دیجیتالی جمع آوری و استفاده از داده ها ؛ پاسخگویی و مسئولیت تصمیم گیری با هوش مصنوعی ؛ تصمیم گیری مستقل ؛ تعصب و تبعیض مرتبط با هوش مصنوعی ؛ خطرات AI برای ایمنی و امنیت سایبری. تأثیرات هوش مصنوعی بر کار و اشتغال در مراقبت های بهداشتی ؛ چالش های تجاری سازی هوش مصنوعی برای مراقبت های بهداشتی ؛ و هوش مصنوعی و تغییرات آب و هوایی. بخشهای پایانی گزارش اقدامات قانونی ، نظارتی و غیرقانونی برای ارتقاء استفاده اخلاقی از هوش مصنوعی برای سلامتی ، از جمله چارچوب های حاکمیتی مناسب را مشخص می کند.

بخش 7 بررسی می کند که چگونه ذینفعان مختلف می توانند اقدامات اخلاقی ، برنامه ها و اقدامات اخلاقی را برای پیش بینی یا تحقق هنجارهای اخلاقی و تعهدات قانونی معرفی کنند. آنها شامل: طراحی اخلاقی ، شفاف فناوری های هوش مصنوعی ؛ مکانیسم های تعامل و نقش مردم و نشان دادن قابلیت اطمینان با ارائه دهندگان و بیماران. ارزیابی اثرات؛ و یک برنامه تحقیقاتی برای استفاده اخلاقی از AI برای مراقبت های بهداشتی.

بخش 8 بحث در مورد چگونگی تکامل نظام های مسئولیت با افزایش استفاده از AI برای مراقبت های بهداشتی است. این شامل چگونگی انتساب مسئولیت به یک ارائه دهنده مراقبت های بهداشتی ، یک ارائه دهنده فناوری و یک سیستم مراقبت های بهداشتی یا بیمارستانی است که یک فناوری AI را انتخاب می کند و اینکه چگونه قوانین مسئولیت ممکن است بر نحوه استفاده یک پزشک از AI تأثیر بگذارد. این بخش همچنین بررسی می کند که آیا الگوریتم های یادگیری ماشین محصولات هستند ، نحوه جبران خسارت به افراد آسیب دیده از فناوری های هوش مصنوعی ، نقش سازمان های نظارتی و جنبه های خاص  LMIC

بخش 9 عناصر یک چارچوب حاکمیتی برای هوش مصنوعی را برای سلامتی ارائه می دهد. "حاکمیت در سلامت" به طیف وسیعی از توابع برای هدایت و تصمیم گیری توسط دولتها و سایر تصمیم گیرندگان ، از جمله آژانس های بهداشتی بین المللی ، برای دستیابی به اهداف سیاست ملی بهداشت که منجر به پوشش بهداشت جهانی می شود ، اشاره دارد. این بخش چندین چارچوب حاکمیت را که در حال توسعه هستند یا از قبل بالغ شده اند ، مورد تجزیه و تحلیل قرار می دهد. چارچوب های مورد بحث عبارتند از: حاکمیت داده ها ، کنترل و اشتراک منافع ، حاکمیت بخش خصوصی ، حاکمیت بخش دولتی ، ملاحظات نظارتی ، نقش رصد سیاست و قانونگذاری مدل و حاکمیت جهانی هوش مصنوعی.

سرانجام ، این گزارش توصیه های عملی برای اجرای راهنمایی های WHO برای سه مجموعه از ذینفعان را ارائه می دهد: توسعه دهندگان فناوری AI ، وزارتخانه های بهداشت و ارائه دهندگان مراقبت های بهداشتی. این ملاحظات فقط به عنوان یک نقطه شروع برای بحثها و تصمیمات خاص ذینفعان مختلف در نظر گرفته شده است.

در حالی که خوانندگان اصلی این سند راهنما وزارتخانه های بهداشت هستند ، همچنین برای سایر نهادهای دولتی ، وزارتخانه هایی که هوش مصنوعی را تنظیم می کنند ، کسانی که از فناوری های AI برای بهداشت استفاده می کنند و نهادهایی که فناوری های AI را برای سلامت طراحی و تأمین مالی می کنند ، در نظر گرفته شده است.

اجرای این راهنما نیاز به اقدام جمعی دارد. شرکت ها و دولت ها باید فناوری های هوش مصنوعی را فقط برای بهبود وضعیت انسانی و نه برای اهدافی مانند نظارت بی دلیل یا افزایش فروش کالاها و خدمات تجاری غیرمرتبط معرفی کنند. ارائه دهندگان باید فن آوری های مناسب را بخواهند و از آنها برای به حداکثر رساندن وعده هوش مصنوعی و تخصص پزشکان استفاده کنند. بیماران ، سازمانهای جامعه و جامعه مدنی باید بتوانند دولتها و شرکتها را مورد بازخواست قرار دهند ، در طراحی فن آوری ها و قوانین مشارکت داشته باشند ، استانداردها و رویکردهای جدید را توسعه دهند و شفافیت را برای تأمین نیازهای خود و همچنین نیازهای آنها جستجو کنند. جوامع و سیستم های بهداشتی آنها.

هوش مصنوعی برای سلامتی یک زمینه سریع ، در حال تحول است و بسیاری از برنامه های کاربردی ، که هنوز پیش بینی نشده است ، با سرمایه گذاری بیشتر دولتی و خصوصی ظاهر می شوند. WHO ممکن است صدور رهنمودهای خاص را برای ابزارها و برنامه های اضافی در نظر بگیرد و برای همگام شدن با این زمینه که به سرعت در حال تغییر است ، این راهنما را به صورت دوره ای به روز کند.

منبع: WHO

مرورگر شما قادر به خواندن PDF نیست لطفا برای دانلود فایل اینجا را کلیک کنید.

فایل های ضمیمه

دانلود فایل

نویسنده
نرگس پارسا

نرگس پارسا

فارغ التحصیل رشته فناوری اطلاعات سلامت و علاقه مند به حوزه یادگیری الکترونیکی در آموزش پزشکی و سلامت الکترونیک

مطالب پیشنهادی
Digital Health Critical and Cross Disciplinary Perspectives

Digital Health Critical and Cross Disciplinary Perspectives

ظهور فن آوری های بهداشت دیجیتال ، از نظر برخی ، نوعی نگرانی برای بسیاری از چالش های پزشکی و بهداشت عمومی است که امروز با آن روبرو هستیم. این نخستین کتابی است که می تواند پاسخی انتقادی به دیدگاه تکنو-اتوپیایی و کارآفرینی بهداشت و درمان دیجیتال ارائه دهد.