Снижение рисков при использовании машинного обучения в диагностике бронхолегочных заболеваний
- Авторы: Юсупова Н.И.1, Богданов М.Р.1, Сметанина О.Н.1
-
Учреждения:
- Уфимский государственный авиационный технический университет
- Выпуск: № 1 (2023)
- Страницы: 42-54
- Раздел: Машинное обучение, нейронные сети
- URL: https://bakhtiniada.ru/2071-8594/article/view/269763
- DOI: https://doi.org/10.14357/20718594230105
- ID: 269763
Цитировать
Полный текст
Аннотация
В статье рассматриваются вопросы снижения рисков при использовании программных решений, основанных на методах машинного обучения для классификации изображений, на примере ренгеновских снимков грудной клетки, при диагностике бронхолегочных заболеваний. Сформулирована постановка задачи по обеспечению снижения риска ошибочной диагностики за счет применения мер противодействия вредоносным атакам. На основе экспериментальных данных, в качестве которых использованы ренгеновские снимки грудной клетки, выявлены методы машинного обучения для решения задачи классификации, наиболее опасные атаки, снижающие эффективность распознавания, меры противодействия атакам для снижения рисков. Результаты экспериментальных исследований позволили сформулировать рекомендации в виде правил, включающих комбинации методов распознавания, атак и мер противодействия для снижения риска ошибочной диагностики.
Полный текст

Об авторах
Нафиса Исламовна Юсупова
Уфимский государственный авиационный технический университет
Автор, ответственный за переписку.
Email: yusupova.ni@ugatu.su
Доктор технических наук, профессор. Профессор
Россия, УфаМарат Робертович Богданов
Уфимский государственный авиационный технический университет
Email: bogdanov_marat@mail.ru
Кандидат биологических наук, доцент. Профессор
Россия, УфаОльга Николаевна Сметанина
Уфимский государственный авиационный технический университет
Email: smoljushka@mail.ru
Доктор технических наук, доцент. Профессор
Россия, УфаСписок литературы
- Patricia AH Williams, Andrew J Woodward. Cybersecurity vulnerabilities in medical devices: a complex environment and multifaceted problem. Medical Devices: Evidence and Research 2015:8.
- Makary MA, Daniel M. Medical error-the third leading cause of death in the US. BMJ. 2016 May 3; 353:i2139.
- Molly T. Beinfeld, Guy Scott Gazelle. Diagnostic Imaging Costs: Are They Driving Up the Costs of Hospital Care? Radiology 235(3):934-9. 2005.
- Kyriakos D. Apostolidis and George A. Papakostas. A Survey on Adversarial Deep Learning Robustness in Medical Image Analysis. Electronics 2021, 10, 2132.
- Maliamanis T., Papakostas G.A. Machine Learning Vulnerability in Medical Imaging. In Machine Learning, Big Data, and IoT for Medical Informatics, 1st ed.; Elsevier: Amsterdam, The Netherlands, 2021. Available online: https://www.elsevier.com/books/machine-learning-big-data-and-iot-for-medical-informatics/xhafa/978-0-12-821777-1 (accessed on 4 June 2021).
- Tyukin I.Y., Higham D.J., Gorban A.N. On Adversarial Examples and Stealth Attacks in Artificial Intelligence Systems. In Proceedings of the 2020 International Joint Conference on Neural Networks (IJCNN), Glasgow, UK, 19–24 July 2020. Р.1–6.
- Mangaokar N., Pu J., Bhattacharya P., Reddy, C.K., Viswanath B. Jekyll: Attacking Medical Image Diagnostics using Deep Generative Models. In Proceedings of the 2020 IEEE European Symposium on Security and Privacy (EuroS&P), Genoa, Italy, 7–11 September 2020. Р. 139–157.
- Сяо Ин Линь, Баттиста Биджио. Вредоносное машинное обучение: атаки из лабораторий в реальный мир// Открытые системы. СУБД. 2021. № 03.
- Ильюшин Е.А., Намиот Д.Е., Чижов И.В. Атаки на системы машинного обучения – общие проблемы и методы // International Journal of Open Information Technologies. 2022. Vol. 10. No. 3. P. 17-21.
- Szegedy C., Vanhoucke V., Ioffe S., Shlens J., Wojna Z. Rethinking the Inception Architecture for Computer Vision. In Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, 26 June–1 July 2016. P. 2818–2826.
- Goodfellow I.J., Shlens J., Szegedy C. Explaining and Harnessing Adversarial Examples. arXiv 2015, arXiv:1412.6572. Available online: http://arxiv.org/abs/1412.6572 (accessed on 4 June 2021).
- Nicolas Papernot, Patrick McDaniel, Ian Goodfellow, Somesh Jha, Z. Berkay Celik, Ananthram Swami. Practical Black-Box Attacks against Machine Learning. Proceedings of the 2017 ACM Asia Conference on Computer and Communications Security, Abu Dhabi, UAE.
- Moosavi-Dezfooli S.-M., Fawzi A., Fawzi O., Frossard P. Universal Adversarial Perturbations. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21–26 July 2017. P. 86–94.
- Carlini, N. and Wagner, D. A. Towards evaluating the robustness of neural networks. In SP. IEEE Computer Society. 2017.
- Chen P., Zhang H., Sharma Y., Yi J. and Hsieh C. ZOO: zeroth order optimization based black-box attacks to deep neural networks without training substitute models. In AISec@CCS. ACM. 2017.
- Moosavi-Dezfooli S.-M., Fawzi A., Fawzi O., Frossard P. Universal Adversarial Perturbations. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21–26 July 2017. P. 86–94.
- Huang Y., Würfl T., Breininger K., Liu L., Lauritsch G., Maier A. Some Investigations on Robustness of Deep Learning in Limited Angle Tomography. In Medical Image Computing and Computer Assisted Intervention— MICCAI 2018; Frangi, A.F., Schnabel, J.A., Davatzikos, C., Alberola-López, C., Fichtinger, G., Eds.; Springer International Publishing: Cham, Switzerland, 2018; Volume 11070. P. 145–153.
- Lu J., Issaranon T., Forsyth D. Safetynet: Detecting and rejecting adversarial examples robustly. ICCV. 2017.
- Metzen, J.H.; Genewein, T.; Fischer, V.; Bischoff, B. On Detecting Adversarial Perturbations. arXiv 2017, arXiv:1702.04267. Available online: http://arxiv.org/abs/1702.04267 (accessed on 4 June 2021).
- Shixiang Gu, Luca Rigazio. Towards Deep Neural Network Architectures Robust to Adversarial Examples.
- Wang, Bolun & Yao, Yuanshun & Shan, Shawn & Li, Huiying & Viswanath, Bimal & Zheng, Haitao & Zhao, Ben. (2019). Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks. Р.707-723.
- https://www.kaggle.com/c/vinbigdata-chest-xray-abnormalities-detection.
- Hinton G., Vinyals O., Dean J. Distilling the knowledge in a neural network,” in Deep Learning and Representation Learning Workshop at NIPS 2014. arXiv preprint arXiv:1503.02531. 2014.
- Nicolas Papernot, Patrick McDaniel, Xi Wu, Somesh Jha, and Ananthram Swami. Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks. 2016 IEEE Symposium on Security and Privacy.
- Wang B. et al. Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks,"2019 IEEE Symposium on Security and Privacy (SP). 2019. P.707-723.
