Снижение рисков при использовании машинного обучения в диагностике бронхолегочных заболеваний

Обложка

Цитировать

Полный текст

Аннотация

В статье рассматриваются вопросы снижения рисков при использовании программных решений, основанных на методах машинного обучения для классификации изображений, на примере ренгеновских снимков грудной клетки, при диагностике бронхолегочных заболеваний. Сформулирована постановка задачи по обеспечению снижения риска ошибочной диагностики за счет применения мер противодействия вредоносным атакам. На основе экспериментальных данных, в качестве которых использованы ренгеновские снимки грудной клетки, выявлены методы машинного обучения для решения задачи классификации, наиболее опасные атаки, снижающие эффективность распознавания, меры противодействия атакам для снижения рисков. Результаты экспериментальных исследований позволили сформулировать рекомендации в виде правил, включающих комбинации методов распознавания, атак и мер противодействия для снижения риска ошибочной диагностики.

Полный текст

Доступ закрыт

Об авторах

Нафиса Исламовна Юсупова

Уфимский государственный авиационный технический университет

Автор, ответственный за переписку.
Email: yusupova.ni@ugatu.su

Доктор технических наук, профессор. Профессор

Россия, Уфа

Марат Робертович Богданов

Уфимский государственный авиационный технический университет

Email: bogdanov_marat@mail.ru

Кандидат биологических наук, доцент. Профессор

Россия, Уфа

Ольга Николаевна Сметанина

Уфимский государственный авиационный технический университет

Email: smoljushka@mail.ru

Доктор технических наук, доцент. Профессор

Россия, Уфа

Список литературы

  1. Patricia AH Williams, Andrew J Woodward. Cybersecurity vulnerabilities in medical devices: a complex environment and multifaceted problem. Medical Devices: Evidence and Research 2015:8.
  2. Makary MA, Daniel M. Medical error-the third leading cause of death in the US. BMJ. 2016 May 3; 353:i2139.
  3. Molly T. Beinfeld, Guy Scott Gazelle. Diagnostic Imaging Costs: Are They Driving Up the Costs of Hospital Care? Radiology 235(3):934-9. 2005.
  4. Kyriakos D. Apostolidis and George A. Papakostas. A Survey on Adversarial Deep Learning Robustness in Medical Image Analysis. Electronics 2021, 10, 2132.
  5. Maliamanis T., Papakostas G.A. Machine Learning Vulnerability in Medical Imaging. In Machine Learning, Big Data, and IoT for Medical Informatics, 1st ed.; Elsevier: Amsterdam, The Netherlands, 2021. Available online: https://www.elsevier.com/books/machine-learning-big-data-and-iot-for-medical-informatics/xhafa/978-0-12-821777-1 (accessed on 4 June 2021).
  6. Tyukin I.Y., Higham D.J., Gorban A.N. On Adversarial Examples and Stealth Attacks in Artificial Intelligence Systems. In Proceedings of the 2020 International Joint Conference on Neural Networks (IJCNN), Glasgow, UK, 19–24 July 2020. Р.1–6.
  7. Mangaokar N., Pu J., Bhattacharya P., Reddy, C.K., Viswanath B. Jekyll: Attacking Medical Image Diagnostics using Deep Generative Models. In Proceedings of the 2020 IEEE European Symposium on Security and Privacy (EuroS&P), Genoa, Italy, 7–11 September 2020. Р. 139–157.
  8. Сяо Ин Линь, Баттиста Биджио. Вредоносное машинное обучение: атаки из лабораторий в реальный мир// Открытые системы. СУБД. 2021. № 03.
  9. Ильюшин Е.А., Намиот Д.Е., Чижов И.В. Атаки на системы машинного обучения – общие проблемы и методы // International Journal of Open Information Technologies. 2022. Vol. 10. No. 3. P. 17-21.
  10. Szegedy C., Vanhoucke V., Ioffe S., Shlens J., Wojna Z. Rethinking the Inception Architecture for Computer Vision. In Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, 26 June–1 July 2016. P. 2818–2826.
  11. Goodfellow I.J., Shlens J., Szegedy C. Explaining and Harnessing Adversarial Examples. arXiv 2015, arXiv:1412.6572. Available online: http://arxiv.org/abs/1412.6572 (accessed on 4 June 2021).
  12. Nicolas Papernot, Patrick McDaniel, Ian Goodfellow, Somesh Jha, Z. Berkay Celik, Ananthram Swami. Practical Black-Box Attacks against Machine Learning. Proceedings of the 2017 ACM Asia Conference on Computer and Communications Security, Abu Dhabi, UAE.
  13. Moosavi-Dezfooli S.-M., Fawzi A., Fawzi O., Frossard P. Universal Adversarial Perturbations. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21–26 July 2017. P. 86–94.
  14. Carlini, N. and Wagner, D. A. Towards evaluating the robustness of neural networks. In SP. IEEE Computer Society. 2017.
  15. Chen P., Zhang H., Sharma Y., Yi J. and Hsieh C. ZOO: zeroth order optimization based black-box attacks to deep neural networks without training substitute models. In AISec@CCS. ACM. 2017.
  16. Moosavi-Dezfooli S.-M., Fawzi A., Fawzi O., Frossard P. Universal Adversarial Perturbations. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, USA, 21–26 July 2017. P. 86–94.
  17. Huang Y., Würfl T., Breininger K., Liu L., Lauritsch G., Maier A. Some Investigations on Robustness of Deep Learning in Limited Angle Tomography. In Medical Image Computing and Computer Assisted Intervention— MICCAI 2018; Frangi, A.F., Schnabel, J.A., Davatzikos, C., Alberola-López, C., Fichtinger, G., Eds.; Springer International Publishing: Cham, Switzerland, 2018; Volume 11070. P. 145–153.
  18. Lu J., Issaranon T., Forsyth D. Safetynet: Detecting and rejecting adversarial examples robustly. ICCV. 2017.
  19. Metzen, J.H.; Genewein, T.; Fischer, V.; Bischoff, B. On Detecting Adversarial Perturbations. arXiv 2017, arXiv:1702.04267. Available online: http://arxiv.org/abs/1702.04267 (accessed on 4 June 2021).
  20. Shixiang Gu, Luca Rigazio. Towards Deep Neural Network Architectures Robust to Adversarial Examples.
  21. Wang, Bolun & Yao, Yuanshun & Shan, Shawn & Li, Huiying & Viswanath, Bimal & Zheng, Haitao & Zhao, Ben. (2019). Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks. Р.707-723.
  22. https://www.kaggle.com/c/vinbigdata-chest-xray-abnormalities-detection.
  23. Hinton G., Vinyals O., Dean J. Distilling the knowledge in a neural network,” in Deep Learning and Representation Learning Workshop at NIPS 2014. arXiv preprint arXiv:1503.02531. 2014.
  24. Nicolas Papernot, Patrick McDaniel, Xi Wu, Somesh Jha, and Ananthram Swami. Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks. 2016 IEEE Symposium on Security and Privacy.
  25. Wang B. et al. Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks,"2019 IEEE Symposium on Security and Privacy (SP). 2019. P.707-723.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Аннотированные сканы грудной клетки

Скачать (437KB)
3. Рис. 2. Искажения исходных изображений после атаки Zero order optimization

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».