Проблемы медицинского искусственного интеллекта. Часть 1

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Обоснование. Медицинский искусственный интеллект — динамично развивающееся направление, к которому нужно относиться не только как к науке, но и как к искусству. Это значительно усложняет эксплуатацию искусственного интеллекта по сравнению с компьютерными программами, снабжаемыми пользовательской инструкцией.

Инновации в области медицинского искусственного интеллекта стремительно множатся: растет популярность умных мобильных устройств, сетевых приложений и удаленных цифровых сервисов. Однако существует ряд серьезных проблем, затрудняющих широкое использование алгоритмов искусственного интеллекта в повседневной клинической практике. Причинами сложностей являются высокая стоимость разработки нейросетевых платформ и недостаточный уровень квалификации медицинского персонала в области цифровых технологий. Однако есть веские основания полагать, что данные трудности со временем будут постепенно преодолеваться.

Заключение. В данной статье рассмотрены наиболее проблемные аспекты, препятствующие прогрессу технологий машинного обучения в здравоохранении.

Об авторах

Виталий Анатольевич Бердутин

Государственный научный центр Российской Федерации — Федеральный медицинский биофизический центр имени А.И. Бурназяна

Email: vberdt@gmail.com
ORCID iD: 0000-0003-3211-0899
SPIN-код: 8316-7111

канд. мед. наук

Россия, Москва

Татьяна Евгеньевна Романова

Приволжский исследовательский медицинский университет

Email: drmedromanova@gmail.com
ORCID iD: 0000-0001-6328-079X
SPIN-код: 4943-6121

канд. мед. наук

Россия, Нижний Новгород

Сергей Владимирович Романов

Приволжский окружной медицинский центр Федерального медико-биологического агентства

Email: director@pomc.ru
ORCID iD: 0000-0002-1815-5436
SPIN-код: 9014-6344

д-р мед. наук

Россия, Нижний Новгород

Ольга Петровна Абаева

Государственный научный центр Российской Федерации — Федеральный медицинский биофизический центр имени А.И. Бурназяна

Автор, ответственный за переписку.
Email: abaevaop@inbox.ru
ORCID iD: 0000-0001-7403-7744
SPIN-код: 5602-2435

д-р мед. наук, проф. 

Россия, Москва

Список литературы

  1. Присяжная Н.В., Решетников А.В. Образование в условиях пандемии: векторы цифровой трансформации // Социологические исследования. 2022. № 4. С. 149-151. EDN: IVSVOX doi: 10.31857/S013216250018694-6
  2. Решетников А.В., Шамшурина Н.Г., Шамшурин В.И. Экономика и управление в здравоохранении. 2-е изд. Москва: Издательство Юрайт, 2020. EDN: KSZBPT
  3. Бердутин В.А., Абаева О.П., Романова Т.Е., Романов С.В. Применение искусственного интеллекта в медицине: достижения и перспективы. Обзор литературы. Часть 1 // Социология медицины. 2022. Т. 21, № 1. C. 83-96. EDN: ZGRLWS doi: 10.17816/socm106054
  4. Бердутин В.А., Абаева О.П., Романова Т.Е., Романов С.В. Применение искусственного интеллекта в медицине: достижения и перспективы. Обзор литературы. Часть 2 // Социология медицины. 2022. Т. 21, № 2. C. 203-209. EDN: VLBRCV doi: 10.17816/socm107908
  5. 4 Common Ways That AI Driven Medical Devices Can Fail. В: JD Supra [Интернет]. Sausalito: JD Supra, LLC, 2023. Режим доступа: https://www.jdsupra.com/legalnews/4-common-ways-that-ai-driven-medical-3346085/ Дата обращения: 24.01.2024
  6. Quinn T.P., Senadeera M., Jacobs S., Coghlan S., Le V. Trust and medical AI: the challenges we face and the expertise needed to overcome them // J Am Med Inform Assoc. 2021. Vol. 28, N 4. P. 890-894. doi: 10.1093/jamia/ocaa268
  7. Решетников А.В., Моисеенко Н.В., Хачатурьянц Г.А. Прозрачность учета лекарственных средств и медицинских изделий в медицинских организациях - актуальные задачи и возможности // Обязательное медицинское страхование в российской федерации. 2020. № 1. С. 52-57 EDN: GDBPZD
  8. Brundage M., Avin S., Clark J., et al. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. [Internet]. 2018. Режим доступа: https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/MaliciousUseofAI.pdf?ver=1553030594217 Дата обращения: 21.09.2023
  9. Stoecklin M.P., Jang J., Kirat D. DeepLocker: How AI Can Power a Stealthy New Breed of Malware. Security Intelligence. [Internet]. 2018. Режим доступа: https://securityintelligence.com/deeplocker-how-ai-can-power-a-stealthy-new-breed-of-malware/ Дата обращения: 21.09.2023
  10. Berdutin V. Socionic vision on Bioethics and Deontology. Lap Lambert Academic Publishing, 2018.
  11. Reshetnikov A., Fedorova J., Prisyazhnaya N., et al. Health management for sustainable development. В кн.: 2018 Second World Conference on Smart Trends in Systems, Security and Sustainability (WorldS4). IEEE, 2018.
  12. Powles J., Hodson H. Google DeepMind and healthcare in an age of algorithms // Health Technol. 2017. Vol. 7, N 4. P. 351-367. doi: 10.1007/s12553-017-0179-1
  13. Howard A., Borenstein J. The ugly truth about ourselves and our robot creations: the problem of bias and social inequity // Sci Eng Ethics. 2018. Vol. 24, N 5. P. 152-36. doi: 10.1007/s11948-017-9975-2
  14. Ma X., Niu Y., Gu L., et al. Understanding adversarial attacks on deep learning based medical image analysis systems // Pattern Recogn. 2020. P. 107332 doi: 10.1016/j.patcog.2020.107332
  15. Reddy S., Allan S., Coghlan S., Cooper P. A governance model for the application of AI in health care // J Am Med Inform Assoc. 2020. Vol. 27, N 3. P. 491-497. doi: 10.1093/jamia/ocz192
  16. Babel B., Buehler K., Pivonka A., Richardson B., Waldron D. Derisking machine learning and artificial intelligence. Technical report. [Internet]. McKinsey&Company, 2019. Режим доступа: https://www.mckinsey.com/business-functions/risk/our-insights/derisking-machine-learning-and-artificial-intelligence Дата обращения: 21.09.2023
  17. Bottou L. From machine learning to machine reasoning // Mach Learn. 2014. Vol. 94, N 2. P. 133-149. doi: 10.1007/s10994-013-5335-x
  18. Artificial intelligence for authentic engagement: patient perspectives on health care’s evolving AI conversation. [Internet]. Syneos Health Communications. 2018. Режим доступа: https://syneoshealthcommunications.com/perspectives/artificial-intelligence-for-authentic-engagement Дата обращения: 22.09.2023
  19. Vayena E., Blasimme A., Cohen I.G. Machine learning in medicine: addressing ethical challenges // PLoS Med. 2018. Vol. 15, N 11. P. e1002689. doi: 10.1371/journal.pmed.1002689
  20. Alvarez-Melis D., Jaakkola T.S. Towards robust interpretability with self-explaining neural networks. В кн.: Proceedings of 32nd Conference on Neural Information Processing Systems (NeurIPS). Montreal, 2018.
  21. Grote T., Berens P. On the ethics of algorithmic decision-making in healthcare // J Med Ethics. 2020. Vol. 46, N 3. P. 205-211. doi: 10.1136/medethics-2019-105586
  22. Payrovnaziri S.N., Chen Z., Rengifo-Moreno P., et al. Explainable artificial intelligence models using real-world electronic health record data: a systematic scoping review // J Am Med Inform Assoc. 2020. Vol. 27, N 7. P. 1173-1185. doi: 10.1093/jamia/ocaa053
  23. DeCamp M., Lindvall C. Latent bias and the implementation of artificial intelligence in medicine // J Am Med Inform Assoc. 2020. Vol. 27, N 12. P. 2020-2023. doi: 10.1093/jamia/ocaa094
  24. Bjerring J.C., Busch J. Artificial intelligence and patient-centered decision-making // Philos Technol. 2021. Vol. 34. P. 349-371. doi: 10.1007/s13347-019-00391-6
  25. Ploug T., Holm S. The right to refuse diagnostics and treatment planning by artificial intelligence // Med Health Care Philos. 2020. Vol. 23, N 1. P. 107-114. doi: 10.1007/s11019-019-09912-8
  26. Nagendran M., Chen Y., Lovejoy C.A., et al. Artificial intelligence versus clinicians: systematic review of design, reporting standards, and claims of deep learning studies // BMJ. 2020. Vol. 368. P. m689. doi: 10.1136/bmj.m689
  27. Gunning D., Aha D. DARPA’s Explainable Artificial Intelligence (XAI) program // AIMag. 2019. Vol. 40, N 2. P. 44-58. doi: 10.1609/aimag.v40i2.2850
  28. Dalton-Brown S. The ethics of medical AI and the physician-patient relationship // Camb Q Healthc Ethics. 2020. Vol. 29, N 1. P. 115-121. doi: 10.1017/S0963180119000847
  29. Proposed regulatory framework for modifications to artificial intelligence/machine learning (AI/ML)-based software as a medical device (SaMD): Discussion Paper. [Internet]. FDA, 2019. Режим доступа: https://www.fda.gov/media/122535/download Дата обращения: 22.09.2023
  30. Shukla S. Enhancing healthcare insights, exploring diverse use-cases with K-means clustering // International Journal of Management, IT & Engineering. 2023. Vol. 13, N 8. P. 60-68.
  31. Keane P.A., Topol E.J. With an eye to AI and autonomous diagnosis // NPJ Digit Med. 2018. Vol. 1. P. 40. doi: 10.1038/s41746-018-0048-y
  32. Winkler J.K., Fink C., Toberer F., et al. Association between surgical skin markings in dermoscopic images and diagnostic performance of a deep learning convolutional neural network for melanoma recognition // JAMA Dermatol. 2019. Vol. 155, N 10. P. 1135-1141. doi: 10.1001/jamadermatol.2019.1735
  33. Kelly С.J., Karthikesalingam A., Suleyman M., Corrado G., King D. Key challenges for delivering clinical impact with artificial intelligence // BMC Medicine. 2019. Vol. 17, N 1. P. 195. doi: 10.1186/s12916-019-1426-2
  34. Бердутин В.А., Бердутина Э.В. Логистика прикладных решений для бережливого здравоохранения и соционическая типология. Beau Bassin: LAP LAMBERT Academic Publishing, 2020.
  35. Giuste F.O., Sequeira R., Keerthipati V.,et al. Explainable synthetic image generation to improve risk assessment of rare pediatric heart transplant rejection // Journal of Biomedical Informatics. 2023. Vol. 139, N 3. P. 104303. doi: 10.1016/j.jbi.2023.104303

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Вредоносное программное обеспечение на базе искусственного интеллекта DeepLocker: 1 — сокрытие целевого класса поиска (например, человек, организация); 2 — сокрытие целевого объекта (если целевым классом является физическое лицо, не раскрывается, какое конкретно лицо); 3 — сокрытие незаконных намерений (ключевой алгоритм полностью зашифрован, способ выполнения финальной атаки скрыт)

Скачать (19KB)

© Эко-Вектор, 2023

Ссылка на описание лицензии: https://eco-vector.com/for_authors.php#07
 


Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».