Анализ эффективности и робастности нейронных сетей с ранними выходами в задачах компьютерного зрения

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Во многих встраиваемых системах и устройствах интернета вещей (IoT) применяются нейросетевые алгоритмы для различных задач обработки информации. При этом разработчики сталкиваются с проблемой недостаточности вычислительных ресурсов для эффективного функционирования, особенно в задачах реального (псевдо) времени. В связи с этим актуальной является задача нахождение баланса между качеством результатов и вычислительной сложностью. Одним из способов повышения вычислительной эффективности нейронных сетей, является применение архитектур нейронных сетей с ранними выходами (например, BranchyNet), позволяющие принимать решения до прохождения всех слоев нейронной сети, в зависимости от исходных данных при заданной достоверности результатов. Цель исследования: провести анализ применимости, эффективности и робастности нейронных сетей с ранними выходами (BranchyResNet18) в задачах компьютерного зрения. Анализ проводится на основе набора данных дорожных знаков GTSRB. Методология исследования представляет собой экспериментальный анализ эффективности на основе расчета количества операций с плавающей запятой (FLOP) для получения результатов с заданной точностью, и экспериментальный анализ робастности на основе генерации различных шумовых воздействий и состязательных атак. Результаты исследования: получены оценки эффективности нейронных сетей с ранним выходом и их робастность к непреднамеренным и преднамеренным возмущениям.

Об авторах

Александр Николаевич Чесалин

МИРЭА – Российский технологический университет

Автор, ответственный за переписку.
Email: chesalin_an@mail.ru
ORCID iD: 0000-0002-1154-6151
SPIN-код: 4334-5520

кандидат технических наук, доцент; заведующий, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Алексей Вячеславович Ставцев

МИРЭА – Российский технологический университет

Email: stavcev@mirea.ru
SPIN-код: 4948-2180

кандидат физико-математических наук; доцент, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Надежда Николаевна Ушкова

МИРЭА – Российский технологический университет

Email: ushkova@mirea.ru
SPIN-код: 1935-5513

старший преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Валентин Валерьевич Чаругин

МИРЭА – Российский технологический университет

Email: сharugin_v@mirea.ru
ORCID iD: 0009-0001-1450-0714
SPIN-код: 7264-9403

преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Валерий Валерьевич Чаругин

МИРЭА – Российский технологический университет

Email: сharugin@mirea.ru
ORCID iD: 0009-0003-4950-7726
SPIN-код: 4080-4997

преподаватель, кафедра компьютерной и информационной безопасности, Институт искусственного интеллекта

Россия, г. Москва

Список литературы

  1. Jacob B., Kligys S., Chen B. et al. Quantization and training of neural networks for efficient integer-arithmetic-only inference // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2018. Pp. 2704–2713. URL: https://arxiv.org/abs/1712.05877
  2. Торкунова Ю.В., Милованов Д.В. Оптимизация нейронных сетей: методы и их сравнение на примере интеллектуального анализа текста // International Journal of Advanced Studies. 2023. Т. 13. № 4. C. 142–158. doi: 10.12731/2227-930X2023-13-4-142-158.
  3. Han S., Pool J., Tran J., Dally W.J. Learning both weights and connections for efficient neural networks // Advances in Neural Information Processing Systems (NeurIPS). 2015. URL: https://arxiv.org/abs/1506.02626
  4. Denton E.L., Zaremba W., Bruna J. et al. Exploiting linear structure within convolutional networks for efficient evaluation // Advances in Neural Information Processing Systems (NeurIPS). 2014. URL: https://arxiv.org/abs/1404.0736
  5. Hinton G., Vinyals O., Dean J. Distilling the knowledge in a neural network // arXiv Preprint arXiv:1503.02531. 2015. URL: https://arxiv.org/abs/1503.02531
  6. Иванов Е.А., Мамонова Т.Е. Сравнение методов сжатия модели нейронной сети при использовании на микроконтроллере // Молодежь и современные информационные технологии: сборник трудов XXI Междунар. науч.-практ. конф. студентов, аспирантов и молодых ученых (Томск, 15–18 апреля 2024 г.). Томск, 2024. C. 176–180.
  7. Ullrich K., Meeds E., Welling M. Soft weight-sharing for neural network compression // International Conference on Learning Representations (ICLR). 2017. URL: https://arxiv.org/abs/1702.04008
  8. Scardapane S., Scarpiniti M., Baccarelli E., Uncini A. Why should we add early exits to neural networks? // arXiv Preprint arXiv:2004.12814. 2020. URL: https://arxiv.org/abs/2004.12814
  9. Cheng Y., Wang D., Zhou P., Zhang T. A Survey of model compression and acceleration for deep neural networks // arXiv Preprint arXiv:1710.09282. 2017. URL: https://arxiv.org/abs/1710.09282
  10. Bajpai D.J., Hanawal M.K. A survey of early exit deep neural networks in NLP // arXiv Preprint arXiv:2501.07670. 2025. URL: https://arxiv.org/abs/2501.07670
  11. Panda P., Sengupta A., Roy K. Conditional deep learning for energy-efficient and enhanced pattern recognition // Design, Automation & Test in Europe Conference (DATE). 2016. Pp. 475–480.
  12. Teerapittayanon S., McDanel B., Kung H.T. BranchyNet: Fast inference via early exiting from deep neural networks // arXiv Preprint arXiv:1709.01686. 2017. URL: https://arxiv.org/abs/1709.01686
  13. Kaya Y., Hong S., Dumitras T. Shallow-deep networks: Understanding and mitigating network overthinking // Proceedings of the 36th International Conference on Machine Learning (ICML). 2019. Pp. 3301–3310.
  14. Laskaridis S., Venieris S.I., Almeida M. et al. SPINN: Synergistic progressive inference of neural networks over device and cloud // Proceedings of the 26th Annual International Conference on Mobile Computing and Networking (MobiCom’20). 2020. Pp. 1–15.
  15. Huang G., Chen D., Li T. et al. Multi-scale dense networks for resource efficient image classification // International Conference on Learning Representations (ICLR). 2018. 14 p.
  16. Kaya Y., Dumitras T. When does dynamic computation help early-exiting neural networks? // Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2021. Pp. 2709–2718.
  17. Venieris S.I., Laskaridis S., Lane N.D. Dynamic neural networks: A survey // IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI). 2023. Vol. 45. No. 2. Pp. 2076–2098.
  18. Viola P., Jones M. Rapid object detection using a boosted cascade of simple features // CVPR. 2001. Vol. 1.
  19. Чесалин А.Н. Применение каскадных алгоритмов классификации для совершенствования систем обнаружения вторжений // Нелинейный мир. 2022. Т. 20. № 1. C. 24–41.
  20. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // arXiv:1512.03385v1 [cs.CV]. 2015.
  21. Sai Abhishek, Allena Venkata. Resnet18 model with sequential layer for computing accuracy on image classification dataset // International Journal of Scientific Research in Computer Science, Engineering and Information Technology. 2022. Vol. 10. Pp. 2320–2882.
  22. Stallkamp J., Schlipsing M., Salmen J., Igel C. The German Traffic Sign Recognition Benchmark: A multi-class classification competition // IEEE International Joint Conference on Neural Networks (IJCNN). 2011.
  23. Sovrasov V. Ptflops: A flops counting tool for neural networks in Pytorch framework. 2024. URL: https://github.com/sovrasov/flops-counter.pytorch
  24. Гонсалес Р., Вудс Р. Цифровая обработка изображений. М.: Техносфера, 2005. 1072 с.
  25. Kim H. Torchattacks: A PyTorch repository for adversarial attacks // arXiv:2010.01950. 2020.
  26. Moosavi-Dezfooli S.-M., Fawzi A., Frossard P. DeepFool: A simple and accurate method to fool deep neural networks // arXiv:1511.04599. 2015.
  27. Rauber J., Brendel W., Bethge M. Foolbox: A Python toolbox to benchmark the robustness of machine learning models // arXiv:1707.04131. 2017.
  28. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // arXiv:1412.6572. 2015.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Архитектура ResNet18

Скачать (154KB)
3. Рис. 2. Архитектура BranchyResNet18

Скачать (207KB)
4. Рис. 3. Зависимость количества операций (FLOPs) от выхода нейронной сети

Скачать (81KB)
5. Рис. 4. Зависимость точности классификации от используемого количества операций FLOPs

Скачать (69KB)
6. Рис. 5. Анализ точности и эффективности BranchyResNet18 при воздействии шума: а – гауссовский шум; b – равномерый шум; c – импульсный шум; d – размытие; e – зависимость количества операций (FLOPs) от уровня зашумления

Скачать (427KB)
7. Рис. 6. Анализ робастности и эффективности BranchyResNet18 при воздействии преднамеренными помехами: а – FGSM; b – PGD; c – DeepFool; d – BIM; e – зависимость количества операций (FLOPs) от интенсивности атаки

Скачать (413KB)


Ссылка на описание лицензии: https://www.urvak.ru/contacts/

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».