Выбор архитектуры нейронной сети для электронной дифференциальной системы электроавтомобиля

Обложка

Цитировать

Полный текст

Аннотация

Цель. Исследование вариантов архитектур нейронных сетей для реализации электронно-дифференциальной системы электроавтомобиля.

Материалы и методы. Основными методы исследования в настоящего исследования являются методы сравнительного анализа и поиска наиболее рациональной архитектуры нейронной сети (НС) для работы с числовыми данными, структурированными в виде массива.

Результаты. В результате анализа выяснилось, что наиболее рациональным вариантом является нейронная сеть глубокого обучения, а в перспективе дальнейшего развития данной работы, после экспериментального подтверждения, может быть применена и рекуррентная нейронная сеть.

Заключение. В заключении отражаются ранее, полученные результаты и вывод о невозможности достижения поставленной цели при применении сверточных нейронных сетей, больших языковых моделей, случайно-векторных функциональных сетей связи и радиально-базисных функциональных НС.

Об авторах

Андрей Анатольевич Лисов

Южно-Уральский государственный университет

Автор, ответственный за переписку.
Email: lisov.andrey2013@yandex.ru
ORCID iD: 0000-0001-7282-8470
SPIN-код: 1956-3662

аспирант

Россия, Челябинск

Александр Григорьевич Возмилов

Южно-Уральский государственный университет

Email: vozmiag@rambler.ru
ORCID iD: 0000-0002-1292-3975
SPIN-код: 2893-8730

профессор, доктор технических наук

Россия, Челябинск

Кирилл Александрович Гундарев

Южно-Уральский государственный университет

Email: pioneer03.95@mail.ru
ORCID iD: 0009-0004-8358-1329
SPIN-код: 1238-1158

аспирант

Россия, Челябинск

Список литературы

  1. Lisov A.A. Development of an electronic differential system for electric vehicles based on deep neural network. Modern Transportation Systems and Technologies. 2024;10(3):351–367. (in Russ.). doi: 10.17816/transsyst634127
  2. Lisov AA, Kulganatov AZ, Panishev SA. Using convolutional neural networks for acoustic based emergency vehicle detection. Modern Transportation Systems and Technologies. 2023;9(1):95–107 (in Russ.). doi: 10.17816/transsyst20239195-107
  3. Cirrincione M, Pucci M, Cirrincione G, Capolino GA. Sensorless control of induction machines by a new neural algorithm: The TLS EXIN neuron. IEEE Transactions on Industrial Electronics. 2007;54(1):127–149. doi: 10.1109/TIE.2006.888774
  4. Su D, Zhang H, Chen H, Yi J, Chen PY, Gao Y. Is robustness the cost of accuracy? A comprehensive study on the robustness of 18 deep image classification models. Proceedings of the European conference on computer vision (ECCV). 20184; 631–648.
  5. Gama J, Žliobaitė I, Bifet A, et al. A survey on concept drift adaptation. ACM computing surveys (CSUR). 2014;46(4):1–37. doi: 10.1145/252381
  6. Berkenkamp F, Turchetta M, Schoellig A, Krause A. Safe model-based reinforcement learning with stability guarantees. Advances in neural information processing systems. 2017;30.
  7. Jarrahi MH. Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making. Business horizons. 2018;61(4):577–586.
  8. Khan J, Wei JS, Ringner M, et al. Classification and diagnostic prediction of cancers using gene expression profiling and artificial neural networks. Nature medicine. 2001;7(6):673–679. doi: 10.1038/89044
  9. Nguyen A, Yosinski J, Clune J. Deep neural networks are easily fooled: High confidence predictions for unrecognizable images. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015;427–436. doi: 10.1016/j.bushor.2018.03.007
  10. Rosenblatt F. Principles of neurodynamics. perceptrons and the theory of brain mechanisms. New York: Cornell Aeronautical Lab Inc Buffalo; 1961.
  11. Minsky M, Papert S. Perceptrons. An Introduction to Computational Geometry. Cambridge: MIT Press; 1969.
  12. Rumelhart DE, Hinton GE, Williams RJ. Learning internal representations by error propagation. Parallel Distributed Processing: Explorations in the Microstructures of Cognition. 1986;1:318–362.
  13. Szegedy C, Toshev A, Erhan D. Deep neural networks for object detection. In: Advances in neural information processing systems. 2013;26.
  14. Rolnick D, Tegmark M. The power of deeper networks for expressing natural functions. In: arXiv preprint. 2017. doi: 10.48550/arXiv.1705.05502
  15. Serrano-Pérez JD, Fernández-Anaya G, Carrillo-Moreno S, Yu W. New results for prediction of chaotic systems using deep recurrent neural networks. Neural Processing Letters. 2021;53:1579–1596. doi: 10.1007/s11063-021-10466-1
  16. Bucci MA, Semeraro O, Allauzen A, et al. Control of chaotic systems by deep reinforcement learning. Proceedings of the Royal Society A. 2019;475(2231). doi: 10.1098/rspa.2019.0351
  17. Chai X, Gan Z, Yuan K, et al. A novel image encryption scheme based on DNA sequence operations and chaotic systems. Neural Computing and Applications. 2019;31(1):219–237. doi: 10.1007/s00521-017-2993-9
  18. Kombrink S, Mikolov T, Karafiát M, Burget L. Recurrent Neural Network Based Language Modeling in Meeting Recognition. Interspeech. 2011;11:2877–2880.
  19. Hagan MT, De Jesús O, Schultz R, et al. Training recurrent networks for filtering and control. Recurrent neural networks: Design and applications. 1999:311–340.
  20. Parlos AG, Menon SK, Atiya A. An algorithmic approach to adaptive state filtering using recurrent neural networks. IEEE transactions on neural networks. 2001;12(6):1411–1432. doi: 10.1109/72.963777
  21. Van den Oord A, Dieleman S, Schrauwen B. Deep content-based music recommendation. In: Advances in neural information processing systems; 2013.
  22. Collobert R, Weston J. A unified architecture for natural language processing: Deep neural networks with multitasks learning. In: 25th international conference on Machine learning. 2008:160–167. doi: 10.1145/1390156.1390177
  23. Avilov O, Rimbert S, Popov A, Bougrain L. Deep learning techniques to improve intraoperative awareness detection from electroencephalographic signals. In: 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). 2020:142–145. doi: 10.1109/EMBC44109.2020.9176228
  24. Tsantekidis A, Passalis N, Tefas A, et al. Forecasting stock prices from the limit order book using convolutional neural networks. In: 19th conference on business informatics (CBI). 2017;1:7–12. doi: 10.1109/CBI.2017.23
  25. Wang Y, Li Z, Wang L, Wang M. A Scale Invariant Feature Transform Based Method. J. Inf. Hiding Multim. Signal Process. 2013;4(2):73–89.
  26. Dalal N, Triggs B. Histograms of oriented gradients for human detection. In: IEEE computer society conference on computer vision and pattern recognition (CVPR’05). IEEE; 2005;1:886–893. doi: 10.1109/CVPR.2005.177
  27. Salyp BYu. Decoding methods for open text generation in large language models. Bulletin of Science and Education. 2023;10(141):8–14. (in Russ.).
  28. Kasneci E, Sebler K, Küchemann S, et al. ChatGPT for good? On opportunities and challenges of large language models for education. Learning and individual differences. 2023;103. doi: 10.1016/j.lindif.2023.102274
  29. Igelnik B, Pao Y-H. Stochastic choice of basis functions in adaptive function approximation and the functional-link net. IEEE Trans. Neural Network. 1995;6:1320–1329. doi: 10.1109/72.471375
  30. Pao YH, Park GH, Sobajic DJ. Learning and generalization characteristics of the random vector functional-link net. Neurocomputing. 1994;6:163–180. doi: 10.1016/0925-2312(94)90053-1
  31. Pao YH, Phillips SM. The functional link net and learning optimal control. Neurocomputing. 1995;9:149–164. doi: 10.1016/0925-2312(95)00066-F
  32. Powell MJ. Radial Basis Functions for Multivariable Interpolation: A Review. In: Mason J.C., Cox M.G. Eds. Algorithms for Approximation. Oxford: Clarendon Press; 1987. P. 143–167.
  33. Lowe D, Broomhead D. Multivariable functional interpolation and adaptive networks. Complex systems. 1988;2(3):321–355.
  34. Aouiti C, Alimi AM, Maalej AA. Genetic-designed beta basis function neural network for multi-variable functions approximation. Systems Analysis Modelling Simulation. 2002;42(7):975–1009.
  35. Montazer GA, Giveki D, Karami M, Rastegar H. Radial basis function neural networks: A review. Comput. Rev. J. 2018;1(1):52–74.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML
2. Рис. 1. Структура электронной дифференциальной системы с использованием нейронной сети [1]

Скачать (108KB)
3. Рис. 2. a) Общая топология ИНС, b) ИНС с прямой связью (персептрон), c) ИНС с обратной связью

Скачать (216KB)
4. Рис. 3. Архитектуры нейросетей. a) глубокого обучения – DNN, b) обычная НС (составлено авторами)

Скачать (147KB)
5. Рис 4. Архитектура RVFL [29]

Скачать (149KB)
6. Рис. 5. Архитектура радиально-базисной НС [35]

Скачать (130KB)
7. Рис. 6. Архитектура разработанной НС глубокого обучения

Скачать (174KB)
8. Рис. 7. Графики прогноза модели нейронной сети на тестовой выборке [1]

Скачать (207KB)

© Лисов А.А., Возмилов А.Г., Гундарев К.А., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».