Choosing of neural network architecture for electronic differential system of electric vehicle

Cover Page

Cite item

Full Text

Abstract

Aim. To study various network architecture options for implementing an electronic differential system in an electric vehicle.

Materials and Methods. The study primarily used comparative analysis to identify the most rational neural network (NN) architecture for processing numerical data structured as arrays.

Results. The analysis revealed that a deep learning neural network is the most effective choice. For future developments, and after experimental confirmation, a recurrent neural network could also be a viable option.

Conclusion. The study confirmed that achieving the desired goal is not feasible using convolutional neural networks, large language models, random vector functional communication networks and radial-basis functional NNs.

About the authors

Andrey A. Lisov

South Ural State University

Author for correspondence.
Email: lisov.andrey2013@yandex.ru
ORCID iD: 0000-0001-7282-8470
SPIN-code: 1956-3662

postgraduate student

Russian Federation, Chelyabinsk

Alexander G. Vozmilov

South Ural State University

Email: vozmiag@rambler.ru
ORCID iD: 0000-0002-1292-3975
SPIN-code: 2893-8730

Professor, Doctor of Technical Sciences

Russian Federation, Chelyabinsk

Kirill A. Gundarev

South Ural State University

Email: pioneer03.95@mail.ru
ORCID iD: 0009-0004-8358-1329
SPIN-code: 1238-1158

postgraduate student

Russian Federation, Chelyabinsk

References

  1. Lisov A.A. Development of an electronic differential system for electric vehicles based on deep neural network. Modern Transportation Systems and Technologies. 2024;10(3):351–367. (in Russ.). doi: 10.17816/transsyst634127
  2. Lisov AA, Kulganatov AZ, Panishev SA. Using convolutional neural networks for acoustic based emergency vehicle detection. Modern Transportation Systems and Technologies. 2023;9(1):95–107 (in Russ.). doi: 10.17816/transsyst20239195-107
  3. Cirrincione M, Pucci M, Cirrincione G, Capolino GA. Sensorless control of induction machines by a new neural algorithm: The TLS EXIN neuron. IEEE Transactions on Industrial Electronics. 2007;54(1):127–149. doi: 10.1109/TIE.2006.888774
  4. Su D, Zhang H, Chen H, Yi J, Chen PY, Gao Y. Is robustness the cost of accuracy? A comprehensive study on the robustness of 18 deep image classification models. Proceedings of the European conference on computer vision (ECCV). 20184; 631–648.
  5. Gama J, Žliobaitė I, Bifet A, et al. A survey on concept drift adaptation. ACM computing surveys (CSUR). 2014;46(4):1–37. doi: 10.1145/252381
  6. Berkenkamp F, Turchetta M, Schoellig A, Krause A. Safe model-based reinforcement learning with stability guarantees. Advances in neural information processing systems. 2017;30.
  7. Jarrahi MH. Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making. Business horizons. 2018;61(4):577–586.
  8. Khan J, Wei JS, Ringner M, et al. Classification and diagnostic prediction of cancers using gene expression profiling and artificial neural networks. Nature medicine. 2001;7(6):673–679. doi: 10.1038/89044
  9. Nguyen A, Yosinski J, Clune J. Deep neural networks are easily fooled: High confidence predictions for unrecognizable images. In: Proceedings of the IEEE conference on computer vision and pattern recognition. 2015;427–436. doi: 10.1016/j.bushor.2018.03.007
  10. Rosenblatt F. Principles of neurodynamics. perceptrons and the theory of brain mechanisms. New York: Cornell Aeronautical Lab Inc Buffalo; 1961.
  11. Minsky M, Papert S. Perceptrons. An Introduction to Computational Geometry. Cambridge: MIT Press; 1969.
  12. Rumelhart DE, Hinton GE, Williams RJ. Learning internal representations by error propagation. Parallel Distributed Processing: Explorations in the Microstructures of Cognition. 1986;1:318–362.
  13. Szegedy C, Toshev A, Erhan D. Deep neural networks for object detection. In: Advances in neural information processing systems. 2013;26.
  14. Rolnick D, Tegmark M. The power of deeper networks for expressing natural functions. In: arXiv preprint. 2017. doi: 10.48550/arXiv.1705.05502
  15. Serrano-Pérez JD, Fernández-Anaya G, Carrillo-Moreno S, Yu W. New results for prediction of chaotic systems using deep recurrent neural networks. Neural Processing Letters. 2021;53:1579–1596. doi: 10.1007/s11063-021-10466-1
  16. Bucci MA, Semeraro O, Allauzen A, et al. Control of chaotic systems by deep reinforcement learning. Proceedings of the Royal Society A. 2019;475(2231). doi: 10.1098/rspa.2019.0351
  17. Chai X, Gan Z, Yuan K, et al. A novel image encryption scheme based on DNA sequence operations and chaotic systems. Neural Computing and Applications. 2019;31(1):219–237. doi: 10.1007/s00521-017-2993-9
  18. Kombrink S, Mikolov T, Karafiát M, Burget L. Recurrent Neural Network Based Language Modeling in Meeting Recognition. Interspeech. 2011;11:2877–2880.
  19. Hagan MT, De Jesús O, Schultz R, et al. Training recurrent networks for filtering and control. Recurrent neural networks: Design and applications. 1999:311–340.
  20. Parlos AG, Menon SK, Atiya A. An algorithmic approach to adaptive state filtering using recurrent neural networks. IEEE transactions on neural networks. 2001;12(6):1411–1432. doi: 10.1109/72.963777
  21. Van den Oord A, Dieleman S, Schrauwen B. Deep content-based music recommendation. In: Advances in neural information processing systems; 2013.
  22. Collobert R, Weston J. A unified architecture for natural language processing: Deep neural networks with multitasks learning. In: 25th international conference on Machine learning. 2008:160–167. doi: 10.1145/1390156.1390177
  23. Avilov O, Rimbert S, Popov A, Bougrain L. Deep learning techniques to improve intraoperative awareness detection from electroencephalographic signals. In: 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC). 2020:142–145. doi: 10.1109/EMBC44109.2020.9176228
  24. Tsantekidis A, Passalis N, Tefas A, et al. Forecasting stock prices from the limit order book using convolutional neural networks. In: 19th conference on business informatics (CBI). 2017;1:7–12. doi: 10.1109/CBI.2017.23
  25. Wang Y, Li Z, Wang L, Wang M. A Scale Invariant Feature Transform Based Method. J. Inf. Hiding Multim. Signal Process. 2013;4(2):73–89.
  26. Dalal N, Triggs B. Histograms of oriented gradients for human detection. In: IEEE computer society conference on computer vision and pattern recognition (CVPR’05). IEEE; 2005;1:886–893. doi: 10.1109/CVPR.2005.177
  27. Salyp BYu. Decoding methods for open text generation in large language models. Bulletin of Science and Education. 2023;10(141):8–14. (in Russ.).
  28. Kasneci E, Sebler K, Küchemann S, et al. ChatGPT for good? On opportunities and challenges of large language models for education. Learning and individual differences. 2023;103. doi: 10.1016/j.lindif.2023.102274
  29. Igelnik B, Pao Y-H. Stochastic choice of basis functions in adaptive function approximation and the functional-link net. IEEE Trans. Neural Network. 1995;6:1320–1329. doi: 10.1109/72.471375
  30. Pao YH, Park GH, Sobajic DJ. Learning and generalization characteristics of the random vector functional-link net. Neurocomputing. 1994;6:163–180. doi: 10.1016/0925-2312(94)90053-1
  31. Pao YH, Phillips SM. The functional link net and learning optimal control. Neurocomputing. 1995;9:149–164. doi: 10.1016/0925-2312(95)00066-F
  32. Powell MJ. Radial Basis Functions for Multivariable Interpolation: A Review. In: Mason J.C., Cox M.G. Eds. Algorithms for Approximation. Oxford: Clarendon Press; 1987. P. 143–167.
  33. Lowe D, Broomhead D. Multivariable functional interpolation and adaptive networks. Complex systems. 1988;2(3):321–355.
  34. Aouiti C, Alimi AM, Maalej AA. Genetic-designed beta basis function neural network for multi-variable functions approximation. Systems Analysis Modelling Simulation. 2002;42(7):975–1009.
  35. Montazer GA, Giveki D, Karami M, Rastegar H. Radial basis function neural networks: A review. Comput. Rev. J. 2018;1(1):52–74.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Fig. 1. Structure of an electronic differential system using a neural network [1]

Download (108KB)
3. Fig. 2. a) A general topology of ANN, b) Feedforward ANN (perceptron), c) Feedback ANN

Download (216KB)
4. Fig. 3. Architectures of neural networks. a) DNN, b) regular NN

Download (147KB)
5. Fig. 4. The architecture of RVFL [29]

Download (149KB)
6. Fig. 5. Architecture of a radial basis function network [35]

Download (130KB)
7. Fig. 6. Architecture of the developed deep learning neural network

Download (174KB)
8. Fig. 7. Prediction graphs of the neural network model on the test sample [1]

Download (207KB)

Copyright (c) 2024 Lisov A.A., Vozmilov A.G., Gundarev K.A.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

link to the archive of the previous title

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».