Алгоритм вычисления значений весов сверточной нейронной сети без обучения
- Авторы: Гейдаров П.Ш.1
-
Учреждения:
- Институт систем управления Министерства науки и образования Азербайджана
- Выпуск: № 3 (2024)
- Страницы: 54-70
- Раздел: Машинное обучение, нейронные сети
- URL: https://bakhtiniada.ru/2071-8594/article/view/265359
- DOI: https://doi.org/10.14357/20718594240305
- EDN: https://elibrary.ru/JVKGJU
- ID: 265359
Цитировать
Полный текст
Аннотация
Приведено описание алгоритма, на основе которого аналитически вычисляются весовые и пороговые значения, а также количество каналов слоев сверточной нейронной сети. Результаты экспериментов показали, что время вычисления весов сверточных нейронных сетей сравнительно мало и составляет доли секунды или минуты. Уже при использовании всего 10 выбранных изображений (эталонов) из базы MNIST, аналитически вычисленные сверточные нейронные сети способны распознавать более половины изображений контрольной базы MNIST, без использования алгоритмов обучений нейронных сетей. Предварительное аналитическое вычисление весов сверточной нейронной сети позволяет ускорить процедуру ее обучения, поскольку оно заменяется на процесс до обучения.
Об авторах
Полад Шахмалы оглы Гейдаров
Институт систем управления Министерства науки и образования Азербайджана
Автор, ответственный за переписку.
Email: plbaku2010@gmail.com
доктор технических наук, доцент, ведущий научный сотрудник
Азербайджан, БакуСписок литературы
- Матвеева К.А., Минниханов Р.Н., Катасёв А.С. Сверточная нейросетевая модель акустического обнаружения аварийно-спасательных машин // Вестник Технологического университета. 2024. Т. 27. № 1. С. 76-80.
- Абрамова И.А., Демчев Д.М., Харюткина Е.В., Савенкова Е.Н., Судаков И.А. Применение сверточной нейронной сети u-net и ее модификаций для сегментации тундровых озер на спутниковых оптических изображениях // Оптика атмосферы и океана. 2024. Т. 37. № 1 (420). С. 48-53.
- Хачумов М.В., Емельянова Ю.Г. Парабола как функция активации искусственных нейронных сетей // Искусственный интеллект и принятие решений. 2023. № 2. С. 89-97.
- Доброхвалов М.О., Филатов А.Ю. Детектирование стресса по данным давления пульса крови с использованием персонализированных сверточных сетей // Известия СПБГЭТУ ЛЭТИ. 2024. Т. 17. № 1. С. 55-67.
- Самылкин М.С. Анализ работы свёрточной нейронной сети при решении задачи классификации изображений с гауссовским шумом и шумом соли и перца // Инновации и инвестиции. 2024. № 1. С. 184-187.
- LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. No 7553. P. 436–444.
- Schmidhuber J. Deep learning in neural networks: An overview // Neural Networks. 2015. V. 61. P. 85– 117.
- Geidarov P.Sh. Comparative analysis of the results of training the neural network with calculated weights and with random generation of the weights // Automation and Remote Control. 2020. V. 81. No 7. P. 1211–1229.
- Geidarov P.Sh. A Comparative Analysis of a Neural Network with Calculated Weights and a Neural Network with Random Generation of Weights Based on the Training Dataset Size // Optical Memory and Neural Networks. 2022. V. 31. No 3. P. 309–321.
- Soumi Chaki, Aurobinda Routray, W. K. Mohanty A probabilistic neural network (PNN) based framework for lithology classification using seismic attributes // Journal of Applied Geophysics. 2022. V. 199. P. 104-112.
- Hanchi Ren, Jingjing Deng, Xianghua Xie GRNN: Generative Regression Neural Network—A Data Leakage Attack for Federated // ACM Transactions on Intelligent Systems and Technology. 2022. V. 13. No 4. P. 1–24.
- Izonin Ivan, Tkachenko Roman, Gregus Michal ml, Zub Khrystyna, Tkachenko Pavlo. A GRNN-based Approach towards Prediction from Small Datasets in Medical Application // Procedia Computer Science. 2021. V. 184. P. 242-249.
- Glorot X. and Bengio Y. Understanding the difficulty of training deep feedforward neural networks // International Conference on Artificial Intelligence and Statistics. 2010. P. 249–256.
- Glorot X., Bordes A., Bengio Y. Deep sparse rectifier networks // Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. 2011. P. 315–323.
- Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun. Delving deep into rectifiers: surpassing human-level performance on ImageNet classification // arXiv:1502.01852.
- A Guide to One-Shot Learning. URL: https://serokell.io/blog/nn-and-one-shot-learning/ (last access date: 07.12.2023).
- Wang Yaqing, Yao Quanming, Kwok James T., Lionel M. Ni. Generalizing from a Few Examples: A Survey on Fewshot Learning // ACM Computing Surveys. 2020. V. 53. No 3. P. 1–34.
- Tobias Fechter, Dimos Baltas One-Shot Learning for Deformable Medical Image Registration and Periodic Motion Tracking // IEEE Transactions on Medical Imaging. 2020. V. 39. No 7. P. 2506-2517.
- Geidarov P. Sh. On the Possibility of Determining the Values of Neural NetworkWeights in an Electrostatic Field // Scientific and Technical Information Processing. 2022. V. 49. No 6. P. 1–13.
- Geidarov P.Sh. Experiment for Creating a Neural Network with Weights Determined by the Potential of a Simulated Electrostatic Field // Scientific and Technical Information Processing. 2022. V. 49. No 6. P. 1–13.
- Cummaudo A. What’s the minimum amount of data needed to teach a neural network? Applied Artificial Intelligence Institute’s Blog // URL: https://a2i2.deakin.edu.au/2018/02/21/whats-the-minimum-amount-of-dataneeded-to-teach-a-neural-network/ (date of last viewing: 02.03.2024).
Дополнительные файлы
