DECOMPOSITION OF THE TRAINING SET IN THE TASK OF FORECASTING THE PRICE OF SECURITIES
- Авторлар: Vashakidze N.S.1, Filippova G.V.1, Rausch N.L.1, Osipov G.S.1
-
Мекемелер:
- Sakhalin State University
- Шығарылым: № 7 (2025)
- Беттер: 32-38
- Бөлім: Articles
- URL: https://bakhtiniada.ru/2411-0450/article/view/360862
- DOI: https://doi.org/10.24412/2411-0450-2025-7-32-38
- ID: 360862
Дәйексөз келтіру
Толық мәтін
Аннотация
Basic fundamentals of setting the classic problem of forecasting the exchange rate of securities is presented. A training sample was built, consisting of the opening price of the trading session, the maximum and minimum prices and the closing price of the trading session. To build the forecast, the closing prices of the session for 4 stages (trading day) ahead were used. Wolfram Mathematica, a modern machine learning environment for artificial intelligence systems, was chosen as a tool. An optimal structure of a multilayer artificial neural network is built, containing three hidden layers and two data normalization layers. The analytical comparison of the results of predicting the price of securities using only the training set is made, followed by checking on the test set with the version of the complete decomposition of the training set into the training, test and test sets. Evidence has been obtained that the use of a test set to control the accuracy of training at each training step (round) can significantly increase the accuracy of prediction. The training curves for the studied variants of the training set decomposition and the values of the predictive models quality assessment parameters are given.
Толық мәтін
- Основные понятия
Ценная бумага – это документ, выпускаемый фирмами, финансовыми организациями, государством для получения дополнительного капитала.
Курс ценных бумаг (Rate of securities) – это цена ценных бумаг, по которой они продаются на вторичном рынке.
- Постановка задачи
Имеется генеральная совокупность, определяющая временной ряд изменения курса некоторой ценной бумаги. Из генеральной совокупности выделена конечная обучающая выборка за определенное число торговых сессий (например, дней), которая, которая будет использоваться для прогнозирования курса ценной бумаги на конечной число торговых сессий вперед. На основе обучающей выборки может быть синтезирован регрессор вида R:X®Y.
где X= {x1, x2, x3, x4} = {Open(t), High(t), Low(t), Close(t)},
Y= {y1, y2, y3, y4} = {Close(t+1), Close(t+2), Close(t+3), Close(t+4)}.
Здесь Open(t), High(t), Low(t), Close(t) – цена открытия сессии, максимальная, минимальная и цена закрытия сессии, например, торгового дня t.
На рисунке 1 приведена структура обучающей выборки с учетом лага на 4 дня вперед.

Рис. 1. Начальный фрагмент обучающей выборки
Таким образом, объектом исследования является задача прогнозирования курса ценных бумаг.
Предмет исследования – проблема декомпозиции обучающей выборки.
Целью исследования является оценка влияния принципа разбиения обучающей выборки на обучающее, проверочное и тестовое множества на точность прогнозной модели.
- Материал и методы исследования
Апробация фундаментальных основ и базовых методов исследования осуществлялась в системе символьной математики Wolfram Mathematica [2], являющейся одной из современных высокоуровневых систем машинного обучения и моделирования систем искусственного интеллекта.
На рисунке 2 представлены операторы, определяющие структуру используемой нейронной сети.

Рис. 2. Задание структуры нейронной сети
Рисунок 3 представляет таблицу основных компонентов нейронной сети.

Рис. 3. Основные компоненты нейронной сети
В результате вычислительных экспериментов была синтезирована оптимальная топология (структура) искусственной нейронной сети, в которой входной слой содержит 4 нейрона, соответствующие X= {x1, x2, x3, x4}, выходной 4 нейрона – Y= {y1, y2, y3, y4}. Нейронная сеть состоит из 3 линейных (скрытых) слоев, предназначенных для вычисления скалярного произведения величины входных сигналов на веса соответствующих связей. В этих скрытых слоях 15, 10 и 4 нейрона соответственно. В качестве функции активации используется «рампа» (рис. 4).

Рис. 4. График функции активации
Применяются два слоя нормализации данных (по среднему значению и дисперсии). Граф используемой в исследовании нейронной сети представлен на рисунке 5.

Рис. 5. Граф нейронной сети
Для оценки точности обучения модели использовались величины RMSE – Root Mean Squared Error и MAPE – Mean Absolute Percentage Error [3, 4]. На рисунке 6 приведены соответствующие формулы для расчета этих показателей в системе (символьной математики) Wolfram Mathematica.

Рис. 6. Формулы точечных оценок ошибок обучения
В этих формулах y и x – точное и расчетное значение выходного сигнала. Отметим, что использование в исследовании системы символьной математики позволяет писать программу вычислений в терминах формального математического языка без использования традиционных операторов языка программирования.
- Основные результаты и их обсуждение
4.1. Реализация процесса обучения нейронной сети
Простейшие операторы обучения нейронной сети представлены на рисунке 7.

Рис. 7 Задание параметров обучения нейронной сети
В данном случае обучение контролируется величиной стандартного отклонения. На рисунке 8 представлен типовой график изменения стандартного отклонения в процессе обучения сети.

Рис. 8. Изменение стандартного отклонения
Использовался оптимизатор ADAM [5, 6], который по праву считается эталоном в машинном обучении.
4.2. Сравнение методов декомпозиции обучающей выборки
Результаты обучения сети при разбиении обучающей выборки на обучающее и тестовое множества представлены на рисунке 9. В данном случае проверочное множество не выделялось.

Рис. 9. Изменение ошибки обучения
Результаты обучения на обучающем и проверки на тестовом множестве (которое взято из обучающей выборки, но в процессе обучения не использовалось) приведены в таблице. В этом варианте величины RMSE и MAPE для обучающего и тестового множеств примерно равны.
Таблица. Результаты сравнения
Декомпозиция обучающей выборки | Показатель | |
RMSE | MAPE% | |
Обучающее множество Тест | 16.1 16.4 | 4.0% 4.4% |
Обучающее множество с выделением проверочного Тест | 8.3 7.8 | 2.2% 2.1% |
При выделении из обучающей выборки проверочного множества, которое используется для контроля обучения на каждом этапе (раунде) величины ошибок обучения уменьшаются практически в два раза (см. таблица). На рисунке 10 приведены кривые обучения отдельно для обучающего и проверочного множеств.

Рис. 10. Кривые обучения для обучающего и проверочного множеств
Заключение
Предложена базовая постановка задачи прогнозирования курса ценных бумаг на основании обучающей выборки за предыдущие торговые сессии. Исследованы варианты оптимальной декомпозиции обучающей выборки на конкретно обучающее, проверочное и тестовое множества. Отработана методика синтеза нейросетевого регрессора. Приведена оптимальная структура используемой искусственной многослойной нейронной сети. Проведена практическая апробация методологических принципов синтеза системы прогнозирования курса ценных бумаг в системе символьной математики Wolfram Mathematica. Представлены итоговые результаты аналитического сравнения вариантов декомпозиции обучающей выборки по критерию ее влияния на точность оценок прогнозирования.
Авторлар туралы
N. Vashakidze
Sakhalin State University
Хат алмасуға жауапты Автор.
Email: nvash@mail.ru
Senior Lecturer
Ресей, Russia, Yuzhno-SakhalinskG. Filippova
Sakhalin State University
Email: g.v.filippova@gmail.com
Senior Lecturer
Ресей, Russia, Yuzhno-SakhalinskN. Rausch
Sakhalin State University
Email: r_n_l@mail.ru
Senior Lecturer
Ресей, Russia, Yuzhno-SakhalinskG. Osipov
Sakhalin State University
Email: osipov_gs@sakhgu.ru
Doctor of Technical Sciences, Professor
Ресей, Russia, Yuzhno-SakhalinskӘдебиет тізімі
- Ким Н.Г. Понижение размерности обучающей выборки при решении задачи прогнозирования с помощью многослойной нейронной сети / Н.Г. Ким // Лучшая исследовательская статья 2021: сборник статей II Международного научно-исследовательского конкурса, Петрозаводск, 01 ноября 2021 года. – Петрозаводск: Международный центр научного партнерства «Новая Наука», 2021. – С. 272-277. – doi: 10.46916/08112021-3-978-5-00174-363-7. – EDN UPNJUS.
- Русскоязычная версия WOLFRAM. – [Электронный ресурс]. – Режим доступа: https://www.wolfram.com/russian/?source=frontpage-stripe.
- Common Evaluation Metrics (MAE, MSE, RMSE, MAPE). – [Электронный ресурс]. – Режим доступа: https://apxml.com/courses/time-series-analysis-forecasting/chapter-6-model-evaluation-selection/evaluation-metrics-mae-mse-rmse.
- Меры оценки качества регрессионных прогнозов. – [Электронный ресурс]. – Режим досту-па: https://deepmachinelearning.ru/docs/Machine-learning/Regression-evaluation/Regression-evaluation-metrics?ysclid=mcdyil8qe4373105814.
- Адам Оптимизатор. – [Электронный ресурс]. – Режим доступа: https://www.ultralytics.com/ru/glossary/adam-optimizer.
- ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION. – [Электронный ресурс]. – Режим доступа: https://arxiv.org/pdf/1412.6980.
Қосымша файлдар
