ДЕКОМПОЗИЦИЯ ОБУЧАЮЩЕЙ ВЫБОРКИ В ЗАДАЧЕ ПРОГНОЗИРОВАНИЯ КУРСА ЦЕННЫХ БУМАГ
- Авторы: Вашакидзе Н.С.1, Филиппова Г.В.1, Рауш Н.Л.1, Осипов Г.С.1
-
Учреждения:
- Сахалинский государственный университет
- Выпуск: № 7 (2025)
- Страницы: 32-38
- Раздел: Статьи
- URL: https://bakhtiniada.ru/2411-0450/article/view/360862
- DOI: https://doi.org/10.24412/2411-0450-2025-7-32-38
- ID: 360862
Цитировать
Полный текст
Аннотация
Изложены базовые основы постановки классической задачи прогнозирования курса ценных бумаг. Построена обучающая выборка, состоящая из цены открытия торговой сессии, максимальной и минимальной цен и цены закрытия торговой сессии. Для построения прогноза использованы цены закрытия сессии на 4 этапа (торгового дня) вперед. В качестве инструментального средства выбрана система символьной математики Wolfram Mathematica, являющаяся современной средой машинного обучения систем искусственного интеллекта. Построена оптимальная структура многослойной искусственной нейронной сети, содержащей три скрытых слоя и два слоя нормализации данных. Произведено аналитическое сравнение результатов прогнозирования курса ценных бумаг при использовании только обучающего множества с последующей проверкой на тестовом множестве с вариантом полной декомпозиции обучающей выборки на обучающее, проверочное и тестовое множества. Получено доказательство того, что использование проверочного множества для контроля точности обучения на каждом шаге (раунде) обучения позволяет существенно повысить точность предсказания (прогноза). Приведены кривые обучения для исследуемых вариантов декомпозиции обучающей выборки и величины параметров оценки качества прогнозных моделей.
Полный текст
- Основные понятия
Ценная бумага – это документ, выпускаемый фирмами, финансовыми организациями, государством для получения дополнительного капитала.
Курс ценных бумаг (Rate of securities) – это цена ценных бумаг, по которой они продаются на вторичном рынке.
- Постановка задачи
Имеется генеральная совокупность, определяющая временной ряд изменения курса некоторой ценной бумаги. Из генеральной совокупности выделена конечная обучающая выборка за определенное число торговых сессий (например, дней), которая, которая будет использоваться для прогнозирования курса ценной бумаги на конечной число торговых сессий вперед. На основе обучающей выборки может быть синтезирован регрессор вида R:X®Y.
где X= {x1, x2, x3, x4} = {Open(t), High(t), Low(t), Close(t)},
Y= {y1, y2, y3, y4} = {Close(t+1), Close(t+2), Close(t+3), Close(t+4)}.
Здесь Open(t), High(t), Low(t), Close(t) – цена открытия сессии, максимальная, минимальная и цена закрытия сессии, например, торгового дня t.
На рисунке 1 приведена структура обучающей выборки с учетом лага на 4 дня вперед.

Рис. 1. Начальный фрагмент обучающей выборки
Таким образом, объектом исследования является задача прогнозирования курса ценных бумаг.
Предмет исследования – проблема декомпозиции обучающей выборки.
Целью исследования является оценка влияния принципа разбиения обучающей выборки на обучающее, проверочное и тестовое множества на точность прогнозной модели.
- Материал и методы исследования
Апробация фундаментальных основ и базовых методов исследования осуществлялась в системе символьной математики Wolfram Mathematica [2], являющейся одной из современных высокоуровневых систем машинного обучения и моделирования систем искусственного интеллекта.
На рисунке 2 представлены операторы, определяющие структуру используемой нейронной сети.

Рис. 2. Задание структуры нейронной сети
Рисунок 3 представляет таблицу основных компонентов нейронной сети.

Рис. 3. Основные компоненты нейронной сети
В результате вычислительных экспериментов была синтезирована оптимальная топология (структура) искусственной нейронной сети, в которой входной слой содержит 4 нейрона, соответствующие X= {x1, x2, x3, x4}, выходной 4 нейрона – Y= {y1, y2, y3, y4}. Нейронная сеть состоит из 3 линейных (скрытых) слоев, предназначенных для вычисления скалярного произведения величины входных сигналов на веса соответствующих связей. В этих скрытых слоях 15, 10 и 4 нейрона соответственно. В качестве функции активации используется «рампа» (рис. 4).

Рис. 4. График функции активации
Применяются два слоя нормализации данных (по среднему значению и дисперсии). Граф используемой в исследовании нейронной сети представлен на рисунке 5.

Рис. 5. Граф нейронной сети
Для оценки точности обучения модели использовались величины RMSE – Root Mean Squared Error и MAPE – Mean Absolute Percentage Error [3, 4]. На рисунке 6 приведены соответствующие формулы для расчета этих показателей в системе (символьной математики) Wolfram Mathematica.

Рис. 6. Формулы точечных оценок ошибок обучения
В этих формулах y и x – точное и расчетное значение выходного сигнала. Отметим, что использование в исследовании системы символьной математики позволяет писать программу вычислений в терминах формального математического языка без использования традиционных операторов языка программирования.
- Основные результаты и их обсуждение
4.1. Реализация процесса обучения нейронной сети
Простейшие операторы обучения нейронной сети представлены на рисунке 7.

Рис. 7 Задание параметров обучения нейронной сети
В данном случае обучение контролируется величиной стандартного отклонения. На рисунке 8 представлен типовой график изменения стандартного отклонения в процессе обучения сети.

Рис. 8. Изменение стандартного отклонения
Использовался оптимизатор ADAM [5, 6], который по праву считается эталоном в машинном обучении.
4.2. Сравнение методов декомпозиции обучающей выборки
Результаты обучения сети при разбиении обучающей выборки на обучающее и тестовое множества представлены на рисунке 9. В данном случае проверочное множество не выделялось.

Рис. 9. Изменение ошибки обучения
Результаты обучения на обучающем и проверки на тестовом множестве (которое взято из обучающей выборки, но в процессе обучения не использовалось) приведены в таблице. В этом варианте величины RMSE и MAPE для обучающего и тестового множеств примерно равны.
Таблица. Результаты сравнения
Декомпозиция обучающей выборки | Показатель | |
RMSE | MAPE% | |
Обучающее множество Тест | 16.1 16.4 | 4.0% 4.4% |
Обучающее множество с выделением проверочного Тест | 8.3 7.8 | 2.2% 2.1% |
При выделении из обучающей выборки проверочного множества, которое используется для контроля обучения на каждом этапе (раунде) величины ошибок обучения уменьшаются практически в два раза (см. таблица). На рисунке 10 приведены кривые обучения отдельно для обучающего и проверочного множеств.

Рис. 10. Кривые обучения для обучающего и проверочного множеств
Заключение
Предложена базовая постановка задачи прогнозирования курса ценных бумаг на основании обучающей выборки за предыдущие торговые сессии. Исследованы варианты оптимальной декомпозиции обучающей выборки на конкретно обучающее, проверочное и тестовое множества. Отработана методика синтеза нейросетевого регрессора. Приведена оптимальная структура используемой искусственной многослойной нейронной сети. Проведена практическая апробация методологических принципов синтеза системы прогнозирования курса ценных бумаг в системе символьной математики Wolfram Mathematica. Представлены итоговые результаты аналитического сравнения вариантов декомпозиции обучающей выборки по критерию ее влияния на точность оценок прогнозирования.
Об авторах
Н. С. Вашакидзе
Сахалинский государственный университет
Автор, ответственный за переписку.
Email: nvash@mail.ru
старший преподаватель
Россия, Россия, г. Южно-СахалинскГ. В. Филиппова
Сахалинский государственный университет
Email: g.v.filippova@gmail.com
старший преподаватель
Россия, Россия, г. Южно-СахалинскН. Л. Рауш
Сахалинский государственный университет
Email: r_n_l@mail.ru
старший преподаватель
Россия, Россия, г. Южно-СахалинскГ. С. Осипов
Сахалинский государственный университет
Email: osipov_gs@sakhgu.ru
д-р техн. наук, профессор
Россия, Россия, г. Южно-СахалинскСписок литературы
- Ким Н.Г. Понижение размерности обучающей выборки при решении задачи прогнозирования с помощью многослойной нейронной сети / Н.Г. Ким // Лучшая исследовательская статья 2021: сборник статей II Международного научно-исследовательского конкурса, Петрозаводск, 01 ноября 2021 года. – Петрозаводск: Международный центр научного партнерства «Новая Наука», 2021. – С. 272-277. – doi: 10.46916/08112021-3-978-5-00174-363-7. – EDN UPNJUS.
- Русскоязычная версия WOLFRAM. – [Электронный ресурс]. – Режим доступа: https://www.wolfram.com/russian/?source=frontpage-stripe.
- Common Evaluation Metrics (MAE, MSE, RMSE, MAPE). – [Электронный ресурс]. – Режим доступа: https://apxml.com/courses/time-series-analysis-forecasting/chapter-6-model-evaluation-selection/evaluation-metrics-mae-mse-rmse.
- Меры оценки качества регрессионных прогнозов. – [Электронный ресурс]. – Режим досту-па: https://deepmachinelearning.ru/docs/Machine-learning/Regression-evaluation/Regression-evaluation-metrics?ysclid=mcdyil8qe4373105814.
- Адам Оптимизатор. – [Электронный ресурс]. – Режим доступа: https://www.ultralytics.com/ru/glossary/adam-optimizer.
- ADAM: A METHOD FOR STOCHASTIC OPTIMIZATION. – [Электронный ресурс]. – Режим доступа: https://arxiv.org/pdf/1412.6980.
Дополнительные файлы



