Ordinary least squares estimation of non-elementary linear regressions parameters with uniformly quantized explanatory variables
- Authors: Bazilevskiy M.P.1
-
Affiliations:
- Irkutsk state transport university
- Issue: No 4 (2024)
- Pages: 46-56
- Section: Mathematical modeling and its application in scientific research
- URL: https://bakhtiniada.ru/2413-0133/article/view/280578
- DOI: https://doi.org/10.25729/ESI.2024.36.4.005
- ID: 280578
Cite item
Full Text
Abstract
This article is devoted to the development of a new structural specification of regression models. Previously, the author introduced non-elementary linear regressions, in which explanatory variables are transformed using such non-elementary operations as minimum, maximum and modulus. In this article, to transform explanatory variables in a regression model, it is proposed to use the operations of rounding their values to the nearest integer downwards (floor) or up (ceiling). In mathematics and digital signal processing, this conversion process is called quantization. The well-known uniform quantizer with a rounding boundary of 0.5 is considered. A non-elementary linear regression with quantized explanatory variables is proposed. The ranges of possible values of quantization steps size for a model with one explanatory variable are determined. Based on this, an algorithm has been developed for approximate estimation using the ordinary least squares method of the proposed structural specification parameters. Using artificially generated statistical data in the Gretl package, computational experiments were carried out that confirmed the correctness of the above mathematical reasoning. All non-elementary linear regressions with quantized variables obtained during the experiments turned out to be more adequate than classical linear regressions.
Full Text
Введение. Для выявления скрытых знаний в статистических данных в настоящее время весьма эффективны методы регрессионного анализа [1]. Эта область машинного обучения активно развивается в последние годы и не ограничивается только лишь оцениванием параметров, известных широкому кругу специалистов линейных регрессионных моделей методом наименьших квадратов (МНК). Так, например, в [2] предложен подход к построению нечетких регрессионных моделей, в [3] разработан эффективный алгоритм динамического оценивания параметров регрессий с помощью метода наименьших модулей, в [4] предложен метод, устойчивый к наличию экстремальной стационарной координатной помехи, в [5] сформулирован алгоритм оценки модели полиномиальной логит-регрессии.
Реальные статистические зависимости между выходной и входными переменными редко носят линейный характер, поэтому актуальной задачей является поиск новых, вполне интерпретируемых нелинейных математических форм связи между исследуемыми факторами. Такие формы иначе называют структурными спецификациями регрессионных моделей. Среди таких новых спецификаций хотелось бы выделить неэлементарные линейные регрессии [6], содержащие в уравнении модели бинарные операции min и max. Позднее эти регрессии были обобщены [7] с использованием тернарных, кватернарных, …, l-aрных операций min и max. Частным случаем такой спецификации можно считать производственную функцию Леонтьева. В [8] введены модульные линейные регрессии, в которых объясняющие переменные преобразуются с помощью операции модуль, и предложен алгоритм точного оценивания их параметров методом наименьших модулей, а в [9] – алгоритм приближенного МНК-оценивания.
Операции min, max и модуль носят дискретный характер. К ним же относится операция «антье» – целая часть вещественного числа . Цель данной статьи состоит в создании новой спецификации регрессионных моделей, включающей операции «антье», а также алгоритма оценивания её параметров с помощью МНК.
1. Регрессии с квантованными объясняющими переменными. Впервые операцию ввёл К. Ф. Гаусс более 200 лет назад. Как отмечено в [10], эта операция округляет до ближайшего целого числа в меньшую сторону. Например, , , . Операции округления до ближайшего целого в большую сторону не существовало, пока в начале 60-х годов К. Э. Айверсон [11] не ввел названия «пол» (floor) и «потолок» (ceiling). Эти операции обозначаются и соответственно и строго определяются по следующим правилам:
, .
Таким образом, операция пол – округление до ближайшего целого числа в меньшую сторону, т.е. , а операция потолок – округление в большую сторону. Подробное описание свойств этих функций можно найти в работах [10, 12].
В этой связи функция округления до ближайшего целого числа может быть записана в виде:
(1)
Например, , .
Обобщением функции (1) является так называемый равномерный квантователь (quantizer):
(2)
где – шаг квантования.
Тот же самый квантователь (2) можно записать через операцию потолок:
.
Квантование в математике и цифровой обработке сигналов [13, 14] – процесс преобразования входных значений в выходные в меньшем объеме. Разница между входным значением и его квантованным значением называется ошибкой квантования.
Графики квантователя (2) при и при на промежутке представлены на рис. 1 (а), (б).
Рис. 1. Графики функции (2)
Как видно по рис. 1, при расстояние между соседними квантованными значениями (уровнями) равно 1, а при соответственно 0,2. При ступенчатые графики на рис. 1 трансформируются в обычные прямые линии.
Функции (2) в настоящее время активно применяются при квантовании нейронных сетей (см., например, [15]). Интересная идея обсуждается в работе [16], в которой авторы предлагают следующее обобщение функции (2):
(3)
где – граница округления.
В [17] проведены теоретические исследования методов глубокого обучения нейронных сетей с использованием квантователя (2).
Используя квантователь (3), введем в рассмотрение неэлементарные линейные регрессии (НЛР) с квантованными объясняющими переменными:
(4)
где – наблюдаемое значение выходной переменной под номером ; – наблюдаемое значение входной переменной под номером ; – общее количество наблюдаемых значений; – общее количество входных переменных; , – неизвестные параметры; – неизвестный шаг квантования входной переменной ; – неизвестная граница округления входной переменной ; – ошибка аппроксимации в i-м наблюдении.
Модель (4), как и все известные НЛР, относится к нелинейным по оцениваемым параметрам. Несколько упростим её. Будем рассматривать НЛР (4) с границами округления , , т.е. НЛР, в которой квантование переменных подразумевает округление до ближайшего целого значения:
, (5)
Шаги квантования , в НЛР (5) по определению положительны. Определимся с областью возможных значений шагов квантования. Сделаем это сначала для модели с одной объясняющей переменной вида:
, . (6)
Если в НЛР (6) операция будет принимать одно и то же значение для любого наблюдения , то из-за вхождения в модель свободного члена возникнет совершенная мультиколлинеарность, из-за которой становится невозможно единственным образом идентифицировать МНК-оценки. Определим возможные значения шага квантования , при которых в регрессии (6) возникает совершенная мультиколлинеарность. Известно [10], что пол тогда и только тогда, когда
.
Тогда совершенная мультиколлинеарность в НЛР (6) возникает тогда, когда шаг квантования удовлетворяет системе линейных неравенст
, , , . (7)
Пусть переменная принимает как положительные, так и отрицательные значения. Очевидно, что при бесконечно больших значениях шага квантования , операция будет равна нулю для любого . Определим, начиная с какого значения это будет происходить. Для этого подставим в систему (7) . Получим
, , . (8)
Очевидно, что всегда найдется число такое, что множество решений системы (8) не пусто. Из (8) следует, что операция в любом наблюдении обращается в нуль, если
(9)
Заметим, что неравенство (9) справедливо тогда, когда в операции сработала компонента с положительным наблюдением переменной , иначе строгий знак неравенства в (9) нужно заменить на нестрогий.
Таким образом, верхнее ограничение на шаг квантования для НЛР (6), как следует из вышесказанного, имеет вид
или .
Далее будем использовать только первое неравенство с нестрогим знаком.
К сожалению, внутри промежутка могут быть точки, удовлетворяющие системе (7), т.е. точки, в которых в модели (6) возникает совершенная мультиколлинеарность. Рассмотрим возможные случаи.
Случай № 1. Среди значений переменной есть как положительные, так и отрицательные. В таком случае множество решений системы (7) пусто для любого , поэтому внутри промежутка отсутствуют точки с совершенной мультиколлинеарностью. Сюда же можно отнести случай, когда среди значений переменной есть хотя бы 1 нуль.
Случай № 2. Все значения переменной положительны. В этом случае система (7) может иметь решения при , которые можно записать в виде:
, , . (10)
Поэтому из промежутка нужно исключить точки, удовлетворяющие ограничениям (10).
Случай № 3. Все значения переменной отрицательны. В этом случае система (7) при может иметь следующие решения:
, , . (11)
Следовательно, из промежутка нужно исключить точки, удовлетворяющие ограничениям (11).
В зависимости от конкретной ситуации, исходя из вышеуказанного, можно определить область возможных значений шага квантования в модели (6). Тогда для любой точки из этой области легко вычисляются МНК-оценки параметров и регрессии. Поэтому, взяв некоторое количество точек из области возможных значений параметра , оценив в каждой из них линейную относительно параметров и модель, и выбрав регрессию с минимальной величиной суммы квадратов ошибок, получим близкие к оптимальным оценки НЛР (6). Мера такой близости зависит от величины шага разбиения области значений параметра : чем меньше шаг, тем ближе оценки к оптимальным, но тем выше вычислительная сложность задачи. Таким образом, на основании вышеизложенного можно сформулировать следующий алгоритм приближенного МНК-оценивания параметров НЛР (5).
Шаг 1. Сформировать области возможных значений шагов квантования входных переменных. При этом:
- если среди значений j-й переменной есть как положительные, так и отрицательные, либо хотя бы одно нулевое значение, то область имеет вид
; (12)
- если все значения j-й переменной положительны, то ограничение (12) требуется дополнить условиями
, , ; (13)
- если все значения j-й переменной отрицательны, то ограничение (12) следует дополнить условиями
, , .
Шаг 2. Выбрать в каждой области некоторое количество точек.
Шаг 3. Используя выбранные точки вместо шагов квантования переменных в (5), оценить с помощью МНК параметры всех возможных линейных регрессий (5).
Шаг 4. Выбрать лучшую модель, например, по величине коэффициента детерминации .
2. Вычислительные эксперименты. Вычислительные эксперименты проводились с использованием искусственно сгенерированных статистических данных, представленных в первых трех столбцах таблицы 1. Для оценивания параметров НЛР по предложенному алгоритму в эконометрическом пакете Gretl был написан специальный скрипт на языке hansl. При этом для округления значений использована встроенная функция floor.
Таблица 1. Статистические данные
y | x1 | x2 | ||||
2,61 | 7,1 | 6,33 | 7,8 | 8,1 | 7,2 | 6,3 |
12,96 | 7,3 | 15,145 | 7,8 | 16,2 | 7,2 | 14,7 |
4,15 | 4,8 | 9,462 | 5,2 | 8,1 | 3,6 | 10,5 |
13,79 | 7,1 | 11,902 | 7,8 | 12,15 | 7,2 | 12,6 |
8,55 | 5,9 | 9,523 | 5,2 | 8,1 | 7,2 | 10,5 |
5,11 | 5,3 | 12,636 | 5,2 | 12,15 | 3,6 | 12,6 |
14,26 | 11,3 | 10,375 | 10,4 | 12,15 | 10,8 | 10,5 |
1,27 | 2,9 | 6,016 | 2,6 | 4,05 | 3,6 | 6,3 |
6,34 | 8,3 | 6,117 | 7,8 | 8,1 | 7,2 | 6,3 |
14,33 | 6,6 | 14,366 | 7,8 | 16,2 | 7,2 | 14,7 |
Эксперимент № 1. Сначала по этим данным с помощью МНК была построена парная линейная регрессия вида:
, (14)
для которой .
Затем с помощью разработанного алгоритма оценивались параметры НЛР (6) с квантованной переменной . Поскольку все значения этой переменной положительны, то на первом шаге алгоритма область возможных значений шага квантования определялась из неравенств (12), (13). Перебирая различные комбинации переменной в (13), оказалось, что эта система неравенств решений не имеет. Тогда область возможных значений шага квантования
. (15)
На втором шаге алгоритма на промежутке (15) равномерно были выбраны точки (начальное значение – 0,01, шаг – 0,01). На третьем шаге с помощью МНК оценивались параметры уже линейных регрессий (6). На рис. 2 представлен график зависимости полученных коэффициентов детерминации оцененных регрессий от шага квантования . Заметим, что промежуток (15) был взят несколько шире.
Рис. 2. Зависимость R2 от k1
По рис. 2 видно, что когда шаг квантования мал, то коэффициент детерминации НЛР (6) близок к коэффициенту линейной регрессии (14). На промежутке частота изменения очень высока, а, начиная со значения 2,4, она постепенно снижается. Амплитуда же, наоборот, сначала низкая, а потом постепенно разрастается. При коэффициент детерминации равен 0, поскольку возникает совершенная мультиколлинеарность. Ни в каких других точках он в нуль не обращается. Полученные результаты подтверждают корректность вышеописанных математических рассуждений. Своё наибольшее значение 0,49021 коэффициент достигает на промежутке . При НЛР (6) имеет вид:
.
Значения квантователя представлены в четвертом столбце табл. 1. Тем самым, при квантовании переменной удалось повысить качество линейной регрессии (14) по коэффициенту детерминации с 0,3994 до 0,49021.
Эксперимент № 2. Аналогичным образом строились зависимости от . Оцененная с помощью МНК парная линейная регрессия имеет вид
, (16)
а её коэффициент .
Область возможных значений шага квантования также определялась из неравенств (12), (13). Но в этот раз оказалось, что система (13) имеет решения
, .
Поэтому область возможных значений шага квантования
. (17)
На промежутке (17) равномерно были выбраны точки (начальное значение – 0,01, шаг – 0,01). График зависимости полученных коэффициентов детерминации оцененных линейных регрессий от шага квантования представлен на рис. 3.
Рис. 3. Зависимость R2 от k2
По рис. 3 видно, что коэффициент детерминации оказался равен 0 в точках, не принадлежащих промежутку (17). Полученные результаты вновь согласуются с описанной выше математической теорией. Своё наибольшее значение 0,66779 коэффициент достигает на промежутке . При НЛР имеет вид:
.
Значения квантователя представлены в пятом столбце табл. 1. Тем самым, при квантовании переменной удалось повысить качество линейной регрессии (16) по коэффициенту детерминации с 0,5358 до 0,6678.
Эксперимент № 3. Строились зависимости от и . Сначала была получена модель множественной линейной регрессии вида:
, (18)
для которой .
Для построения НЛР (5) с квантованными переменными и были использованы те же области возможных шагов квантования (15) и (17). На этих промежутках равномерно были выбраны точки (начальное значение – 0,1, шаг – 0,1). Решив переборную задачу, была получена следующая НЛР:
,
для которой .
Значения квантователей и представлены в шестом и седьмом столбцах табл. 1. Как видно, при квантовании переменных и удалось повысить качество линейной регрессии (18) по коэффициенту детерминации с 0,811975 до 0,924549.
Заключение. В статье предложены и исследованы неэлементарные линейные регрессии с квантованными объясняющими переменными. Результаты исследований позволили разработать алгоритм приближенного МНК-оценивания параметров предложенных моделей. Применение разработанного алгоритма при обработке искусственно сгенерированных статистических данных показало, что при квантовании объясняющих переменных качество регрессионных моделей может ощутимо улучшаться.
К сожалению, разработанный и описанный в статье алгоритм не гарантирует нахождения оптимальных МНК-оценок и шагов квантования переменных в неэлементарной линейной регрессии. Однако области возможных значений неизвестных параметров удалось идентифицировать однозначно, поэтому при разбиении этих областей как можно большим количеством точек будет получаться решение, мало отличающееся от оптимального. Таким образом, разработанный в статье математический и алгоритмический аппарат можно успешно применять для решения реальных прикладных задач анализа данных в различных предметных областях. Для этого, в первую очередь, возникает необходимость в разработке вместо скрипта пакета Gretl специализированного программного обеспечения, имеющего интерфейс. Научный интерес вызывает проведение сравнительного анализа качества решения конкретных задач моделирования с использованием разработанных ранее неэлементарных линейных регрессий (с операциями минимум, максимум и модуль) и новых спецификаций (с операциями пол и потолок).
About the authors
Mikhail P. Bazilevskiy
Irkutsk state transport university
Author for correspondence.
Email: mik2178@yandex.ru
ORCID iD: 0000-0002-3253-5697
SPIN-code: 4347-5028
Associate professor, candidate of technical sciences
Russian Federation, IrkutskReferences
- Arkes J. Regression analysis: a practical introduction. London: Routledge, 2023, 412 p.
- Ismagilov I.I., Alsaied Gh. Klassifikatsiya regressionnykh modeley i metod postroeniya lineynykh nechetkikh regressiy [Classification of regression models and a method for constructing linear fuzzy regressions]. Innovatsionnaya ekonomika: informatsiya, analitika, prognozy [Innovative economy: information, analysis, prognoses], 2023, no. 2, pp. 130-138.
- Golovanov A.A., Tyrsin A.N. Regressionnyy analiz dannykh na osnove metoda naimen'shikh moduley v dinamicheskikh zadachakh otsenivaniya [Regression analysis of data based on the method of least absolute deviations in dynamic estimation problems]. Zavodskaya laboratoriya. Diagnostika materialov [Industrial laboratory. Diagnostics of materials], 2023, vol. 89, no. 5, pp. 71-80.
- Bocharov D.A. Metod lineynoy regressii, ustoychivyy k ekstremal'nym statsionarnym pomekham [A linear regression method robust to extreme stationary clutter]. Sensornye sistemy [Sensory Systems], 2020, vol. 34, no. 1, pp. 44-56.
- Farghali R.A., Qasim M., Kibria B.G., Abonazel M.R. Generalized two-parameter estimators in the multinomial logit regression model: methods, simulation and application. Communications in statistics-simulation and computation, 2023, vol. 52, no. 7, pp. 3327-3342, doi: 10.1080/03610918.2021.1934023.
- Bazilevskiy M.P. Metod postroeniya neelementarnykh lineynykh regressiy na osnove apparata matematicheskogo programmirovaniya [A method for constructing nonelementary linear regressions based on mathematical programming]. Problemy upravleniya [Control sciences], 2022, no. 4, pp. 3-14.
- Bazilevskiy M.P. Obobshchenie neelementarnykh lineynykh regressiy [Generalization of non-elementary linear regressions]. Modelirovanie i analiz dannykh [Modeling and Data Analysis], 2023, vol. 13, no. 2, pp. 85-98.
- Bazilevskiy M.P., Oydopova A.B. Otsenivanie modul'nykh lineynykh regressionnykh modeley s pomoshch'yu metoda naimen'shikh moduley [Estimation of modular linear regression models using the least absolute deviations]. Vestnik Permskogo natsional'nogo issledovatel'skogo politekhnicheskogo universiteta. Elektrotekhnika, informatsionnye tekhnologii, sistemy upravleniya [Bulletin of Perm national research polytechnic university. Electrotechnics, informational technologies, control systems], 2023, no. 45, pp. 130-146.
- Bazilevskiy M.P. Programmnoe obespechenie dlya otsenivaniya modul'nykh lineynykh regressiy [Software for estimating modular linear regressions]. Informatsionnye i matematicheskie tekhnologii v nauke i upravlenii [Information and mathematical technologies in science and management], 2023, no. 3 (31), pp. 136-146.
- Graham R.L., Knuth D.E., Patashnik O. Konkretnaya matematika. Osnovanie informatiki [Concrete mathematics. A foundation for computer science]. Moscow, Mir [Worls], 1998, 703 p.
- Iverson K.E. A programming language. Proceedings of the May 1-3: Spring joint computer conference, 1962, pp. 345-351.
- Trapeznikov S.S., Izergina G.S. Tselaya i drobnaya chast' chisla [Integer and fractional part of a number]. Kraevaya nauchno-prakticheskaya konferentsiya «Prikladnye i fundamental'nye voprosy matematiki» [Regional scientific and practical conference «Applied and fundamental issues of mathematics»], Perm, 2014, 30 p.
- Mar'ev A.A. Metody i ustroystva tsifrovoy obrabotki signalov. Diskretizatsiya. Kvantovanie. Tsifrovoy analiz signalov [Methods and devices of digital signal processing. Sampling. Quantization. Digital signal analysis]. Rostov-na-Donu – Taganrog, YuFU Publ., 2020, 132 p.
- Malygin I.G., Korolev O.A. Vysokoskorostnoy algoritm peredachi videoinformatsii o chrezvychaynykh situatsiyakh na ob"ektakh transporta [High-speed algorithm for transmitting video information about emergency situations on transport objects]. Morskie intellektual'nye tekhnologii [Marine intellectual technologies], 2021, vol. 1, no. 1, pp. 64-70.
- Louizos C., Reisser M., Blankevoort T. et al. Relaxed quantization for discretized neural networks. arXiv preprint, 2018, available at: https://arxiv.org/pdf/1810.01875(accessed: 05/12/2024).
- Li Z., Guo C., Zhu Z. et al. Efficient adaptive activation rounding for post-training quantization. arXiv preprint, 2022, available at: https://arxiv.org/pdf/2208.11945 (accessed: 05/12/2024).
- Li H., De S., Xu Z. et al. Training quantized nets: a deeper understanding. Advances in neural information processing systems, 2017, vol. 30, available at: https://proceedings.neurips.cc/paper/2017/file/ 1c303b0eed3133200cf715285011b4e4-Paper.pdf (accessed: 05/12/2024.
Supplementary files
