Higher-Order Iterative Learning Control Algorithms for Linear Systems
- Авторлар: Pakshin P.V.1, Emelianova Y.P.1, Emelyanov M.A.1
-
Мекемелер:
- Arzamas Polytechnic Institute of the Nizhny Novgorod State Technical University n.a. R.E. Alekseev
- Шығарылым: Том 64, № 4 (2024)
- Беттер: 644-657
- Бөлім: Optimal control
- URL: https://bakhtiniada.ru/0044-4669/article/view/269969
- DOI: https://doi.org/10.31857/S0044466924040056
- EDN: https://elibrary.ru/ZKANBV
- ID: 269969
Дәйексөз келтіру
Толық мәтін
Аннотация
Iterative learning control (ILC) algorithms appeared in connection with the problems of increasing the accuracy of performing repetitive operations by robots. They use information from previous repetitions to adjust the control signal on the current repetition. Most often, information from the previous repetition only is used. ILC algorithms that use information from several previous iterations are called higher-order algorithms. Recently, interest in these algorithms has increased in the literature in connection with robotic additive manufacturing problems. However, in addition to the fact that these algorithms have been little studied, there are conflicting estimates regarding their properties. This paper proposes new higher-order ILC algorithms for linear discrete and differential systems. The idea of these algorithms is based on an analogy with multi-step methods in optimization theory, in particular, with the heavy ball method. An example is given that confirms the possibility to accelerate convergence of the learning error when using such algorithms.
Толық мәтін
ВВЕДЕНИЕ
Методы и алгоритмы управления с итеративным обучением появились как инструмент повышения точности выполнения повторяющихся операций роботами (см. [1]). После появления пионерской работы [1], в силу относительной простоты и естественной структуры конечных алгоритмов, управление с итеративным обучением (УИО) быстро приобрело широкую популярность, как среди теоретиков, так и среди практиков. Для первоначального знакомства с этим активно развивающимся направлением можно рекомендовать обзоры [2], [3], а также недавнюю монографию [4]. В настоящее время алгоритмы УИО находят эффективное применение в аддитивных производствах, в частности, в установках высокоточного многослойного лазерного напыления (см. [5], [6]) в медицинских роботах для реабилитации больных, перенесших инсульт (см. [7], [8]), в устройствах поддержки желудочка сердца (см. [9]) и в других многочисленных приложениях.
Одной из важнейших задач является повышение скорости сходимости алгоритмов УИО. Для решения этой задачи используются различные подходы. В настоящей работе предлагается подход, мотивированный идеей многошаговых методов в теории оптимизации (см. [10]). Хорошо известно, что такие двуxшаговые методы как метод тяжелого шарика и метод сопряженных градиентов позволяют существенно ускорить сходимость градиентного метода (см. [10]–[12]). Алгоритмы УИО, аналогично алгоритму градиентного метода, для формирования управления на текущем шаге используют информацию с текущего и предыдущего шагов и, как в многошаговых методах оптимизации, можно ожидать, что учет в этих алгоритмах более глубокой “предыстории” позволит ускорить сходимость. Далее алгоритмы УИО, использующие информацию с текущего и предыдущего шагов будем называть алгоритмами первого порядка, а при использовании информации с большего числа предыдущих шагов — алгоритмами высшего порядка.
Предлагаемый подход не является абсолютно новым и в различных версиях изучался в литературе (см. [13]–[21]). Однако во всех этих работах на текущем шаге используется лишь неполная информация об управлении на прошлых шагах, что представляется нелогичным в рамках указанных аналогий с многошаговыми методами оптимизации, где роль “управления” выполняет аргумент оптимизируемой функции. Тем не менее, в работах [14], [15] показано что даже такие “неполные” структуры УИО высшего порядка обеспечивают более высокую скорость сходимости, чем структуры УИО первого порядка. Такие же результаты были получены в [16]–[19], причем в [16]–[18] утверждаeтся, что эффект ускорения в алгоритмах высшего порядка достигается за счет эффектов обучения в течение нескольких предыдущих итераций. В [20] относительно УИО высшего и первого порядков представлены весьма неопределенные выводы. Авторы этой работы считают, что трудно обосновать достоинства той или иной стратегии УИО, хотя идея УИО высшего порядка кажется естественной. В работе [21] предложен алгоритм УИО на основе метода Нестерова (см. [22]), но скорость сходимости алгоритма по доказанному авторами составляет O (1 / k), в то время, как хорошо известно, она составляет O (1 / k2) (см. [22], [23]). Кроме того, предложенный алгоритм относится к типу причинных алгоритмов УИО и обладает известными недостатками (см. [2]), существенно ограничивающими их применение. Важно отметить, что выводы перечисленных работ сделаны на рассмотрении частных случаев и примеров, и ни в одной из них не приведен строгий сравнительный анализ в общей постановке даже для линейных систем.
В литературе изучались также другие свойства УИО высшего порядка (см. [24], [25]). В [24] утверждается, что реальной мотивацией использования УИО высшего порядка является уменьшение влияния помех и шума. В [25] рассматривается оптимальность УИО в смысле минимизации следа ковариационной матрицы ошибок управления в классе некоррелированных случайных возмущений. Показано, что УИО высшего порядка не уменьшает минимальное значение этого следа по сравнению с УИО первого порядка. Таким образом, выводы [24] и [25] противоречат друг другу. Окончательный вывод требует дополнительного исследования, поскольку в [24] не представлено достаточно полных доказательств, а в [25] в алгоритме УИО используется дискретный аналог производной необработанного случайного сигнала, и такое решение нельзя считать допустимым, поскольку уже само вычисление такой величины приводит к возрастанию дисперсии. Вопросы скорости сходимости ошибки обучения в [24] и [25] не изучались.
Наконец, отметим, что совсем недавно появился активный интерес к разработке и применению алгоритмов УИО высшего порядка в задачах аддитивных производств (см. [26]), мотивированный особенностями новых прикладных задач.
В настоящей работе, в отличие от упомянутых работ, строятся непричинные алгоритмы УИО, при этом по аналогии с многошаговыми методами на текущем повторении используется полная предыстория, т. е. полностью учитываются управляющие воздействия на определенном числе предыдущих повторений. Для построения алгоритмов используется разработанная авторами теория устойчивости повторяющихся процессов (см. [27]), в рамках которой условия сходимости ошибки обучения выражаются через свойства дивергенции векторной функции Ляпунова. В рассматриваемом линейном случае эта теория позволяет использовать эффективную технику линейных матричных неравенств. Общих результатов, доказывающих преимущество алгоритмов УИО высшего порядка в смысле увеличения скорости сходимости ошибки обучения, пока получить не удалось, но приведенный пример, использующий характеристики реального портального робота, убедительно подтверждает это преимущество и служит серьезной мотивацией для дальнейшего развития общей теории.
ДИСКРЕТНЫЕ СИСТЕМЫ
2.1. Постановка задачи
Рассмотрим дискретную систему в повторяющемся режиме, описываемую линейной моделью в пространстве состояний
, (1)
где k — номер повторения, — вектор состояния, — скалярная входная переменная, имеющая смысл управления, действующего на систему, — выходная переменная, которая в рассматриваемом классе задач часто называется профилем повторения, N — продолжительность повторения, A, b и c — постоянная матрица и векторы соответствующих размеров.
Закон управления формируется в соответствии с алгоритмом
, (2)
, (3)
где vk = 0, если k ∈[–d, 0], d — число предыдущих повторений, информация с которых используется на текущем повторении, Δvk+1 — обновляющая поправка на повторении k + 1, τi, i ∈[0, d] — весовые коэффициенты.
Обозначим через , 0 ≤ p ≤ N – 1, желаемую (эталонную) траекторию, которая должна воспроизводиться на выходе системы, тогда
(4)
представляет собой ошибку обучения на повторении k. Поставим задачу найти такую последовательность управлений {uk}, что выполняются условия
, (5)
. (6)
Эти условия обеспечивают сходимость ошибки обучения к нулю при k → ∞ при сохранении ограниченности последовательности входных переменных. Далее эти условия будем называть условиями сходимости.
Из условий (2) и (3) следует, что эта задача сводится к нахождению обновляющей поправки и весовых коэффициентов, при которых гарантируется выполнение условий (5) и (6). В соответствии с концепцией, предложенной Я. З. Цыпкиным (см. [28]), эта задача относится к задачам обучения. При d = 0 и τi = 1, когда на текущем повторении используется только информация с предыдущего повторения, эта задача известна как задача построения алгоритма управления с итеративным обучением первого порядка, которая наиболее полно изучена в литературе. При d > 0 имеем задачу построения алгоритма управления с итеративным обучением высшего порядка, которая изучена значительно меньше.
Заметим, что рассмотрение систем со скалярными входными и выходными переменными связано лишь с возможностью более компактного изложения результатов, и в случае систем с векторными входными и выходными переменными принципиальных затруднений не возникает.
2.2. Построение модели относительно приращений переменных в форме повторяющегося процесса
Введем скалярные переменные и вектор . Тогда по построению
, (7)
где
. (8)
С использованием (7) первое уравнение в (1) можно записать как
, (9)
где
.
Введем вспомогательные векторы
. (10)
Тогда из (7) и (10) следует
, (11)
где . Учитывая (10), запишем уравнение в приращениях вдоль траектории повторения в виде
. (12)
Учитывая, что согласно (4) , и, используя (12), получим следующую систему уравнений в приращениях переменных:
(13)
где .
Зададим корректирующую поправку в виде
, (14)
где вектор k1 и скаляр k2 подлежат определению из условий сходимости (5), (6). Подставляя (14) в (13), запишем модель в приращениях переменных в окончательном виде:
(15)
Модель (15) записана в форме дискретного повторяющегося процесса, относящегося к классу так называемых 2D cистем (см. [29]). Один из возможных подходов к получению условий сходимости ошибки обучения может быть основан на теории устойчивости повторяющихся процессов с использованием векторных функций Ляпунова (см. [27]). Эта теория далее используется в настоящей статье для построения алгоритмов управления с итеративным обучением.
2.3. Общие условия сходимости ошибки обучения
Введем в рассмотрение вектор и определим на траекториях системы (15) векторную функцию Ляпунова
, (16)
где . Определим на траекториях системы (15) дискретный аналог оператора дивергенции
. (17)
Для краткости далее будем называть этот оператор просто дивергенцией. Дальнейший анализ основан на следующей теореме, которая является следствием теоремы 1 из [27].
Теорема 1. Предположим, что существует векторная функция Ляпунова (16) и положительные скаляры c1, c2 и c3 такие, что на траекториях системы (15) выполняются неравенства
, (18)
, (19)
. (20)
Тогда алгоритм управления с итеративным обучением (2), (3) с обновляющей поправкой (14) гарантирует выполнение условий сходимости ошибки обучения (5), (6).
Доказательство. В соответствии с теоремой 1 из [27] при условиях (18)–(20) существуют α > 0 и 0 < λ < 1 такие, что
. (21)
Следовательно, , где , и, принимая во внимания определение , . Таким образом, справедливо (5). Далее, поскольку ∆vk(p) определено соотношением (14), из (3) c учетом (21) получим
, (22)
где . Из (22) следует, что
.
B правой части последнего неравенства стоит сходящаяся при k → ∞ геометрическая прогрессия, следовательно, предел в левой части |v∞(p)| при k → ∞ существует, и при этом справедлива оценка
,
откуда в соответствии с (2) следует, что справедливо условие (6).
2.4. Построение алгоритма
Обозначим и введем в рассмотрение матрицы согласованных размеров
.
Рассмотрим дискретное неравенство Риккати
(23)
относительно матрицы , где , 0 < σ < 1, и R > 0 — соответственно весовая матрица и весовой коэффициент. Применяя лемму о дополнении Шура, получим, что если линейные матричные неравенства
, (24)
разрешимы относительно , где X1 и X2 имеют те же размерности, что и P1, и P2, то P = X–1.
Определим
(25)
и предположим, что выполняется следующее матричное неравенство:
, (26)
где . Выбирая компоненты векторной функции Ляпунова (16) в виде квадратичных форм
и вычисляя дивергенцию функции (16) вдоль траекторий системы (15) с учетом (23) и (26), получим
(27)
Поскольку , из (27) следует, что выполнены все условия теоремы 1. Таким образом, доказан следующий результат.
Теорема 2. Предположим, что для некоторого выбора весовой матрицы , вектора θ и скаляров R > 0 и 0 < σ < 1 линейное матричное неравенство (24) имеет решение , матрица P = X–1 удовлетворяет неравенству (26), k1 = f1, k2 = f3, где f1 и f3 — компоненты вектора f из (25). Тогда алгоритм управления с итеративным обучением (2), (3) с обновляющей поправкой (14) обеспечивает выполнение условий сходимости ошибки обучения (5), (6).
Заметим, что параметр характеризует запас устойчивости системы (15). С его увеличением, при выполнении условий теоремы 2, спектр матрицы и число , оставаясь внутри единичного круга, удаляются от его границы.
ДИФФЕРЕНЦИАЛЬНЫЕ СИСТЕМЫ
3.1. Постановка задачи
Рассмотрим дифференциальную систему в повторяющемся режиме, описываемую линейной моделью в пространстве состояний
, (28)
где все обозначения имеют тот же смысл, что и в (1).
Алгоритм управления формируется следующим образом:
, (29)
, (30)
где vk = 0, если k ∈[–d, 0], d — число предыдущих повторений, информация с которых используется на текущем повторении, Δvk+1 — обновляющая поправка, τi, i ∈[0, d] — весовые коэффициенты.
Обозначим через , 0 ≤ t ≤ T, желаемую (эталонную) траекторию, тогда
(31)
будет представлять собой ошибку обучения на повторении k. Для сходимости ошибки обучения последовательность входных переменных {uk(t)} должна обеспечивать выполнение условий
, (32)
. (33)
Из (29) и (30) следует, что, как и в случае дискретной системы, задача сводится к нахождению обновляющей поправки, и при которой выполняются условия (32) и (33).
3.2. Вывод модели в приращениях и условия сходимости
Вводя переменную
,
перепишем (28) в виде
.
Тогда с учетом (29) имеем
,
и окончательно, вводя переменные , имеем
. (34)
Введем вспомогательные переменные
и запишем уравнения динамики относительно повторений:
, (35)
где , Ad и bd определены в (8). Уравнение (34) с учетом (35) можно переписать в виде
, (36)
Из (36) и (31) следует
. (37)
Уравнения (35) и (37) задают полное описание динамики относительно повторений. Зададим обновляющую поправку в виде
(38)
и запишем полную модель в приращениях:
(39)
Модель (39) записана в форме дифференциального повторяющегося процесса, относящегося к классу 2D систем. Как и в предыдущем разделе дальнейший анализ сходимости ошибки обучения будет основан на теории устойчивости повторяющихся процессов с использованием векторных функций Ляпунова из [27].
Введем в рассмотрение вектор и векторную функцию Ляпунова
, (40)
где .
Аналог оператора дивергенции этой функции вдоль траекторий системы (39) имеет вид
, (41)
где .
Теорема 3. Предположим, что существует векторная функция Ляпунова (40) и положительные скаляры c1 — c4 такие, что на траекториях системы (39) выполняются неравенства
(42)
Тогда алгоритм управления с итеративным обучением (29), (30) с обновляющей поправкой (38) гарантирует выполнение условий сходимости ошибки обучения (32), (33).
Доказательство. В соответствии с теоремой 2 из [27] при условиях (42) существуют α > 0, λ > 0 и 0 < ζ < 1 такие, что
. (43)
Следовательно, где и, принимая во внимание определение , . Таким образом, справедливо (32). Далее, поскольку δvk(p) определено соотношением (38), то, учитывая (43), по аналогии с доказательством теоремы 1 нетрудно получить оценку
. (44)
Из (43) следует
. (45)
Из (36) c учетом (44) и (45) получим
,
где , и
,
где . С учетом двух последних неравенств
,
где . Из (30) с учетом последнего неравенства следует
.
Условие (33) теперь следует из повторения, применительно к последнему неравенству, выводов, аналогичных сделанных в доказательстве теоремы 1 после неравенства (22) с учетом (29).
3.3. Построение алгоритма с использованием техники линейных матричных неравенств
Введем расширенный вектор , аналогичный введенному в предыдущем разделе для дискретных систем. Выбирая компоненты векторной функции Ляпунова (40) в виде квадратичных форм
и вычисляя дивергенцию этой функции вдоль траекторий системы (39), получим
, (46)
где
и размеры блоков матриц согласованы с размерностями переменных . Проводя аналогию с теорией линейно-квадратичного регулятора (ЛКР), потребуем, чтобы выполнялось неравенство
, (47)
где — весовые матрицы, тогда нетрудно видеть, что все условия теоремы 3 будут выполнены. Неравенство (47) эквивалентно матричному неравенству
. (48)
Введем переменные и Z как решение уравнения
. (49)
Тогда, применяя к (48) лемму о дополнении Шура, получим
,
где
.
Если система матричных уравнений и неравенств (49), (50) разрешима относительно и Z, то
. (50)
Сделанные выводы можно объединить в виде следующей теоремы.
Теорема 4. Предположим, что для некоторого выбора весовой матрицы , вектора θ и скаляра R > 0 система линейных матричных уравнений и неравенств (49), (50) разрешима относительно и Z, а вектор k определяется по формуле (50). Тогда алгоритм управления с итеративным обучением (29), (30) с обновляющей поправкой (38) обеспечивает выполнение условий сходимости ошибки обучения (32), (33).
ПРИМЕР
Рассмотрим управляемое движение манипулятора по горизонтальной оси, перпендикулярной направлению движения ленты конвейера многоосевого портального робота. Модель динамики, полученная экспериментально на основе частотного анализа [31], задается передаточной функцией
. (51)
Желаемая (эталонная) траектория движения продолжительностью 2 с представлена на фиг. 1. Для построения дискретной модели в пространстве состояний используем стандартные функции MATLAB, принимая период дискретности равным 0.01 с.
Фиг. 1. Желаемая траектория движения
Рассмотрим сначала случай d = 1, при этом согласно (2), (3), (14), как в методе тяжелого шарика, на текущем шаге используется информация с двух предыдущих шагов. Введем в рассмотрение среднеквадратическую ошибку (СКО) обучения
, (52)
и сравнение скорости сходимости алгоритмов будем проводить по числу шагов, при котором E(k) уменьшится в 10 раз относительно начального значения. Матрицa Q и положительные скаляры R, σ были выбраны, исходя из принципов теории ЛКР:
.
Отметим, что выбор этих параметров представляет отдельную нетривиальную задачу, для более детального ознакомления с которой заинтересованный читатель может обратиться к [32]–[35]. В данном случае были использованы асимптотические свойства ЛКР (см. [35]), в соответствии с которыми малый вес R не ограничивает энергию управления, а большой вес при ошибке обучения в матрице Q придает доминирующий характер этой переменной при формировании управления.
При τ0 = 1 и τ1 = 0 получаем стандартный алгоритм первого порядка, для которого
.
Для алгоритмов второго порядка при τ0 = 1 естественно задавать τ1, не превышающим 1, иначе обновленная информация будет подавляться устаревшей. При 0 < τ1 < 1 получаем ускорение сходимости относительно алгоритма первого порядка. При τ1 > 1 в силу преобладания устаревшей информации происходит нарушение монотонности изменения E(k) и замедление скорости сходимости относительно алгоритма первого порядка. На фиг. 2 представлено сравнение алгоритма первого порядка и алгоритма второго порядка при τ1 = 0.8, при этом
.
Фиг. 2. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и второго порядка (сплошная линия) при τ1 = 0.8
На фиг. 3 представлено то же сравнение при τ1 = 1.2, в этом случае
.
Фиг. 3. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и второго порядка (сплошная линия) при τ1 = 1.2
Рассмотрим случай d = 2. При этом согласно (2), (3), (14) на текущем шаге учитывается информация с трех предыдущих шагов. Сохраним все параметры теми же, что и при d = 1. Единственное отличие будет в естественном увеличении размера среднего блока матрицы Q, в результате она примет вид
.
Расчеты и моделирование показали, что при τ0 = 1 обнуление одного из коэффициентов τ1 или τ2 при изменении второго в интервале (0, 1) дает практически то же самое ускорение сходимости ошибки обучения, что и при (фиг. 4 и фиг. 5).
Фиг. 4. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и третьего порядка (сплошная линия) при τ1 = 0.8, τ2 = 0
Фиг. 5. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и третьего порядка (сплошная линия) при τ1 = 0, τ2 = 0.8
Близкая картина наблюдается, если оба коэффициента не равны нулю и τ2 < τ1 (фиг. 6), но при этом, начиная с некоторого значения τ1 ошибка обучения начинает расходиться.
Фиг. 6. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и третьего порядка (сплошная линия) при τ1 = 0.8, τ2 = 0.4
При τ2 > τ1 ошибка всегда расходится (фиг. 7), что объясняется противоречивым характером информации, поступающей в алгоритм.
Фиг. 7. Изменение СКО обучения в случаях алгоритма первого порядка (штриховая линия) и третьего порядка (сплошная линия) при τ1 = 0.6, τ2 = 0.7
ЗАКЛЮЧЕНИЕ
В статье предложены новые алгоритмы управления с итеративным обучением высшего порядка, отличающиеся от немногих известных тем, что они учитывают полную информацию о предыдущих шагах и по структуре аналогичны алгоритмам многошаговых методов в теории оптимизации. Примеры подтверждают ускорение сходимости ошибки обучения относительно алгоритмов первого порядка. В дальнейших исследованиях предполагается оценить робастность и эффективность предложенных алгоритмов в условиях неопределенности модели и с учетом внешних случайных возмущений и шумов измерений. Остается также открытым вопрос конструктивного выбора глубины памяти (параметр d) и весовых коэффициентов (τ1, ..., τd). Отдельным направлением является распространение полученных результатов на нелинейные системы.
Наконец, наиболее трудным является строгое общее теоретическое обоснование возможных преимуществ алгоритмов УИО высшего порядка в смысле скорости сходимости ошибки обучения. Хотя примеры вселяют определенную надежду, в общем случае эта задача пока остается открытой даже для линейных систем.
Идея этой работы появилась под влиянием докладов на традиционной молодежной летней школе им. Б. Т. Поляка (Нижний Новгород, 10—15 июля 2023 г.). Авторы выражают благодарность А. В. Гасникову за конструктивную дискуссию и указание на интересную работу [12].
Авторлар туралы
P. Pakshin
Arzamas Polytechnic Institute of the Nizhny Novgorod State Technical University n.a. R.E. Alekseev
Хат алмасуға жауапты Автор.
Email: pakshinpv@gmail.com
Ресей, Arzamas
Yu. Emelianova
Arzamas Polytechnic Institute of the Nizhny Novgorod State Technical University n.a. R.E. Alekseev
Email: emelianovajulia@gmail.com
Ресей, Arzamas
M. Emelyanov
Arzamas Polytechnic Institute of the Nizhny Novgorod State Technical University n.a. R.E. Alekseev
Email: mikhailemelianovarzamas@gmail.com
Ресей, Arzamas
Әдебиет тізімі
- Arimoto S., Kawamura S., Miyazaki F. Bettering operation of robots by learning // J. Robot. Syst. 1984. V. 1. P. 123—140.
- Bristow D. A., Tharayil M., Alleyne A. G. A survey of iterative learning control: A learning-based method for high-performance tracking control // IEEE Control Syst. Magaz. 2006. V. 26. № 3. P. 96—114.
- Ahn H-S., Chen Y. Q., Moore K. L. Iterative learning control: Survey and categorization // IEEE Trans. Syst. Man Cybern. Part C: Appl. Rev. 2007. V. 37. № 6. P. 1099—1121.
- Rogers E., Chu B., Freeman C., Lewin P. Iterative learning control algorithms and experimental benchmarking Chichester: John Wiley & Sons, 2023.
- Lim I., Hoelzle D. J., Barton K. L. A multi-objective iterative learning control approach for additive manufacturing applications // Control Engineer. Practice. 2017. V. 64. P. 74—87.
- Sammons P. M., Gegel M. L., Bristow D. A., Landers R. G. Repetitive process control of additive manufacturing with application to laser metal deposition // IEEE Transact. Control Syst. Technol. 2019. V. 27. № 2. P. 566—575.
- Freeman C. T., Rogers E., Hughes A.-M., Burridge J. H., Meadmore K. L. Iterative learning control in health care: electrical stimulation and robotic-assisted upper-limb stroke rehabilitation // IEEE Control Syst. Magaz. 2012. V. 47. P. 70—80.
- Meadmore K. L., Exell T. A., Hallewell E., Hughes A.-M., Freeman C. T., Kutlu M., Benson V., Rogers E., Burridge J. H. The application of precisely controlled functional electrical stimulation to the shoulder, elbow and wrist for upper limb stroke rehabilitation: a feasibility study // J. of NeuroEngineer. and Rehabilitation. 2014. P. 11—105.
- Ketelhut M., Stemmler S., Gesenhues J., Hein M., Abel D. Iterative learning control of ventricular assist devices with variable cycle durations // Control Engineer. Practice. 2019. V. 83. P. 33—44.
- Поляк Б. Т. О некоторых способах ускорения сходимости итерационных методов // Ж. вычисл. матем. и матем. физ. 1964. Т. 4. № 5. С. 791—803.
- Поляк Б. Т. Введение в оптимизацию. М.: Наука, 1983.
- d’Aspremont A., Scieur D., Taylor A. Acceleration Methods // arXiv:2101.09545v3. 2021.
- Ahn H.-S., Moore K. L., Cheh Y. Iterative Learning Control: Robustness and Monotonic Convergence for Interval Systems. London: Springer-Verlag, 2007.
- Bien Z., Huh K. M. Higher-order iterative learning control algorithm // IEE Proc. D-Control Theory Appl. 1989. V. 136. P. 105—112.
- Chen Y., Gong Z., Wen C. Analysis of a high-order iterative learning control algorithm for uncertain nonlinear systems with state delays // Automatica. 1998. V. 34. P. 345—353.
- Norrlof M., Gunnarsson S. A frequency domain analysis of a second order iterative learning control algorithm // Proc. 38th IEEE Conf. Decis. Control. 1999. V. 2. P. 1587—1592.
- Bu X., Yu F., Fu Z., Wang F. Stability analysis of high-order iterative learning control for a class of nonlinear switched systems // Abstract Appl. Anal. 2013. V. 2013. P. 1—13.
- Wei Y.-S., Li X.-D. Robust higher-order ILC for non-linear discrete-time systems with varying trail lengths and random initial state shifts // IET Control Theory Appl. 2017. V. 11. P. 2440—2447.
- Wang X., Chu B., Rogers E. Higher-order Iterative Learning Control Law Design using Linear Repetitive Process Theory: Convergence and Robustness // IFAC PapersOnLine. 2017. V. 50—1. P. 3123—3128.
- Phan M. Q., Longman R. W. Higher-order iterative learning control by pole placement and noise filtering // IFAC Proc. Volumes. 2002. V. 35. P. 25—30.
- Gu P., Tian S., Chen Y. Iterative learning control based on Nesterov accelerated gradient method // IEEE Access. 2019. V. 7. P. 115 836—115 842.
- Нестеров Ю. Е. Метод рeшения задачи выпуклого программирования со скоростью сходимости // Докл. АН СССР. 1983. Т. 269. № 3. С. 543—547.
- Kim D., Fessler J. A. Generalizing the optimized gradient method for smooth convex minimization // arXiv:1607.06764. 2018. P. 1—26.
- Moore K. L. An iterative learning control algorithm for systems with measurement noise // Proc. 38th IEEE Conf. Decis. Control. 1999. V. 1. P. 270—275.
- Saab S. S. Optimality of first-order ILC among higher order ILC // IEEE Transact. on Automatic Control. 2006. V. 51. P. 1332—1336.
- Afkhami Z., Hoelzle D. J., Barton K. Robust higher-order spatial iterative learning control for additive manufacturing systems // IEEE Transact. on Control Systems Technology. 2023. V. 31. P. 1692—1707.
- Pakshin P., Emelianova J., Emelianov M., Gałkowski K., Rogers E. Dissipativity and stabilization of nonlinear repetitive processes // Systems & Control Lett. 2016. V. 91 P. 14—20.
- Цыпкин Я. З. Адаптация и обучение в автоматических системах. М.: Наука, 1968.
- Rogers E., Gałkowski K., Owens D. H. Control systems theory and applications for linear repetitive processes. Berlin: Springer-Verlag, 2007.
- Hładowski Ł., Gałkowski K., Cai Z., Rogers E., Freeman C., Lewin P. Experimentally supported 2D systems based iterative learning control law design for error convergence and performance // Control Engineer. Practice. 2010. V. 18. P. 339—348.
- Hładowski Ł., Gałkowski K., Cai Z., Rogers E., Freeman C., Lewin P. Experimentally supported 2D systems based iterative learning control law design for error convergence and performance // Control Engineer. Practice. 2010. V. 18. P. 339—348.
- Solheim O. A. Design of optimal control systems with prescribed eigenvalues // Int. J. Control. 1972. V. 15. № 1. P. 143—160.
- Кухаренко Н. В. Определение коэффициентов квадратичных функционалов в задачах аналитического конструирования // Технич. кибернетика. 1977. № 4. С. 197—201.
- Богачев А. В., Григорьев В. В., Дроздов В. Н., Коровьяков А. Н. Аналитическое регуляторов по корневым показателям // Автоматика и телемехан. 1979. № 8. С. 21—28.
- Квакернаак Х., Сиван Р. Линейные оптимальные системы управления. М.: Мир, 1977.
Қосымша файлдар
