Национальный цифровой ресурс Руконт - межотраслевая электронная библиотека (ЭБС) на базе технологии Контекстум (всего произведений: 634620)
Контекстум
.

Метод малого параметра в задачах оптимального управления (110,00 руб.)

0   0
Первый авторКацаран Татьяна Константиновна
ИздательствоИздательский дом ВГУ
Страниц41
ID635553
АннотацияВ настоящем учебном пособии даётся общая постановка задачи оптимального управления динамической системой, поведение которой описывается с помощью системы обыкновенных дифференциальных уравнений. Здесь формулируется вариант принципа максимума для неавтономных систем. Предполагается, что все функции, описывающие динамическую систему (дифференциальное уравнение, начальные и краевые условия, критерий качества) разлагаются в ряды по степеням малого параметра. Это даёт возможность построить алгоритм исследования слабоуправляемых систем, с использованием которого решена задача о полёте на максимальную дальность.
Кому рекомендованоРекомендовано для магистров факультета прикладной математики, информатики и механики Воронежского государственного университета, специализирующихся по профилю "Оптимизация и оптимальное управление".
Кацаран, Т.К. Метод малого параметра в задачах оптимального управления / Л.Ю. Кабанцова; Т.К. Кацаран .— Воронеж : Издательский дом ВГУ, 2016 .— 41 с. — 41 с. — URL: https://rucont.ru/efd/635553 (дата обращения: 19.04.2024)

Предпросмотр (выдержки из произведения)

Рекомендовано для магистров факультета прикладной математики, информатики и механики Воронежского государственного университета, специализирующихся по профилю "Оптимизация и оптимальное управление". <...> Управление - это воздействие на систему, способное изменить текущее состояние и, следовательно, всё последующее развитие системы. <...> Выдающуюся роль при этом сыграл принцип максимума Понтрягина. <...> Этот принцип представляет собой определённого типа необходимое условие, которое даёт возможность найти все допустимые управления, которые могут претендовать на роль оптимальных. <...> Широко используется принцип Беллмана, согласно которому для любого начального состояния и выбранного начального управления последующее оптимальное управление совпадает с исходным оптимальным управлением относительно состояния, случившегося в результате применения оптимального управления. <...> В то же время многие прикладные задачи оптимального управления в явном или неявном виде содержат малые параметры, характеризующие относительную малость тех или иных воздействий или факторов. <...> Поэтому могут быть использованы приближённые методы, основанные на идее малого параметра. <...> Введение малого параметра оправдано в тех случаях, когда невозмущенная задача (малый параметр равен нулю) может быть решена численно или аналитически значительно более просто, чем возмущенная. <...> Это имеет место, например, если система близка к линейной, или к неуправляемой, или в ней выявляются быстрые и медленные переменные, допускающие разделение движений. <...> В настоящем учебном пособии даётся общая постановка задачи оптимального управления динамической системой, поведение которой описывается с помощью системы обыкновенных дифференциальных уравнений. <...> Здесь формулируется вариант принципа максимума для неавтономных систем. <...> Это даёт возможность построить алгоритм исследования слабоуправляемых систем, с использованием которого решена задача о полёте <...>
Метод_малого_параметра_в_задачах_оптимального_управления.pdf
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ МИНОБРНАУКИ РОССИИ "ВОРОНЕЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ" Т.К. Кацаран, Л.Ю. Кабанцова МЕТОД МАЛОГО ПАРАМЕТРА В ЗАДАЧАХ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ Учебное пособие для вузов Издательский дом ВГУ 2016 Воронеж
Стр.1
Введение Одной из характерных особенностей современной эпохи является всевозрастающее внимание к проблемам управления. Управление - это воздействие на систему, способное изменить текущее состояние и, следовательно, всё последующее развитие системы. Всюду, где имеется возможность активного участия человека, возникает проблема отыскания наилучшего или, как говорят, оптимального из возможных управлений. Математическая теория управления была создана в середине пятидесятых годов прошлого столетия и получила название теории оптимального управления. Выдающуюся роль при этом сыграл принцип максимума Понтрягина. Этот принцип представляет собой определённого типа необходимое условие, которое даёт возможность найти все допустимые управления, которые могут претендовать на роль оптимальных. В теории оптимального управления за время её развития произошёл синтез идей и методов, с одной стороны, восходящих к классическому вариационному исчислению, с другой – вполне современных аналитических и численно-аналитических методов. Широко используется принцип Беллмана, согласно которому для любого начального состояния и выбранного начального управления последующее оптимальное управление совпадает с исходным оптимальным управлением относительно состояния, случившегося в результате применения оптимального управления. В процессе развития и применения теории оптимального управления задачи постепенно усложнялись. Точное решение задач оптимального управления может быть построено сравнительно редко и лишь для определённых классов задач. Одним из распространенных методов решения трудных задач является сведение их к более простым. В то же время многие прикладные задачи оптимального управления в явном или неявном виде содержат малые параметры, характеризующие относительную малость тех или иных воздействий или факторов. Поэтому могут быть использованы приближённые методы, основанные на идее малого параметра. Введение малого параметра оправдано в тех случаях, когда невозмущенная задача (малый параметр равен нулю) может быть решена численно или аналитически значительно более просто, чем возмущенная. Это имеет место, например, если система близка к линейной, или к неуправляемой, или в ней выявляются быстрые и медленные переменные, допускающие разделение движений. В настоящем учебном пособии даётся общая постановка задачи оптимального управления динамической системой, поведение которой описывается с помощью системы обыкновенных дифференциальных уравнений. Здесь формулируется вариант принципа максимума для неавтономных систем. Предполагается, что все функции, описывающие динамическую систему (дифференциальное уравнение, начальные и краевые условия, критерий качества) разлагаются в ряды по степеням малого параметра. Это даёт возможность построить алгоритм исследования слабоуправляемых систем, с использованием которого решена задача о полёте на максимальную дальность. Метод малого параметра также применяется при решении задачи успокоения твёрдого тела за минимальное время при наличии возмущений. Специфика задачи состоит в том, что при отсутствии возмущений находится точное решение этой задачи (оптимальное управление, минимальное время и, при использовании эллиптических функций, оптимальные фазовые траектории), что даёт возможность численного на3
Стр.3
Согласно принципу максимума, задача оптимального управления свелась к краевой задаче для двух n-мерных векторных функций x(t) и p(t). Оптимальное управление u(t) определяется из условия супремума функции H по u, что эквивалентно условию супремума функции H, то есть H(p(t), x(t), t, u(t)) = sup u∈U H(p(t), x(t), t, u). (1.11) Следует отметить, что не всякое управление, найденное из принципа максимума, является оптимальным. С классической формулировкой принципа максимума Понтрягина и его применением можно познакомится в работах [1], [3]-[5]. 1.3 Задачи управления с малыми параметром. Слабоуправляемые системы Прикладные задачи оптимального управления в явном и неявном виде содержат малые параметры, которые характеризуют относительную малость воздействий или факторов. В этих случаях используются асимптотические методы построения оптимальных управлений, основанные на идее малого параметра. Введение малого параметра ε оправдано в тех случаях, когда невозмущенная задача (при ε = 0) может быть решена аналитически или численно значительно проще, чем возмущенная. Предположим, что функции f, h, a, q, F зависят от параметра ε и имеет место их разложение в виде рядов по степеням ε f = f0(x, t, u) + εf1(x, t, u) + ε2f2(x, t, u) + . . . a = a0 + εa1 + ε2a2 + . . . h = h0(x, t) + εh1(x, t) + ε2h2(x, t) + . . . q = q0(x, t) + εq1(x, t) + ε2q2(x, t) + . . . F = F0(x, t) + εF 1(x, t) + ε2F2(x, t) + . . . (1.12) Здесь и в ниже приводимых выражениях индексы вверху указывают номер членов в разложениях по степеням ε, а нижние индексы - номер координаты вектора. Точками обозначены высшие члены разложений. Пусть при ε = 0 задача (1.1)-(1.4), где f, h, a, q, F определены в виде (1.12), имеет единственное решение, которое может быть построено. Тогда возникает вопрос о близости точного решения задачи (1.1)-(1.4), (1.12) и приближенного, полученного при ε = 0. Также возможен другой случай, когда в (1.12) функция f0 не зависит от управляющего воздействия. В этом случае система (1.1) называется слабоуправляемой. Предположим, что функция f0(x, t, u) в (1.12) не зависит от параметра u. Этот случай интересен тем, что в нулевом приближении управление вообще нельзя определить в принципе. Отменим, что возможен промежуточный случай, когда векторная функция f0 зависит не от всех управляющих функций ui(t), а только от некоторых от них. 6
Стр.6
1.4 Вывод уравнений нулевого и первого приближений Перейдем к построению приближенного решения задачи оптимального управления для слабоуправляемой системы (1.1)-(1.4) в случае, когда функции f, h, q, F представимы в виде (1.12), где f0 не зависит от u. Искомые величины x, p, T, λ, λi и J ищем в виде разложений в ряд по степеням ε: x = x0 + εx1(t) + . . . , p = p0(t) + εp1(t) + . . . , T = T0 + εT 1 + . . . , λ = λ0 + ελ1 + . . . , J = J0 + εJ1 + . . . Подставим равенства (1.12), (1.13) в уравнения (1.1), (1.3), (1.4), (1.8), (1.10), разx˙ 0 = f0(x0, t), x0(t0) = a0, h0(x0(T0), T0) = 0, q0(x0(T0), T0) = 0, J0 = F0(x0(T0), T0), p0 k = − p0, ∂f0(x0(t), t) ∂xk p0(T0) = λ0 ∂h0 ∂t + λ0 = ∂F0 ∂t + ×∂h0 ∂t + k = ∂fk(x0(t), t) ∂x ∂F0 ∂x , f0 − r i=1 r i=1 λ0 ∂q0 i i λ0 ∂h0 ∂x , f0 , k = 1, 2, . . . , n; ∂x − ∂F0 ∂x , i ∂q0 i −1 , t = T0. ∂t + , x1 + f1 ∂q0 ∂x , f0 i × Для равенств (1.1), (1.3), (1.4) выпишем уравнения первого приближения: x1 k (x0(t), t, u(t)), k = 1, 2, . . . , n, ∂h0 ∂t + В последних трех равенства (1.15) все функции от x, t берутся при значениях x = x0(T0), t = T0. J1 = ∂F0 ∂t + ∂q0 i ∂t + ∂F0 ∂x , f0  T1 + 7 ∂h0 ∂x , f0 ∂q0 ∂x , f0 i x1(t0) = a1,  T1 +  T1 + ∂x , x1(T0) + q1 i = 0, i ∂h0 ∂x , x1(T0) + h1 = 0, ∂q0 ∂F0 ∂x , x1(T0) + F1. (1.14) ложим полученные соотношения в ряды по степеням ε и приравняем коэффициенты при ε0 = 1 и ε1 = ε. В нулевом приближении получим (1.13) (1.15)
Стр.7
1.5 Построение приближенного решения Перейдем к анализу уравнений (1.14), (1.15). Общее решение системы нулевого приближения ˙x = f0(x, t) из (1.14) предполагается известным и заданным в явном виде x = φ(t, c), φ = (φ1, φ2, . . . , φn), c = (c1, c2, ..., cn). равенство (1.16) относительно произвольных постоянных ci, получим g(t, x) = c, g = (g1, g2, ..., gn), (1.16) Здесь φ - векторная функция, c - вектор произвольных постоянных. Разрешая (1.17) Функции gk, k = 1, 2, . . . , n, являются независимыми первыми интегралами системы нулевого приближения. Для траектории x0(t) в нулевом приближении имеем задачу Коши, задаваемую первыми двумя равенствами (1.14), ее решение выражается через функции φ, g, введенные равенствами (1.16), (1.17) x0(t) = φ(t, c), c = g(a0, t0). (1.18) Момент T0 окончания процесса и функционал J0 в этом приближении определяются третьим и пятым равенствами (1.14), т.е. краевые условия q = 0 нулевого приближения, выполняются автоматически. Введем матрицы размерности n Ч n Φ(t, c) = ||∂φi при x = φ(t, c), i, j = 1, 2, . . . , n. Равенства (1.17) и (1.18) задают преобразования, переводящие вектор c в вектор Функция x1(t) удовлетворяет линейной неоднородной системе (1.15) (первое раx и обратно (x, c ∈ Rn). Матрицы (1.19), как матрицы Якоби для этих взаимно обратных преобразований, связаны соотношением Φ = G−1. Ранг матриц равен n. венство). Соответствующая однородная система является системой в вариациях для уравнений нулевого приближения (1.14) (первое равенство), которой удовлетворяет x0(t). Как известно из теории обыкновенных дифференциальных уравнений, матрица Φ из (1.19) представляет собой фундаментальную матрицу для системы в вариациях. Пользуясь этим, запишем полученное при помощи метода вариации произвольных постоянных общее решение неоднородной системы (1.15) x1(t) = Φ(t, c)b + Φ(t, c) tt 0 Пользуясь равенством Φ−1 = G, перепишем последнее выражение в виде x1(t) = Φ(t, c)G(t0, c)x1(t0) + Φ(t, c) tt 0 8 G(τ, c)f1(x0(τ), τ, u(τ))dτ. Φ−1(τ, c)f1(x0(τ), τ, u(τ))dτ. ∂cj ||, G(t, c) = || ∂gi ∂xj || (1.19) (1.20)
Стр.8
Выразим величину T1 из третьего равенства (1.15) и подставим в четвертое равенство (1.15). Получим (∂q0 i ∂x , x1(T0)) + q1 i ∂h0 ∂x + (∂h0 Вектор p0, как следует из (1.14), удовлетворяет линейной однородной системе, = G = (∂h0 ∂x , x1(T0)) + h1∂q0 ∂x , f0) = i , где штрих p0(t) = G p0 k(t) = (t, c)s, s = (s1, s2, . . . , sn), или в скалярной форме n i=1 ∂gi ∂xk si, k = 1, 2, . . . , n. Здесь s — вектор произвольных постоянных. Подставляя решение (1.22) в условие (1.14) для p0(T0) и учитывая равенство (G )−1 = Φ s = Φ при t = T0. 1.6 Оптимальное управление в первом приближении Далее находим управление в первом приближении. Подставим в функцию H из H = (p, f) = (p0, f0(x0, t)) + ε(p0, Здесь точками обозначены члены порядка выше первого. Из выписанных слагаеn i=1 (p0(t), f1(x0(t), t, u(t))) = sup u∈U (p0(t), f1(x0(t), t, u)) ∂f0 ∂xi x1 i ) + (p1, f0(x0, t)) + (p0, f1(x0, t, u)) + . . . мых лишь последнее зависит от u. Поэтому определение максимума H по u в (1.11) сводится в первом приближении к максимизации этого последнего слагаемого: (1.24) Отметим, что согласно (1.24) управление u(t) зависит только от решений нулевого (G s, f1) = i,jn =1 ∂gi ∂xj sif1 9 j (x0(t), t, u) −−→u∈U sup . (1.25) приближения x0(t) и p0(t). Учитывая решение (1.22), условие (1.24) можно переписать в виде (T0, c) λ0 ∂h0 ∂x + r i=1 i λ0 ∂q0 i , получим ∂x − ∂F0 ∂x (1.23) ∂t + (∂q0 i ∂x , f0), i = 1, . . . , r. (1.21) которая является сопряженной по отношению к упоминавшейся выше системе в вариациях. Поэтому фундаментальная матрица для нее равна (Φ−1) означает транспонированную матрицу. Следовательно, общее решение системы (1.14) для p0(t) имеет вид (1.22) (1.9) представления для puf из (1.13) и (1.14) и разложим эту функцию в ряд по степеням ε
Стр.9
Замечание. Управление u(t), определяемое соотношением (1.25), может и не быть близко к оптимальному в смысле метрики пространства C (т.е. по максимуму модуля разности). Однако оно будет приближенно оптимальным в смысле минимизируемого функционала. При некоторых дополнительных предположениях относительно функций h0(x, t), f0(x, t), f1(x, t) имеет место утверждение: существует ε∗ > 0, α > 0, что при ε ∈ (0, ε∗] выполнено неравенство 0 ≤ Jε u0 где Jε (1.24) и Jε − Jε uε ≤ αε2, тельством этого факта можно познакомиться в [2]. u0 - значение критерия качества при нулевом управлении, найденное по формуле uε - значение критерия качества при оптимальном управлении. С доказа1.7 Алгоритм приближенного решения задачи оптимального управления для слабоуправляемых систем На основании полученных в предыдущем параграфе результатов сформулируем алгоритм нахождения оптимального управления, оптимальной траектории, критерия качества и времени окончания процесса с точностью до параметра ε2. Общий случай (r = 0) 1) Находим общее решение системы нулевого приближения, т.е. векторную функцию φ (см. (1.16). 2) Находим n независимых первых интегралов системы нулевого приближения, т.е. векторную функцию g (см. (1.17)). 3) находим частное решение x0(t) системы нулевого приближения (см. (1.18)). 4) Находим матрицы Якоби Φ и G (см. (1.19)). 5) Находим момент времени T0 как наименьший положительный корень уравнения h0(x0(T0), T0) = 0. 6) Вычисляем вектор x0(T0). 7) Вычисляем нулевое приближение J0 к оптимальному значению критерия качества по формуле J0 = F0(x0(T0), T0). 8) Находим частные производные: ∂F0 ∂t ∂q0 ∂xi i , ∂F0 ∂x , ∂q0 i ∂t , , i = 1, 2, . . . , r, ∂h0 ∂t , ∂h0 ∂x . 9) Вычисляем значения частных производных (1.26) при x = x0(T0), t = T0. 10 (1.26)
Стр.10