Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Некоторые методы решения задачи минимаксного управления Тарасова Виктория Валерьевна

Некоторые методы решения задачи минимаксного управления
<
Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления Некоторые методы решения задачи минимаксного управления
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Тарасова Виктория Валерьевна. Некоторые методы решения задачи минимаксного управления : Дис. ... канд. физ.-мат. наук : 01.01.09 СПб., 2005 88 с. РГБ ОД, 61:06-1/152

Содержание к диссертации

Введение

1. Задача минимаксного управления и условия разрешимости 15

1.1. Оптимальная стабилизация линейных управляемых систем при полной информации о координатах состояния 15

1.2. Оптимальная стабилизация линейных управляемых систем при неполной информации о координатах состояния 19

1.3. Задача минимаксного управления 21

1.4. Применение условий разрешимости при решении задачи минимаксного управления 23

2. Метод Яхаджи 29

3. Применение методов оптимизации к решению задачи минимаксного управления 32

3.1. Субдифференциал выпуклой функции. Различные обобщения понятия субдифференциала 32

3.2. Метод обобщенного градиентного спуска 38

3.3. Квазидифференцируемые функции и их свойства 39

3.4. Свойства функции Хп (9{М) 43

3.5. Решение задачи минимаксного управления методами наискорейшего спуска и квазиньютоновским методом 46

3.6. Решение задачи минимаксного управления методами негладкого анализа 53

3.6. Анализ практических расчетов. 61

4. Субдифференциал максимального собственного числа симметричной матрицы 64

Заключение 69

Приложение 1 71

Приложение 2 73

Приложение 3 75

Приложение 4 77

Приложение 4 80

Литература 83

Введение к работе

Задача аналитического конструирования регуляторов (АКР) при ограничении на состав измеряемых и используемых для целей управления координат состояния объекта имеет несомненное прикладное значение. Общий подход к решению задачи АКР развит в работах В. И. Зубова [18, 19], Р. Калмана [66], Н. Н. Красовского [24], А. М. Летова [26] и др.

В главе 1 рассматривается общая задача оптимальной стабилизации линейных управляемых систем при полной и неполной информации о координатах состояния.

Рассматривается управляемая динамическая система х - P(t) х + Q(t) и, x(t0) = х„, для t > tQ, где х = x(t). Здесь х є R" - вектор координат состояния системы; ueRr - вектор управления; t - время, t0 - некоторый фиксированный начальный момент времени; P(t), Q(t) - матрицы размеров (пхп) и (пхг) соответственно. Предполагается, что элементы матриц Р и Q являются непрерывными, ограниченными функциями, заданными при всех t > t0. В стационарном случае обычно полагают t0 = 0, что не ограничивает общности изложения.

В случае постановки задачи неполной информации измеряется не сам вектор х координат состояния объекта, а так называемый вектор выходов системы управления yeRk, связанный с вектором х линейным соотношением у-Их.

Здесь Н - матрица размера (к х п) максимального ранга, причем к <п. Управление задают в виде и = u(t,x) = M(t)Hx, где М - (Ухи) -матрица, а ее элементы являются вещественными, непрерывными, ограниченными функциями, заданными при всех t > t0 и такие, что нулевое решение замкнутой системы экспоненциально устойчиво.

Стабилизирующие свойства управления, а также его качество, оценивают, используя интегральный квадратичный критерий качества J(utx0) = [x'A(t)x + uTC(t)u]dt, где ?0—некоторый фиксированный начальный момент времени, A(t),C(t) — симметричные матрицы размеров (пхп) и (Ухг) соответственно с непрерывными, ограниченными элементами, причем C(t) - положительно определенная матрица для всех t > tQ.

Управление, доставляющее наименьшее возможное значение функционалу, называется оптимальным управлением. Задача оптимизации, описанная в главе 1, известна как проблема "аналитического конструирования регулятора (АКР) ".

В главе 1 приводятся теоремы о существования решения в задаче АКР в случае полной и неполной информации о состоянии объекта, а также метод построения оптимального управления. Однако условия данных теорем в прикладных задачах накладывает порой слишком жесткие ограничения, что влечет за собой необходимость вносить изменения в формулировку изучаемой проблемы.

Далее рассматривается минимаксный подход к решению задачи АКР в стационарном случае, а также условия разрешимости поставленной задачи. Задача АКР в ее минимаїсснои формулировке рассматривалась в работах С.К Мышкова [29, 31], Т. Яхаджи [64, 65] и др.

При формулировке задачи минимаксного управления в стационарном случае допустимое управление задают в виде и - My = МНх, где и eR', у єКІ! ,x&R", и М - матрица (гхп) такая, что нулевое решение замкнутой системы x = (P + QMH)x = Dx экспоненциально устойчиво, а качество стабилизации оценивается функционалом J (и) = max J (и, х А, где J(u,xt}) = {[х1 Ах + и'Cu]dt - x'Q6kQ, и в = в(М) - симметричная матрица, являющаяся решением уравнения Ляпунова

При формулировке задачи минимаксного управления показано: оптимизация функционала J(u) означает минимизацию наибольшего собственного числа Лн (в) матрицы в.

Далее сформулированы необходимые и достаточные условия существования решения задачи минимаксного управления и показано, что при применении их в общем случае возникают значительные затруднения уже в случае п~2. Но так как оптимизируемый функционал имеет специальный вид, то для решения минимаксной задачи стабилизации предлагается использовать численные методы решения минимаксных задач общего вида.

В главе 2 рассматривается метод Яхаджи [64, 65] поиска минимаксного решения задачи АКР. Приводится как оригинальный, так и модифицированный метод Яхаджи. Приводятся теоремы, показывающие сходимость метода Яхаджи. Также в главе 2 рассматриваются примеры практического применения данного метода для решения задачи минимаксного управления. В приложениях к главе 2 представлены результаты расчетов.

При решении поставленной задачи также возникает вопрос о рассмотрении вопросов устойчивости замкнутой системы управления. Вопросы устойчивости широко изучены в работах Ляпунова [27]. Автором диссертации предлагается решать вопрос о допустимости матрицы М посредством критерия Рауса-Гурвица, так как рассматриваемая система стационарна.

Однако численный метод Яхаджи является эффективным при решении задачи минимаксного управления только в случае некратности максимального собственного значения матрицы 9 на каждом шаге метода. Таким образом, остается открытым вопрос о решении поставленной задачи в случае, когда на каком-либо из шагов кратность максимального собственного числа Лп{&) не равна единице.

В главе 3 предлагается использование классических методов минимизации для решения задачи минимаксного управления. Приводятся формулировки метода наискорейшего спуска и квазиньютоновского метода, теоремы о сходимости. Данные методы есть методы минимизации непрерывно дифференцируемых функций.

При решении задачи минимаксного управления с использованием как метода наискорейшего спуска, так и квазиньютоновского метода, функция \{9{М)) рассматривается как функция ЛН(М). Функция Лп{М) непрерывно дифференцируема на каждом шаге также только в случае, когда кратность Лп(0(Мк)) равна единице.

При использовании метода наискорейшего спуска в качестве направления спуска на к-том шаге выбирается антиградиент —Л'нк), который предлагается рассчитывать, используя любые известные методы, например, аппарат конечных разностей.

Схема квазиньютоновского метода совпадает со схемой метода наискорейшего спуска, но направление спуска выбирается следующим образом:

Вид матрицы Нк указан в главе 3.

При применении описанных методов минимизации на каждом шаге встает вопрос решения задачи одномерной минимизации, так как ^=^, =Мкк%к. где ак доставляет mini (М, ). Задачу одномерной минимизации можно решать любым известным методом. В приведенных в работе расчетах задача одномерной минимизации решается методом золотого сечения.

Таким образом, применение данных методов возможно также только в случае некратных собственных чисел.

В этой главе также рассмотрено практическое использование методов для решения поставленной задачи, в приложении приведены результаты расчетов. Отметим, что при решении численных задач минимаксного управления с одинаковыми условиями методом Яхаджи и методом наискорейшего спуска (или квазиньютоновского метода) наиболее эффективным оказался метод Яхаджи. При практическом применении всех методов, описанных выше, необходима проверка кратности ЛН(#(МА)) на каждом шаге.

Однако преимущество классических методов минимизации в том, что они тесно связаны в идейном плане с методами негладкого анализа, описанными далее в главе 3, которые позволяют решать задачу минимаксного управления в случае кратных собственных значений. Общность классических методов и методов негладкого анализа позволяет упростить программные продукты для решения задачи минимаксного управления.

Задачи минимизации или максимизации негладких функций изучены в работах Демьянова В.Ф. и Малоземова В.Н [12, 13, 14, 15], Пшеничного Б.Ы. [40, 41, 42, 43] и т.д. В главе 3 приведены элементы негладкого

11 анализа, которые необходимы нам для понимания использования методов минимизации негладких функций.

Отдельно рассмотрены свойства функции Яп(в(М)). Показана выпуклость Я(в), дифференцируемость 6{М) в области Гурвица, непрерывность и субдифференцируемость ЛДМ). Отмеченные свойства необходимы для дальнейшего развития методов решения задачи минимаксного управления и для обоснования сходимости данных методов к решению поставленной задачи.

В работах Шора Н.З. [55] и Баженова Л.Г. [5] исследуется метод минимизации почти-дифференцируемых функций. Параграф 3.5 главы 3 посвящен применению метода минимизации почти-дифференцируемых функций к решению задачи минимаксного управления. Сформулированы определения почти-дифференцируемьгх функций, почти-градиента. В этом же параграфе формулируется метод минимизации почти-дифференцируемых функций и условия сходимости. Показано, что в случае, если кратность Яи{в{МкУ) не равна единице на каком-либо шаге, функция Лп{М) является почти-дифференцируемой в точке Ык. Таким образом, применение численного метода минимизации ПДФ-функций правомерно при решении задачи минимаксного управления

Направление спуска на к - том шаге выбирается следующим образом: ' и g;к) - некоторый почти-градиент функции Хп (М) в точке Мк.

Применение метода минимизации ПДФ-функций не требует на каждом шаге решения задачи одномерной минимизации, так как сходимость данного метода доказана в случае, когда шаг выбирается из условия а, ->+05 Е" а, =+со.

В работах по негладкому анализу широко изучены субдифференциальные методы решения минимаксных задач. Известно, что в случае, когда функция субдифференцируема, почти-градиент совпадает с субградиентом функции. Так как функция Лпк) субдифференцируема, то в качестве направления спуска в методе минимизации почти-дифференцируемых функций можем использовать любой известный субградиент Лнк) или использовать методы субдифференциального исчисления.

Также в главе 3 предлагается использовать для решения поставленной задачи субградиентный метод с почти полной релаксацией, так как все методы, упомянутые выше, не являются релаксационными, а данная особенность метода дает существенные преимущества при практическом применении. Отличительной особенностью субградиентных методов является их простота, вследствии того, что на каждом шаге требуется лишь найти какой-нибудь субградиент. Однако существенным недостатком этих методов является их медленная сходимость. Преодоление этого недостатка также изучено в книге В. Ф. Демьянова и Л. В. Васильева, [13] и рассмотрено в текущей главе. При применение субградиентного метода к решению задачи минимаксного управления шаговый множитель а к может быть выбран несколькими способами. В зависимости от способа выбора последовательности а ь указанный субградиентный метод обладает теми или иными свойствами. Численные примеры применения данного метода к решению нашей задачи также рассмотрены в главе 3. Результаты расчетов приведены в приложении. Как было отмечено выше, использование субградиентного метода позволяет решать поставленную задачу и в случае, когда кратность Лп(в{Мк)) не равна единице на каком-либо шаге.

В главе 4 рассмотрены результаты вычисления субдифференциала максимального собственного числа произвольной симметричной матрицы, полученные в работе А. Льюиса и Ж-Б. Ириа - У рути. [59]. Авторами получено аналитическое выражение субдифференциала. Данное выражение имеет большое теоретическое значение, однако использование его при решении задачи минимаксного управления, для поиска субдифференциала Аи(0(М)) представляется затруднительным. В главе 4 также приведено выражение производной по направлению максимального собственного числа произвольной симметричной матрицы.

Задача поиска субдифференциала или субградиента функции \{&{Мк)) при численной реализации методов не рассматривается автором подробно. Однако следует отметить, что задача поиска субдифференциала или субградиента произвольной функции в точке широко изучена в работах В. Ф. Демьянова и продолжает развитие на кафедре математической теории моделирования систем управления, факультета прикладной математики - процессов управления Санкт-Петербургского государственного университета.

Итак, методы, предложенные для решения задачи минимаксного управления в случае кратных собственных чисел, есть методы негладкой оптимизации, которые являются обобщением методов первого порядка для гладких функций. Таким образом, использование и тех и других методов в комплексе позволяет разработать численный аппарат для решения поставленной задачи в общем случае.

Основными результатами, которые получены в итоге исследований и выносятся на защиту, являются:

Исследованы свойства функции Ап{в{М)), которые впоследствии позволяют предложить метод решения поставленной задачи в общем случае.

Обосновано использование методов негладкого анализа для решения поставленной задачи.

Исследовано численное применение упомянутых выше методов, осуществлена программная реализация методов в среде MATEMATICA 3.0, представлены результаты расчетов.

Список литературы содержит перечень работ, использованных при написании диссертации, а также монографии и обзоры, в которых можно найти подробные списки работ, касающихся обсуждаемых вопросов.

Диссертация в целом, а также ее отдельные положения и полученные результаты докладывались на XXXII научной конференции «Процессы управления и устойчивость» факультета прикладной математики -процессов управления (г. Санкт-Петербург, апрель 2001 г.), XXXIII научной конференции «Процессы управления и устойчивость» факультета прикладной математики - процессов управления (г. Санкт-Петербург, апрель 2002 г.), XXXIV научной конференции «Процессы управления и устойчивость» факультета прикладной математики - процессов управления (г. Санкт-Петербург, апрель 2003 г.), XXXV научной конференции «Процессы управления и устойчивость» факультета прикладной математики- процессов управления (г. Санкт-Петербург, апрель 2004 г.), XIII международной конференции. «Проблемы теоретической кибернетики (г.Казань, 2002 г.), а также неоднократно докладывались на научном семинаре на кафедре математической теории моделирования систем управления факультета прикладной математики- процессов управления Санкт-Петербургского государственного университета.

Оптимальная стабилизация линейных управляемых систем при неполной информации о координатах состояния

При использовании в практических приложениях аппарата АКР, изложенного в первой части главы 1, возникает вполне естественное затруднение, вызванное тем, что наблюдается (измеряется) не сам хей" -вектор координат состояния объекта, а некоторый другой, так называемый вектор выходов системы управления yeRk связанный с вектором х линейным соотношением у = Нх, (1.12) Здесь Н - матрица размера (к х п) максимального ранга, причем к п, Не ограничивая общности, можно считать, что матрица И имеет следующий специальный вид: Н = [Ек ,0], где 0 - нулевая матрица размера (кх(п к)), а Ек - единичная матрица размера (кхк). Это означает, что вектор выходов у = {х[,хг,...,хк) = хк, (1.13) т.е. наблюдаются (измеряются) первые к координат состояния. При этом вместо полной обратной связи (1.2) в данном случае имеется управление с неполной информацией о координатах состояния (вектора х) объекта: u = u(t,xk) = M(t)xt =M(t)Hx, (1.14) где матрица М размера (гхк) имеет вещественные, непрерывные и ограниченные при всех t t0 коэффициенты. Управление (1.14) будет допустимым, если, как и раньше, нулевое решение замкнутой системы x = (P + QMH)x,x(t0) = x0 (1.15) экспоненциально устойчиво в смысле (1.4). Теорема 1.3. [29] Для того чтобы управление м0 = MQXk(t) было оптимальным при любом начальном условии х0 объекта, необходимо и достаточно, чтобы существовала симметричная (гахи)-матрица в(і), с непрерывными и ограниченными элементами, заданными при t t0, являющаяся решением матричного уравнения Риккати в - 6QC-xQl e + 0Р + РТв + А = 0, (1.16) и такая, что QTe[Q,EH_J = 0, (1.17) а управление u(t,Xk) - -C [QT0Hl х (1-18) является допустимым. При этом оптимальное значение матричного коэффициента передачи регулятора (1.14) определяется равенством Mo(t) = -C-l(t)Q \t)e(t)[Ek,0f. (1.19) В этой теореме приведены условия разрешимости рассматриваемой задачи оптимизации для общего вида линейных нестационарных систем управления. Понятно, что в стационарном случае в условия (1.16) - (1.19) надо внести соответствующие изменения, поскольку решение 0(t) теперь уже следует искать в виде симметричной матрицы, не зависящей от t при t t«. Если существует управление и0=М0Хк, оптимальное в классе допустимых управлений (1.14), то для отыскания матрицы М0 могут быть использованы все те методы, о которых сказано в параграфе 1.1 (в частности, может быть использован метод В.И. Зубова, а в стационарном случае также методы конечномерной оптимизации). Поэтому вычислительные особенности при решении задачи оптимальной стабилизации с неполной информацией о координатах состояния объекта такие же, что и в соответствующей задаче с полной информацией. Однако условие (1.17) теоремы 1.3 в прикладных задачах накладывает порой слишком жесткие ограничения на параметры объекта управления и весовые коэффициенты функционала. Именно здесь для заданного функционала (1.5) среди управлений (1.14) может не оказаться оптимального для всех начальных состояний объекта х0, т.е. матрица М0 будет зависеть от х0, что на практике неприменимо. Поэтому необходимо вносить изменения в формулировку изучаемой проблемы.

Рассмотрим линейную стационарную управляемую систему x = Px + Qu, х(0) = х0, (1.20) у = Нх, (1.21) где xeR", ueRr, y Rk. Допустимое управление задают в виде и = Му = МНх, (1.22) где М - матрица (гх/с) такая, что, как и ранее, нулевое решение замкнутой системы х = (Р + ОМЩх = Dx (1.23) экспоненциально устойчиво. Обозначим через U - класс допустимых управлений (1.22). Далее предполагается, что U не пуст. Качество стабилизации оценивается функционалом J (и) = max J(u, хЛ (1.24) и где J(u,x0)= \[xrAx + uTCu]dt = x 0&ca, (1-25) и 9 = в{М) - симметричная (ихя) - матрица, являющаяся решением уравнения Ляпунова DTe + eD + HrMrCMH + A = 0. (1.26) Пусть /1.(0) - собственные числа матрицы в (г єі:и), расположенные в порядке возрастания, так что Хп (0) - наибольшее из них. Тогда хХ Л,(0К2. (1-27) Равенство в (1.27) достигается на собственных векторах, соответствующих максимальному собственному числу. Поэтому оптимизация функционала (1.25) означает минимизацию наибольшего собственного числа матрицы в min J(u) = min X (в (М)). (1.28) Данный подход носит название минимасного подхода к решению задачи АКР. В работе [31] доказано, что для управления вида (1.22) J (и) = J(M) - со, если выполняется одно из условий: 1) м-»ад; 2) М -дМ, где М- область Гурвица пространства коэффициентов матрицы М, при которых система (1.23) экспоненциально устойчива.

Применение условий разрешимости при решении задачи минимаксного управления

Особенности применения условий (1.30) изучим на примере: Пример 1.1. Пусть п = 2, г = 1. Для удобства рассматриваем случай полной информации (т.к. это частный случай неполной информации), поскольку в случае п - 2, г = 1 оптимальное решение может быть получено из уравнения Риккати в явном виде. Это позволяет исследовать решение, полученное с помощью минимаксного подхода. V ,Q = ап й2 уй2 Й,, j Итак, м = ґ v \ти ,0 = P = ґРи РпЛ PlX Рі2 ,А = ГЛи ЛиЛ Vu Ліг ,Н = О ,С = 1. В случае полной управляемости, исходная система без ограничения общности изложения, может быть записана в канонической форме, для которой матрицы P,Q,M,e,A,H,C определяются следующим образом: Р = о -,Л 1 P\j Q м = m /жУ чти2У ,6 = Чі 77.2Л Лп Ліг V 12 11 J ,Н = 0 0 ,с = \. Тогда матрица D замкнутой системы (1.23) имеет вид: г щ т2 - р2 Р. і У D = Условия допустимости М, т. е. условия экспоненциальной устойчивости нулевого решение замкнутой системы, будем рассматривать с помощью условий Гурвица [11]. Рассмотрим det[/L-.D], det[ZE-D].= Я-тІ - т2 + р2 -1 Я + Рі = Я2+Х(р1 т1) + (р2-т2 т]р1). Условия Гурвица положительности коэффициентов при степенях Л в случае п - 2 являются необходимыми и достаточными.

Найти все решения системы (1.35) в общем случае крайне сложно. Но можно показать, что оптимальное решение т, =-??,,, т2 =]n, полученное из уравнения Риккати (1.16) (в стационарном случае), удовлетворяет уравнениям (1.35). При этом для него d1Xn 0, что означает, что для таких (тх,т2) достигается минимаксное управление в задаче (1.10)- (1,15).

Как видно из примера 1.1, уже в случае п = 2 возникают значительные затруднения, так как непосредственное решение уравнений (1.30) в аналитическом виде крайне затруднительно. Объясняется это тем, что уравнения (1.35) алгебраически порядка больше двух. Но так как оптимизируемый функционал имеет специальный вид (1.24), то для решения минимаксной задачи стабилизации можно воспользоваться численными методами решения минимаксных задач общего вида. Исследование такого подхода проводиться в главе 3. 2. Метод Яхаджи

Этот итерационный метод [65] используется для поиска минимаксного решения задачи АКР в случае, когда кратность ЯД61) на каждом шаге равна единице. В зависимости от начального шага можно предложить две следующие процедуры вычислений. Пусть М - g(x) - значение матрицы обратной связи, при которой достигается минимум квадратичной формы х 6х, при условии (1.26). Первая версия метода: Первый шаг: выбираем произвольный вектор х0 такой, что х0 = 1. Второй шаг: для найденного ха (при /-том цикле вычислений для х0 — х0/) определяем управление, оптимальное с учетом (1.26). Матричный коэффициент этого управления обозначим M.t, при этом M gixJ. (2.1)6 Третий шаг: для матрицы Mi находим решение в. уравнения (1.26). Четвертый шаг: вычисляем &„{0.) и принимаем v,X@i) за новое начальное состояние Пятый шаг: вычисления прекращаются, когда Л-п(#іЧ1)-Л „( ) -\- ли о когда vn (вы) - уп (в,. ) є2, где еп2 - некоторые заданные положительные числа. Данный алгоритм может быть модифицирован [65]: Первый шаг: выбираем допустимое М0. Второй шаг: для найденного М0 (при г-том цикле вычислений для М.) из (2.7) определяем вп при этом 6t=f{Mt). (2.3) зо Третий шаг: Находим /Lf. = (0.) и v. = ,,( ), при этом х. =vn(0j), где IK 1 = Четвертый шаг: Определяем М. = g"(x.). Пятый шаг: вычисления прекращаются когда \ММ М є3, где - некоторое заданное положительное число. Отметим, что автором метода не дается каких-либо рекомендаций по решению локальной задачи оптимизации на втором шаге первой версии метода, и четвертом шаге модифицированного алгоритма. При практической реализации численных примеров в диссертационной работе поиск Мм проводился через в{ с использованием уравнений (1.30). Вопрос о допустимости Ы, т.е. условие экспоненциальной устойчивости нулевого решения системы (1.24), которое эквивалентно условию RsZi(D) 0, где Л,( ) —собственные числа матрицы D, может быть рассмотрено с помощью критерия Рауса-Гурвица [11]. Теорема 2.2. При условии, что все собственные числа в - различны, для любого допустимого М имеет место неравенство Хп (f(M)) Яп (/(g(vB (ДМ))))). (2.4) Теорема 2.3, Если М — минимаксное решение, то выполняется К иШЪ = К (/ШУЯ (/W))))- (2-18) Предположим, что М - единственна, тогда M = g{v„(f{M))). (2.19) Таким образом, минимаксное решение задачи (1.20) - (1.25) может быть получено сколь угодно точно. Особенности применения метода Яхаджи рассмотрим на примерах. Пример 2.1. Рассматриваем случай п = 2, г = 1, и матрицы P,Q,H у А,С, соответственно, p = ґ0 -1л 1 -1 ,Є = 9Я = , = ,С = 1и JW = 4V \m2/ Пример 2.2. Пусть 77 = 3, г = 1, и матрицы P,Q,H,A,C соответственно Р = 0 -О f1! 1 0 -1 ,0 = 0 ,0 і -ъ .0, ,Я = ,і = ,С = 1иМ \тзУ Результаты расчета минимаксного решения методом Яхаджи для примеров 2.1 и 2.2 представлены в приложении 1. Минимаксное решение примеров 2.1 и 2.2 можно найти, используя условия разрешимости (см. Теорему 1.4). Данные решения также представлены в приложении 1. Хотя численный метод Яхаджи оказался эффективным при решении задачи минимаксного управления в случае некратных собственных значений, остается открытым вопрос о решении данной задачи в случае, когда на каком-либо из шагов кратность Яп (в) не равна единице. Далее предлагается использование классических методов для решения поставленной задачи. Данные методы могут быть использованы также в случае некратных собственных чисел, однако они тесно связаны в идейном плане с методами негладкого анализа, которые позволяют решать задачу минимаксного управления в случае кратных собственных значений. Применение методов негладкого анализа также будет рассмотрено ниже.

Метод обобщенного градиентного спуска

Рассмотрим метод обобщенного градиентного спуска, предложенный Н.З. Шором для минимизации выпуклой функции (см. [64], а также [13]. Отметим, что понятие обобщенного градиента и субградиента совпадают в случае, если функция выпукла. Пусть f(x) - выпуклая конечная на R" функция. Выберем произвольную точку х0 є R" и последовательность {ак}, такую, что Пусть уже найдено хк є R". Возьмем любое vk є df(xk). Если vt = 0, то Оєд/(хк) и точка хА. - точка минимума /(х) на І?", и процесс прекращается. В противном случае положим хш xt atrh- xt +zk) (3.12) гДе z =-« ПІКҐ» 1Ы1 = ЯА- Таким образом строим последовательность {хк}. Если эта последовательность состоит из конечного числа точек, то по построению последняя полученная точка - точка минимума f(x) на R". Рассмотрим случай, когда последовательность {хк} бесконечна. Обозначим через X = {х є R": f{x) = /""}, где f — inf f и p(x, X ) = minz-x. Множество X может оказаться пустым. Теорема 3.3.[64] Если множество X непусто и ограничено, то при к — со р(хк,Г) 0, /( ,)- / . 3.3. Квазидифференцируемые функции и их свойства Пусть S - открытое множество из R". Конечную функцию /, определенную на S, назовем кеазидифференцируемой [15] в точке х0 є5, если она дифференцируема по любому направлению g є R" в этой точке, и если существуют выпуклые компакты д/(ха) и df(xQ) с: R" такие, что - - = max(v,g)+ min (w,g) (3.13) Пару множеств Df(xQ) = [df(x0),df(x0)] назовем квазидифференциалом функции f(x) в точке xQ, а множества д/(хй), д/(х0) - соответственно су б дифференциалом и супердифференциалом функции f(x) в точке xQ. Очевидно, что квазидифференциал функции fix) в точке х0 определяется неоднозначно. В самом деле, если А - выпуклый компакт из R", то пара множеств [df(x0) + A,df(x0)-A] также будет квазидифференциалом функции f(x) в точке х0. Если среди квазидифференциалов функции f(x) в точке xG есть элемент вида Df(x0) = [df(x0),{0}], то функцию f(x) будем называть субдифференцируемой в точке х0. Если среди квазидифференциалов функции f(x) в точке xQ есть элемент вида Df(x0) = [ {0}, д/(х0)], то функцию f(x) будем называть супердифференцируемой в точке х0.

Рассмотреть доказательства, описанных в данном параграфе утверждений, а также более подробно ознакомиться со свойствами квазидифференцируемых функций можно, например, в [13, 36]. Для дальнейшего изучения методов решения задачи минимаксного управления необходимо отдельно отметить некоторые важные свойства функции ЯН{М), Очевидно, что Яп(0(МУ) = ЯЯ(М) вещественная, положительная функция в области М, как собственное число положительно определенной матрицы в. Утверждение 3.2. Функция в(М) дифференцируема по М в области М. Действительно решение уравнения Ляпунова с1Й — + 9[Р Л- QMH) + (Р + QMHf 0 + А + НТМТСМН = О dt в случае М = const будет аналитической функцией от М. В частности, таким будет это решение 0 - 6{М) в стационарном случае, которое можно представить в виде e = a\eD {A + HrMTCMH)eD dt.

Уравнение Ляпунова (1.26) имеет единственное решение, при любом выборе матрицы МєМ. Это утверждение представляет собой частный случай более общего утверждения, которое содержится в следующей теореме.

Отметим, что Z известная матрица, так как для любого значения М (на каждом шаге) мы можем однозначно (см. теорему 3.8) определить в = в{М) из (1.26). Так как ReAy(D) 0 для любого значения М, то матрицы D, и - D для любого значения М имеют различные характеристические числа. Таким образом, уравнение (3.20) имеет единственное решение для любого допустимого М. Известно [49], что Яп{&) непрерывная от в функция, а в случае, когда кратность Яп {&) равна единице, то по теореме о непрерывной зависимости собственных чисел матрицы от ее элементов, данная функция будет и непрерывно дифференцируемой. Также Яп(М) непрерывна от М, вне зависимости от кратности, как композиция непрерывных функций Яп{&) и 0{М). Известно [49] что, если коэффициенты полинома зависят от вещественного параметра, являясь не только непрерывными, но и дифференцируемыми функциями, то простые корни имеют производные по этому параметру. Если кратность Яп{&) равна единице, то функция \{М) дифференцируема как композиция дифференцируемых функций Яп{&) (см. утверждение 3.3) и в(М). Утверждение 3.3. Функция Яп(М) субдифференцируема в области М. Доказательство. Для доказательства данного утверждения воспользуемся условиями леммы 3.2.

Субдифференциал максимального собственного числа симметричной матрицы

Как было отмечено выше, в работах по негладкому анализу широко изучены субдифференциальные методы решения минимаксных задач. Поскольку функция Хп (9{М)) субдифференцируема, то нахождение субдифференциала ЯН{9{М}) даст нам возможность использовать методы субдифференциального исчисления. Задача оптимизации собственных чисел изучена в работах [59, 61, 62]. Рассмотрим результаты исследований, полученных в [59], так как одним из них является выражение для вычисления субдифференциала максимального собственного числа симметричной матрицы. Расположим собственные числа произвольной симметричной матрицы следующим образом: Хп{Л) .. Хш(А) .. Л,{А). Функция ЛВ)(А) (те2:п-1) может быть не выпуклой. Удобным инструментом для изучения собственных чисел симметричной матрицы являются общенные субдифференциалы. В [59] вид субдифференциала Кларка Лт{А) получен с использованием вида суб дифференциала Мишеля-Пено, предложенного авторами. Рассмотрим открытое множество Q с R" и функцию / : Q. - R. Обозначим производную функции в точке х є Q. по направлению d є R" -f (x,d). Функция f (x,d) - положительно однородная при фиксированном х. Определение обобщенного градиента или производной Кларка f(x;d) функции f(x) в точке х по направлению d =R", а также определение су б дифференциала Кларка введены в параграфе 3.1. Функция f(x;d) выпуклая и положительно однородная. Функции, обладающие такими свойствами называют также сублинейными.

Если f(x) дифференцируема по направлению d є R" в точке х є Q,, то выполняется соотношение f(x;d)=\imsupf (y;d). (4.1) у- х Выражение (4.1) не имеет широкого практического применения, однако оно понадобится нам для дальнейшего изучения свойств субдиффереициалов собственных чисел симметричной матрицы. Производной Мишеля — Пено функции f(x) в точке х по направлению d є R" назовем функцию -о- ,. .. fix+ty + id)- f(x + td) ,. „. fQ(x,d) = suphm sup = - J J v —L. (4.2) ysR" f- +0j .v t Субдифференциалом Мишеля - Пено функции f(x) е точке х назовем множество d f(x) = {s eR" :(Sid) f\x;d) W eR"}. (4.3) Если функция f{x) дифференцируема в точке х, то д /(х) = {/ (х)}.

Данное соотношение позволяет установить связь субдифференциала Мишеля - Пено с градиентом функции. Подобного соотношения нельзя установить для субдифференциала Кларка. Следует заметить, что субдифференциал Мишеля - Пено не обладает свойствами непрерывности. Очевидно, что / ( ;) f(x;-) f"(x;-) (4.4) и d f(x) zddf(X). (4.5) Если функция f(x) положительно однородная, то f(Q;d) = f(Q;d) = sup{f(y + d)-f(y)} (4.6) yell" для любого d є R", и, следовательно, д/(0) - dd f(0). Также заметим, что f (x;-) = f )(x;-) тогда и только тогда, когда существует обычная производная по направлению и она выпукла. Итак, мы видели, что субдифференциалы Кларка и Мишеля - Пено сублинейные мажоранты обычной производной по направлению. Через S" обозначим пространство симметричных (пхп) матриц и введем скалярное произведение матриц К, Le S" как (K,L) = tr(KL). Функция Ят(А) - положительно-однородная. Известно, что функция ІЇ,„{А) = Т1" Ят(А) - сублинейная, Яп{А) - выпуклая, Я}(А) - вогнутая функции, и ЯЯ)(А) - разность двух выпуклых функций hm{A) и %ш {А). В частности, Ят(А) -локально липшецевая функция.

Итак, утверждения, сформулированные выше, позволяют находить субдифференциал максимального собственного числа симметричной матрицы в независимости от кратности. Таким образом, становится возможным нахождение субдифференциала функции Л„(0). Однако при решении задачи минимаксного управления нами рассматривается функция Яп (М), применение к которой утверждений данной главы напрямую невозможно, но при необходимости мы можем строить субдифференциал \{6{Мк)) на каждом шаге. Заключение

В работе исследован вопрос о решении задачи аналитического конструирования регуляторов в ее минимаксной трактовке. Показано, что исследование условий разрешимости аналитическими методами [18, 31, 64] в общем случае затруднительно. Ранее предложенный численный метод решения задачи минимаксного управления не применим в общем случае. В работе получены результаты, представляющие практический интерес для решения поставленной задачи. 1) Исследованы свойства функции максимального собственного числа симметричной матрицы, являющейся решением уравнения Ляпунова, которые в дальнейшем позволяют предложить методы решения поставленной задачи в общем случае. Показано, что данная функция субдифференцируема. 2) На основе классических методов минимизации и методов негладкого анализа разработаны вычислительные алгоритмы поиска решения задачи минимаксного управления. При этом если не нарушаются условия сходимости данных методов, то полученные при практической реализации минимизирующие последовательности сходятся к точке минимума функции максимального собственного числа, матрицы, являющейся решением уравнения Ляпунова. При практической реализации тестовых примеров применение предложенных методов оказалось эффективным в случае некратных собственных значений. 3) Показано, что применение методов негладкого анализа позволяет решать задачу в общем случае. 4) Представлены результаты расчетов практического применения исследованных методов для примеров второго и третьего порядка. Результаты представлены в табличном виде. При расчетах использован пакет прикладных программ MATHEMATICA 3.0, который позволил произвести расчеты с высокой для практики точностью и представить результаты расчетов.

Похожие диссертации на Некоторые методы решения задачи минимаксного управления