Электронная библиотека диссертаций и авторефератов России
dslib.net
Библиотека диссертаций
Навигация
Каталог диссертаций России
Англоязычные диссертации
Диссертации бесплатно
Предстоящие защиты
Рецензии на автореферат
Отчисления авторам
Мой кабинет
Заказы: забрать, оплатить
Мой личный счет
Мой профиль
Мой авторский профиль
Подписки на рассылки



расширенный поиск

Непрерывные методы решения задач равновесного программирования Будак Борис Александрович

Непрерывные методы решения задач равновесного программирования
<
Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования Непрерывные методы решения задач равновесного программирования
>

Диссертация - 480 руб., доставка 10 минут, круглосуточно, без выходных и праздников

Автореферат - бесплатно, доставка 10 минут, круглосуточно, без выходных и праздников

Будак Борис Александрович. Непрерывные методы решения задач равновесного программирования : Дис. ... канд. физ.-мат. наук : 01.01.09 : Москва, 2003 134 c. РГБ ОД, 61:04-1/289

Содержание к диссертации

Введение

1 Непрерывные экстраградиентные методы с переменной метрикой 9

1.1 Вспомогательные утверждения 9

1.2 Непрерывный экстраградиентный метод первого порядка с переменной метрикой 15

1.3 Регуляризованный непрерывный экстраградиентный метод первого порядка с переменной метрикой 19

1.4 Непрерывный экстраградиентный метод второго порядка с переменной метрикой 30

1.5 Регуляризованный непрерывный экстраградиентный метод второго порядка с переменной метрикой 36

2 Непрерывные методы линеаризации с переменной метрикой 51

2.1 Непрерывный метод линеаризации первого порядка прогнозного типа с переменной метрикой 51

2.2 Регуляризованный непрерывный метод линеаризации первого порядка прогнозного типа с переменной метрикой 58

2.3 Непрерывный метод линеаризации второго порядка прогнозного типа с переменной метрикой 70

2.4 Регуляризованный непрерывный метод линеаризации второго порядка прогнозного типа с переменной метрикой 79

3 Непрерывные проксимальные методы с переменной метрикой 95

3.1 Непрерывный проксимальный метод первого порядка прогнозного типа с переменной метрикой 95

3.2 Регуляризованный непрерывный проксимальный метод первого порядка прогнозного типа с переменной метрикой 99

3.3 Непрерывный проксимальный метод второго порядка прогнозного типа с переменной метрикой 110

3.4 Регуляризованный непрерывный проксимальный метод второго порядка прогнозного типа с переменной метрикой 116

Литература 131

Введение к работе

Исследование математических моделей многих сложных явлений экономики, естествознания, связанных с поиском компромисса и согласования частично (или полностью) противоположных интересов сторон конфликта, составляет содержание области математики, которую называют равновесным программированием. Эта область также охватывает ряд важных задач теории игр и экономического равновесия [34, 39], многокритериального принятия решений в условиях неопределенности [32], обратных задач оптимизации [1], вариационных неравенств [33], седловых задач функции Лагранжа [30].

Основную задачу равновесного программирования можно сформулировать следующим образом. Пусть имеется некоторая функция Ф(г>,го), (v,w) Є W х W, где W — заданное множество из пространства Еп. Требуется найти точку г>* Є W, удовлетворяющую неравенству

$(v.,v„) ^ Ф(г>»,го) Уго Є W. (1)

Такую точку г», называют неподвижной точкой или равновесной точкой задачи (1). Многие важные проблемы исследования операций, вычислительной математики и математической экономики могут быть сведены к задаче (1). Если функция Ф(г>,го) не зависит от переменной V, то задача (1) превращается в обычную задачу минимизации. Также задачу (1) можно трактовать как экономическую модель взаимодействия нескольких участников с совокупной стратегией го из допустимого множества W и функцией издержек (целевой функцией) Ф(г>,го). Здесь первая переменная г» играет роль параметра, а вторая го - роль переменной оптимизации. Таким образом, данная задача описывает ситуацию равновесия, при которой всем участникам невыгодно уклоняться от точки равновесия v», что в противном случае приведет к увеличению значения функции издержек Ф(г>,го).

К настоящему времени достаточно хорошо изучена проблема существования точек равновесия, равносильная проблеме существования неподвижных точек v Є W{y) экстремального отображения W(v) функции Ф(і»,го) на W, определяемого из условия

Ф(и, W(v)) = min Ф(г>, го), v Є W, W(v) W.

Экстремальное отображение, как правило, является многозначным и при доказательстве существования неподвижной точки обычно пользуются теоремами Какутани [21], Fan Ку [31], Oettli [25], обобщающими классические теоремы о неподвижных точках для многозначных отображений.

Что касается конструктивных методов точек равновесия, пригодных для использования на вычислительной технике, то здесь значительные результаты получены лишь для отдельных классов задач (1), таких, как задачи оптимизации, седловые задачи, вариационные неравенства. Однако эти методы разрабатывались и исследовались при значительных ограничениях на функцию Ф(г>, го) (требования типа выпуклости по переменной го и вогнутости по переменной v, нулевой суммы игры, сильной . монотонности оператора в вариационных неравенствах и т.п.). Между тем, многие практически важные задачи математической экономики, теории игр не удовлетворяют этим ограничениям и ранее разработанные методы к этим задачам не вполне применимы. Поэтому можно считать, что разработка методов решения достаточно

общих задач (1) практически только начинается, о чем свидетельствуют немногочисленные имеющиеся работы (Карпелевич Г.М. [35], Антипин А.С. [3, б, 8], Шпирко СВ. [43], Васин А.А [23], Делавархалафи А. [19]).

При разработке методов решения задачи (1) следует еще учитывать, что эта задача, вообще говоря, неустойчива к возмущениям функции Ф(у, w) и множества W, и для ее решения нужно использовать специальные методы, называемые методами регуляризации. Имеется относительно небольшое число работ, в которых предложены и исследованы методы регуляризации неустойчивых равновесных задач (Васильев Ф.П., Антипин А.С. [17, 18], Шпирко СВ. [43], Делавархалафи А. [20]).

Из вышесказанного следует, что тема диссертации, в которой разрабатываются и исследуются непрерывные методы решения задачи (1), является актуальной.

А.С. Антипиным были предложены т. н. управляемые методы проекции градиента, или экстраградиентные методы, основанные на следующей идее: известно, что неподвижная точка v» задачи (1) является одновременно решением как вариационного неравенства

(Vw$(v.,v.),w-v.)^Q VweW,

так и операторного уравнения

v, = 7TW (и* - 7V„,<&(i>., v,)),

где 7riv(...) — оператор проектирования некоторого вектора на множество W. Оба соотношения эквивалентны и являются необходимым условием минимума функции Ф(г>*,гу) на множестве W.

Преобразование кцг (v — 7V„,v)) — v можно трактовать как векторное поле скоростей, которое получается, если каждому вектору v поставить в соответствие образ этого преобразования. При этом точке и. будет соответствовать ноль, т.е. неподвижная точка имеет нулевую скорость. Во многих случаях, а именно в случае градиентных полей, порожденных задачами оптимизации, векторы поля направлены к неподвижной точке v», т.е. к точке с нулевой скоростью. Если приближаться к этой точке по некоторой траектории, то длины векторов скоростей будут уменьшаться до нуля. Поэтому ожидается, что если из некоторой стартовой точки v0 провести траекторию v(t) так, чтобы касательный вектор этой траектории совпадал с вектором поля в каждой точке этой траектории, то со временем траектория попадет в сколь угодно малую окрестность неподвижной точки. Эту ситуацию можно описать с помощью дифференциального уравнения

и + v = Ttw{v — iVw$(v,v)), v(0)=vo,

правая часть которого удовлетворяет всем условиям теоремы существования и единственности, следовательно при любых vq и всех t ^ 0 существует траектория v(t). К сожалению, область применимости этого метода ограничена задачами оптимизации, поэтому был разработан аналог этого метода, использующий идею прогнозирования, а именно

' V(t) + V(t) = 7TW («(і) - 7V„#(tt(0, «(0))»

і u(t)=nw(v(t)-iVw*(v(t),v(t))), (2)

k v(0) = V0.

Здесь нахождение точки u(t) можно толковать как прогноз, то есть значение градиента функции Ф(и,го) по переменной w в основном уравнении метода берется не в текущей точке v(t), а в некой спрогнозированной точке u(t). На основании этих идей также были предложены и исследованы методы линеаризации прогнозного типа и проксимальные методы прогнозного типа. Однако, теоретические и численные исследования подтверждают, что такие методы медленно сходятся в тех случаях, когда поверхности уровня функции Ф(г>, v) сильно вытянуты и эта функция переменной v имеет так называемый овражный характер.

Один из способов ускорения сходимости заключается в выборе подходящей замены переменных с тем, чтобы в пространстве новых переменных поверхности уровня стали бы близки к сферам. Таким образом появляется новый параметр метода — симметричная положительно определенная матрица, или, если замена переменных делается в текущий момент времени — семейство таких матриц. С помощью симметричной положительно определенной матрицы в пространстве можно задать новое скалярное произведение и соответствующую ему метрику. В литературе методы такого типа называются методами с переменной метрикой или методами с растяжением пространства. То, что на этом пути можно добиться существенного улучшения сходимости, подтверждает, например, хорошо известный метод Ньютона для решения задач оптимизации. Однако, его применяют в тех случаях, когда вычисление матрицы вторых производных целевой функции не представляет трудностей. Поэтому существует ряд т.н. квазиньютоновских методов, в которых матрица - параметр метода выбирается близкой к матрице вторых производных. Также для решения задач оптимизации были разработаны методы с переменной метрикой, не требующие вычисления матрицы вторых производных или ее аппроксимаций.

Поскольку задача (1) тесно связана с задачами оптимизации, то естественно было предположить, что идея растяжения пространства сработает и в случае методов решения равновесных задач. Настоящая работа как раз и посвящена разработке непрерывных методов проекции градиента прогнозного типа (экстраградиентных методов), методов линеаризации прогнозного типа и проксимальных методов прогнозного типа (экстрапроксимальных методов) с переменной метрикой для решения равновесных задач, конструированию на их основе регуляризованных методов.

В первой главе диссертации приводятся некоторые свойства кососимметричных функций, свойства решений задачи равновесного программирования (1), а также утверждения, используемые при доказательствах полученных в диссертации результатов и предлагается непрерывный экстраградиентный метод с переменной метрикой, обобщающий метод (2):

' v(t)+v(t)«^'"[«(o-TWG-^t'WJV^MO.tiW)],

< U(t) =7r^(t))[t)(t)-7(<)G-1(t;(t))Vti;$(v(t),v(<))], (3>

1 «(0) = v0, t^ 0,

где Kw [...] — так называемая Gпроекция точки на множество W [29, стр. 308], vq — любая фиксированная точка из Еп, Vw$(v,w) — градиент функции Ф(г/, и>) по переменной w, 7(0 ^0 — параметр метода; G(v) для каждого v — заданная симметричная положительно определенная матрица. Заметим, что если G(v) = J — единичная матрица, то метод (3) превращается в метод (2). Далее на основе этого ме-

тода оказалось возможным получить метод второго порядка, естественным образом обобщающий метод (3):

f p(t)G-i(v{t))v(t)+mm+«to =

(4)

= 4(v(t» [„(*) - 7(0^-1 И0) vjk«(0, *(*))],

u(*) = irgrW'»[ti(*)-7(0G-l(fW)V.*(t»(*),f(0)], b v(0) = i;0, v(0) = vu t> 0.

Для методов (3), (4) доказаны теоремы сходимости траекторий v(t) к множеству решений исходной задачи при определенных требованиях на задачу (1) и параметры методов 7(0» МО»/'(О (теоремы 1.3 и 1.7).

Как известно, задача (1) неустойчива к возмущениям исходных данных Ф(г>, w), W, и для ее решения необходимо применять методы регуляризации. В диссертации проведена регуляризация вышеупомянутых методов с помощью модификации классической функции Тихонова в сочетании с методом штрафных функций. Рассмотрен случай, когда множество W задано следующим образом:

W = {weW0 ІЛ-Н^О, * = 1,...,/, gi(w) = 0, і = 1 + 1,...,s}, (5)

где Wo С Еп — заданное выпуклое замкнутое множество, функция Ф(г>, w) определена на произведении евклидовых пространств Еп х Еп и дифференцируема по гу, функции <7;(ги), г = 1,...,5 определены и дифференцируемы на Еп. Для учета ограничений типа равенств и неравенств из (5) использована простейшая штрафная функция

P(») = EW. p>l,wEn,

*=i

(6)

где gt{w) = max{#(iu);0} при і = 1,...,/, gfip) = МИ І ПРИ « = /+ 1,...,л. Также предполагается, что вместо точных значений градиентов Vw$(v,w), P'(w) нам известны их приближения V„,$(v,iu,),P'(ty,), зависящие от параметра t ^ 0. Регуляризованные варианты методов (3) и (4) соответственно имеют вид:

' v(t) + v(t) = *$«'» [„(*) _ 7(i)G-i(v(f))(у.фко,«(0,0+

+л(*)Р'Н*),0 + «(0«(0)],

(7)

«(0 = *$?t}) [v(t) -i(t)G~l{v{t))(v,.*(v{t)MtM+ +A(t)P'(v{t),t) + a(t)v(t))], v{0) = v0, * ^ 0,

м)с-*№))щ+№№+*(*)=*%:(t))[>(t)-

-l(t)G-l{v{t)) (v^(u(*)»«(0»0 + і4(<)Р'(«(0»0 + «(0"(0)]»

(8)

+Л(0Р'(^0,0 + «(0^(0)],

v(0) = v0l t»(0) = vi, t > 0,

где vo,t>i — любые фиксированные точки из En,A(t) > 0, a(t) > 0,7(0 > 0,^i(i),>3(*) — параметры методов.

Для методов (7), (8) указаны условия согласования параметров и требования на задачу (1), обеспечивающие сходимости траекторий v(t) к нормальному решению исходной задачи, сформулированы правила останова, построены регуляризующие операторы (теоремы 1.4, 1.5, 1.8 и 1.9).

Во второй главе диссертации предлагаются и исследуются различные модификации непрерывных методов, основанные на идее линеаризации [6, 7]. Эти методы реализованы для такой задачи равновесного программирования: найти точку v. из условий

t». W, *(v.,v.K*(v.,w) VweW;W = {wWo\gi{w)^0,i=l,...,l}, (9)

где Wo С Еп — заданное выпуклое замкнутое множество, функция Ф(и,го) определена на произведении евклидовых пространств Еп х Еп, выпукла и дифференцируема по w на Еп, фукнкции <7,(ги), і = 1,...,/ выпуклы и дифференцируемы на Еп. Непрерывные методы линеаризации, описываемые дифференциальными уравнениями первого и второго порядков, для задачи (9) имеют вид:

Г v(t) + v(t) =^^^)-7(0^4^(0^^(^),^)^

| "(0 = *?&)[*(<) -7(0^-1^W)v^(»(*),t»(0)], (1)

I »(0) = wo, * ^ 0,

' ^(ОС^ИОЖО + 0Ш*) + v{t) =

=*?&?# ko - 7(OG-ic(<))vw«(tt(o,«(*))l,

< L J (11)

«(0 = 4 [^0 -7(01И0) v^(t,(«),t»(0)],

, t»(0) = vo, v(0) = «!, < ^ o, где

5(v(0) = {weW0\ (g'i(v(t)),w - v(t)) + gi(v(t)) < 0, t = 1,...,/},

Vo, Vi —любые фиксированные точки из fn,7(0 > 0,/40,/^(0 — параметры методов. Если положить G(v) = J, то метод (10) превращается в непрерывный вариант метода

из [6].

Для методов (10), (11) доказаны теоремы сходимости траекторий v(t) к множеству решений исходной задачи при определенных требованиях на задачу (1) и параметры методов 7(0,^(0,^(0 (теоремы 2.1 и 2.4).

Заметим, что в методах (3), (4) в каждый момент времени, кроме выбора параметров 7(0,^(0,^(0 еш-е необходимо проектировать точку на множество W, или, иначе говоря, решить задачу оптимизации, что совсем непросто для произвольного множества W. Поэтому градиентными методами пользуются в тех случаях, когда задача проектирования точки решается просто и в явном виде (например, когда множество W представляет собой параллелепипед, гиперплоскость, полупространство, ортант). В методах (10), (11) в случае, если Wq — многогранное множество, задача проектирования превращается в задачу квадратичного программирования, которая может быть решена за конечное число шагов.

В случае, когда вместо точных значений функций <7;(го) и значений градиентов у\7'и)Ф(у,У)),д'і(т) нам известны их приближения <д(го,), V„,$(u,iu,), <^(гу,), зависящие от параметра ^ 0, для решения задачи (9) можно использовать следующие регуляризованные варианты методов (3), (4):

v(t) + 1,(0 = 7% [«(*) - 7(0^1 МО) (Vw«(tt(0, u(t), t) + a(t)u(t))],

«W = *?(?& И - 7(0^(^(0) (v.*(v(t)Mt), 0 + «(Of (*))] , v(0) = vo, * > 0, ( ^)0^^))^)+(3{t)v(t) + v(t) =

= *?J% [*(0 - 7(0^(0) (v„«(«(0, «(*), 0 + «(*)«(*))],

«w = *SSU [«(*) - 7(0^1 («(0) (v.«(«(o, «(о, о+«(o«w)],

{ v(0) = v0, v(0) = vlf О 0,

(12)

(13)

S(v(t),t) = {w Є W0\gi(v(t),t) + (gl(v(t),t),w-v(t))<9(t)(l + \\v(t)\\2), і = 1,...,0,

voj^i —любые фиксированные точки из En,A{t),a{t),'){t) > 0,0(0 ^ 0,/і(0»/?(0 — параметры методов.

Для методов (12), (13) указаны условия согласования параметров и требования на задачу (1), обеспечивающие сходимости траекторий v(t) к нормальному решению исходной задачи, сформулированы правила останова, построены регуляризующие операторы (теоремы 2.2, 2.3, 2.5 и 2.6).

В третьей главе диссертации предлагаются алгоритмы, основанные на идее проксимальных методов [8, 9,10, 13,16]. Проксимальные методы первого и второго порядков предназначены для решения задачи (1) с выпуклой по w, но, возможно, недиффе-ренцируемой функцией Ф(и,го). Они описываются следующими дифференциальными уравнениями:

v(t) + v(t) = Arg mm ||||to - v(t)\\2G{v{t)) + 7(0*(u(0,w)} ,

(14)

u(t) = Argrmn |-||ti; - v(t)\\3e{v{t)) + 7(0Ф(«(0,«»)} , v(0) = v0, t^ 0,

{ /1(ос?->(0)ЭД+/?(0«(0 + «(0 =

(15)

= Arpmm |-||ti; - «(0ПоМ*)) +7(0*(«(0,«0} ,

u{t) = Argndn ||||w - v(OIIgmo) + 7(O*MO,«0 j,

{ w(0)= vo, v(0)=vu t $s0,

где ||ж||д/„\ = (G(y)x,x), v0,vi — любые фиксированные точки из І5П,7(0 > 0,/^(0, f$(t) — параметры методов. Если G(v) = /, то метод (14) превращается в непрерывный аналог метода из [16].

Для методов (14), (15) сформулированы требования на задачу (1) и параметры методов 7(0»Ах(^)>/^(0» гарантирующие сходимость траекторий v(t) к множеству решений исходной задачи (теоремы 3.1 и 3.5).

Для решения задачи (1) с неточно заданными данными в диссертации предложены и исследованы регуляризованные варианты методов (14), (15) имеющие вид:

v{t) + v(t) = Arg min |-||w - v(t)\\2G{v(t))+

(16)

+j(t) (*(u(0, w, t) + A(t)P(w, t) + a(t)(u(t), to)) },

u{t) = Arg min |-|| - v(*)IIg(«(0)+

+7(t)($(v(t),w,t) + A(t)P(w,t) + a(t)(v(t),w))}, v(Q) = v0, t^ 0,

+

+7(0 (ф(и(0, Щ 0 + Л(0^К 0 + a(0(«(0, f>) },

(17)

«(0 = Лг^ min |-||«; - i»(0llo(«(t))+

+7(0 (Ф(т»(0, w, 0 + ^(*№. 0 + «W(«W, to)) },

. t»(0) = t/0, «(0) = vi, О 0,

где vo>vi —любые фиксированные точки из Еп, A(t),a{t),^(t) > 0,fi(t),l3(t) — параметры методов. Для этих методов указаны требования к их параметрам и задаче (1), обеспечивающие их сходимость к нормальному решению задачи (1), сформулированы правила останова и построены регуляризующие операторы (теоремы 3.2, 3.3, 3.6 и 3.7). Основные результаты диссертации:

  1. Для задач равновесного программирования предложены непрерывные градиентные методы прогнозного типа с переменной метрикой первого и второго порядка, непрерывные методы линеаризации прогнозного типа с переменной метрикой первого и второго порядка, непрерывные проксимальные методы прогнозного типа с переменной метрикой первого и второго порядка, исследована их сходимость;

  2. Проведена регуляризация всех предложенных методов и на их основе построены регуляризующие операторы.

Основные результаты диссертации опубликованы в [44, 45, 46, 47, 48, 49, 50].

Автор выражает глубокую и искреннюю благодарность своим научным руководителям АНАТОЛИЮ СЕРГЕЕВИЧУ АНТИПИНУ и ФЕДОРУ ПАВЛОВИЧУ ВАСИЛЬЕВУ за постановку задач, ценные советы, замечания и помощь в работе.

Регуляризованный непрерывный экстраградиентный метод первого порядка с переменной метрикой

Такую точку г», называют неподвижной точкой или равновесной точкой задачи (1). Многие важные проблемы исследования операций, вычислительной математики и математической экономики могут быть сведены к задаче (1). Если функция Ф(г ,го) не зависит от переменной V, то задача (1) превращается в обычную задачу минимизации. Также задачу (1) можно трактовать как экономическую модель взаимодействия нескольких участников с совокупной стратегией го из допустимого множества W и функцией издержек (целевой функцией) Ф(г ,го). Здесь первая переменная г» играет роль параметра, а вторая го - роль переменной оптимизации. Таким образом, данная задача описывает ситуацию равновесия, при которой всем участникам невыгодно уклоняться от точки равновесия v», что в противном случае приведет к увеличению значения функции издержек Ф(г ,го).

К настоящему времени достаточно хорошо изучена проблема существования точек равновесия, равносильная проблеме существования неподвижных точек v Є W{y) экстремального отображения W(v) функции Ф(і»,го) на W, определяемого из условия

Экстремальное отображение, как правило, является многозначным и при доказательстве существования неподвижной точки обычно пользуются теоремами Какутани [21], Fan Ку [31], Oettli [25], обобщающими классические теоремы о неподвижных точках для многозначных отображений.

Что касается конструктивных методов точек равновесия, пригодных для использования на вычислительной технике, то здесь значительные результаты получены лишь для отдельных классов задач (1), таких, как задачи оптимизации, седловые задачи, вариационные неравенства. Однако эти методы разрабатывались и исследовались при значительных ограничениях на функцию Ф(г , го) (требования типа выпуклости по переменной го и вогнутости по переменной v, нулевой суммы игры, сильной . монотонности оператора в вариационных неравенствах и т.п.). Между тем, многие практически важные задачи математической экономики, теории игр не удовлетворяют этим ограничениям и ранее разработанные методы к этим задачам не вполне применимы. Поэтому можно считать, что разработка методов решения достаточно общих задач (1) практически только начинается, о чем свидетельствуют немногочисленные имеющиеся работы (Карпелевич Г.М. [35], Антипин А.С. [3, б, 8], Шпирко СВ. [43], Васин А.А [23], Делавархалафи А. [19]).

При разработке методов решения задачи (1) следует еще учитывать, что эта задача, вообще говоря, неустойчива к возмущениям функции Ф(У, w) и множества W, и для ее решения нужно использовать специальные методы, называемые методами регуляризации. Имеется относительно небольшое число работ, в которых предложены и исследованы методы регуляризации неустойчивых равновесных задач (Васильев Ф.П., Антипин А.С. [17, 18], Шпирко СВ. [43], Делавархалафи А. [20]).

Из вышесказанного следует, что тема диссертации, в которой разрабатываются и исследуются непрерывные методы решения задачи (1), является актуальной. А.С. Антипиным были предложены т. н. управляемые методы проекции градиента, или экстраградиентные методы, основанные на следующей идее: известно, что неподвижная точка v» задачи (1) является одновременно решением как вариационного неравенства так и операторного уравнения где 7riv(...) — оператор проектирования некоторого вектора на множество W. Оба соотношения эквивалентны и являются необходимым условием минимума функции Ф(г ,гу) на множестве W.

Преобразование кцг (v — 7V„, f(u, v)) — v можно трактовать как векторное поле скоростей, которое получается, если каждому вектору v поставить в соответствие образ этого преобразования. При этом точке и. будет соответствовать ноль, т.е. неподвижная точка имеет нулевую скорость. Во многих случаях, а именно в случае градиентных полей, порожденных задачами оптимизации, векторы поля направлены к неподвижной точке v», т.е. к точке с нулевой скоростью. Если приближаться к этой точке по некоторой траектории, то длины векторов скоростей будут уменьшаться до нуля. Поэтому ожидается, что если из некоторой стартовой точки v0 провести траекторию v(t) так, чтобы касательный вектор этой траектории совпадал с вектором поля в каждой точке этой траектории, то со временем траектория попадет в сколь угодно малую окрестность неподвижной точки. Эту ситуацию можно описать с помощью дифференциального уравнения правая часть которого удовлетворяет всем условиям теоремы существования и единственности, следовательно при любых VQ И всех t 0 существует траектория v(t). К сожалению, область применимости этого метода ограничена задачами оптимизации, поэтому был разработан аналог этого метода, использующий идею прогнозирования, а именно

Здесь нахождение точки u(t) можно толковать как прогноз, то есть значение градиента функции Ф(и,го) по переменной w в основном уравнении метода берется не в текущей точке v(t), а в некой спрогнозированной точке u(t). На основании этих идей также были предложены и исследованы методы линеаризации прогнозного типа и проксимальные методы прогнозного типа. Однако, теоретические и численные исследования подтверждают, что такие методы медленно сходятся в тех случаях, когда поверхности уровня функции Ф(г , v) сильно вытянуты и эта функция переменной v имеет так называемый овражный характер.

Один из способов ускорения сходимости заключается в выборе подходящей замены переменных с тем, чтобы в пространстве новых переменных поверхности уровня стали бы близки к сферам. Таким образом появляется новый параметр метода — симметричная положительно определенная матрица, или, если замена переменных делается в текущий момент времени — семейство таких матриц. С помощью симметричной положительно определенной матрицы в пространстве можно задать новое скалярное произведение и соответствующую ему метрику. В литературе методы такого типа называются методами с переменной метрикой или методами с растяжением пространства. То, что на этом пути можно добиться существенного улучшения сходимости, подтверждает, например, хорошо известный метод Ньютона для решения задач оптимизации. Однако, его применяют в тех случаях, когда вычисление матрицы вторых производных целевой функции не представляет трудностей. Поэтому существует ряд т.н. квазиньютоновских методов, в которых матрица - параметр метода выбирается близкой к матрице вторых производных. Также для решения задач оптимизации были разработаны методы с переменной метрикой, не требующие вычисления матрицы вторых производных или ее аппроксимаций.

Поскольку задача (1) тесно связана с задачами оптимизации, то естественно было предположить, что идея растяжения пространства сработает и в случае методов решения равновесных задач. Настоящая работа как раз и посвящена разработке непрерывных методов проекции градиента прогнозного типа (экстраградиентных методов), методов линеаризации прогнозного типа и проксимальных методов прогнозного типа (экстрапроксимальных методов) с переменной метрикой для решения равновесных задач, конструированию на их основе регуляризованных методов.

В первой главе диссертации приводятся некоторые свойства кососимметричных функций, свойства решений задачи равновесного программирования (1), а также утверждения, используемые при доказательствах полученных в диссертации результатов и предлагается непрерывный экстраградиентный метод с переменной метрикой, обобщающий метод (2):

Непрерывный метод линеаризации первого порядка прогнозного типа с переменной метрикой

Преобразование кцг (v — 7V„, f(u, v)) — v можно трактовать как векторное поле скоростей, которое получается, если каждому вектору v поставить в соответствие образ этого преобразования. При этом точке и. будет соответствовать ноль, т.е. неподвижная точка имеет нулевую скорость. Во многих случаях, а именно в случае градиентных полей, порожденных задачами оптимизации, векторы поля направлены к неподвижной точке v», т.е. к точке с нулевой скоростью. Если приближаться к этой точке по некоторой траектории, то длины векторов скоростей будут уменьшаться до нуля. Поэтому ожидается, что если из некоторой стартовой точки v0 провести траекторию v(t) так, чтобы касательный вектор этой траектории совпадал с вектором поля в каждой точке этой траектории, то со временем траектория попадет в сколь угодно малую окрестность неподвижной точки. Эту ситуацию можно описать с помощью дифференциального уравнения правая часть которого удовлетворяет всем условиям теоремы существования и единственности, следовательно при любых VQ И всех t 0 существует траектория v(t). К сожалению, область применимости этого метода ограничена задачами оптимизации, поэтому был разработан аналог этого метода, использующий идею прогнозирования, а именно

Здесь нахождение точки u(t) можно толковать как прогноз, то есть значение градиента функции Ф(и,го) по переменной w в основном уравнении метода берется не в текущей точке v(t), а в некой спрогнозированной точке u(t). На основании этих идей также были предложены и исследованы методы линеаризации прогнозного типа и проксимальные методы прогнозного типа. Однако, теоретические и численные исследования подтверждают, что такие методы медленно сходятся в тех случаях, когда поверхности уровня функции Ф(г , v) сильно вытянуты и эта функция переменной v имеет так называемый овражный характер.

Один из способов ускорения сходимости заключается в выборе подходящей замены переменных с тем, чтобы в пространстве новых переменных поверхности уровня стали бы близки к сферам. Таким образом появляется новый параметр метода — симметричная положительно определенная матрица, или, если замена переменных делается в текущий момент времени — семейство таких матриц. С помощью симметричной положительно определенной матрицы в пространстве можно задать новое скалярное произведение и соответствующую ему метрику. В литературе методы такого типа называются методами с переменной метрикой или методами с растяжением пространства. То, что на этом пути можно добиться существенного улучшения сходимости, подтверждает, например, хорошо известный метод Ньютона для решения задач оптимизации. Однако, его применяют в тех случаях, когда вычисление матрицы вторых производных целевой функции не представляет трудностей. Поэтому существует ряд т.н. квазиньютоновских методов, в которых матрица - параметр метода выбирается близкой к матрице вторых производных. Также для решения задач оптимизации были разработаны методы с переменной метрикой, не требующие вычисления матрицы вторых производных или ее аппроксимаций.

Поскольку задача (1) тесно связана с задачами оптимизации, то естественно было предположить, что идея растяжения пространства сработает и в случае методов решения равновесных задач. Настоящая работа как раз и посвящена разработке непрерывных методов проекции градиента прогнозного типа (экстраградиентных методов), методов линеаризации прогнозного типа и проксимальных методов прогнозного типа (экстрапроксимальных методов) с переменной метрикой для решения равновесных задач, конструированию на их основе регуляризованных методов.

В первой главе диссертации приводятся некоторые свойства кососимметричных функций, свойства решений задачи равновесного программирования (1), а также утверждения, используемые при доказательствах полученных в диссертации результатов и предлагается непрерывный экстраградиентный метод с переменной метрикой, обобщающий метод (2): где Kw [...] — так называемая G—проекция точки на множество W [29, стр. 308], VQ — любая фиксированная точка из Еп, Vw$(v,w) — градиент функции Ф(г/, и ) по переменной w, 7(0 0 — параметр метода; G(v) для каждого v — заданная симметричная положительно определенная матрица. Заметим, что если G(v) = J — единичная матрица, то метод (3) превращается в метод (2). Далее на основе этого ме тода оказалось возможным получить метод второго порядка, естественным образом обобщающий метод (3):

Для методов (3), (4) доказаны теоремы сходимости траекторий v(t) к множеству решений исходной задачи при определенных требованиях на задачу (1) и параметры методов 7(0» МО»/ (О (теоремы 1.3 и 1.7). Как известно, задача (1) неустойчива к возмущениям исходных данных Ф(г , w), W, и для ее решения необходимо применять методы регуляризации. В диссертации проведена регуляризация вышеупомянутых методов с помощью модификации классической функции Тихонова в сочетании с методом штрафных функций. Рассмотрен случай, когда множество W задано следующим образом: где Wo С Еп — заданное выпуклое замкнутое множество, функция Ф(г , w) определена на произведении евклидовых пространств Еп х Еп и дифференцируема по гу, функции 7;(ги), г = 1,...,5 определены и дифференцируемы на Еп. Для учета ограничений типа равенств и неравенств из (5) использована простейшая штрафная функция где gt{w) = max{#(iu);0} при і = 1,...,/, gfip) = МИ І ПРИ « = /+ 1,...,л. Также предполагается, что вместо точных значений градиентов Vw$(v,w), P (w) нам известны их приближения V„,$(v,iu,),P (ty,), зависящие от параметра t 0. Регуляризованные варианты методов (3) и (4) соответственно имеют вид: где vo,t i — любые фиксированные точки из En,A(t) 0, a(t) 0,7(0 0, i(i), 3( ) — параметры методов.

Для методов (7), (8) указаны условия согласования параметров и требования на задачу (1), обеспечивающие сходимости траекторий v(t) к нормальному решению исходной задачи, сформулированы правила останова, построены регуляризующие операторы (теоремы 1.4, 1.5, 1.8 и 1.9).

Во второй главе диссертации предлагаются и исследуются различные модификации непрерывных методов, основанные на идее линеаризации [6, 7]. Эти методы реализованы для такой задачи равновесного программирования: найти точку v. из условий

Регуляризованный непрерывный метод линеаризации второго порядка прогнозного типа с переменной метрикой

Это неравенство является одним из важнейших условий сходимости методов, разработанных в диссертации. В дальнейшем всегда будет предполагаться, что целевая функция Ф(г», ги) удовлетворяет этому условию. Отметим, что класс кососимметрич-ных функций достаточно широк и включает в себя:

Антисимметричные функции, то есть такие, что Функции, представимые в виде суммы: где /1( ),/2(10) — произвольные функции. 3. Матрично-скалярное произведение где а — фиксированная точка из W, G — симметричная положительно определенная матрица. Приведем одно из свойств кососимметричных функций [14]. Лемма 1.1 Пусть функция Ф(г ,го) выпукла и дифференцируема по w, удовлетворяет условию (18). Тогда справедливо неравенство Наряду с условием кососимметричности используется условие сильной кососимметричности: Примером сильно кососимметричной функции может служить матрично-скалярное произведение. Справедлива следующая лемма [43]: Лемма 1.2 Пусть функция Ф(г»,го) выпукла и дифференцируема по w, удовлетворяет условию (20). Тогда справедливо неравенство Далее будут приведены три утверждения [43], описывающие некоторые свойства множества решений задачи равновесного программирования (1). Отметим, что в случае компактности множества W функция Ф(г;, w) порождает непустое экстремальное отображение и исходная задача (1) эквивалентна задаче поиска неподвижной точки экстремального отображения ЇУ(и). Вопрос о существовании такой точки можно решить с помощью теоремы Какутани, а именно, если функция $(v,w) полунепрерывна снизу по v и выпукла по w, множество W — выпуклый компакт, то отображение W(v) всегда имеет неподвижную точку. Однако, условие (20) помогает ослабить требования, налагаемые на множество W, а именно, позволяет избавиться от требования ограниченности этого множества в пространстве Еп.

Пусть множество W выпукло и замкнуто, функция Ф(г,ги) выпукла и непрерывно дифференцируема по w при любом фиксированном v. Тогда задача (1) эквивалентна следующей задаче: найти v» EW : Лемма 1.4 Пусть множество W выпукло и замкнуто, функция Ф(-и,го) выпукла и дифференцируема по w при любом фиксированном v, непрерывна по v при любом фиксированном w, удовлетворяет условию (18), множество решений задачи (1) W непусто. Тогда оно выпукло и замкaнуто. Лемма 1.5 Пусть множество W выпукло и замкнуто, функция Ф(-и,го) выпукла и дифференцируема по w при любом фиксированном v, непрерывна по v при любом фиксированном w, удовлетворяет условию (20). Тогда задача (1) имеет, причем единственное, решение. Хорошо известно, что задача (1) неустойчива к возмущениям исходных данных, и для ее решения приходится привлекать методы решения некорректных задач, в том числе методы регуляризации. Для случая, когда неточно задана только функция Ф(г;,го), СВ. Шпирко [43] был разработан метод кососимметричной регуляризации, заключающийся в следующем: к исходной кососимметричной функции добавляется сильно кососимметричный стабилизатор и рассматривается параметрическое семейство регуляризованных задач: при каждом а 0 Отметим, что предложенный стабилизатор Q(v,w) не удовлетворяет стандартным требованиям, предъявляемым к стабилизаторам [28]. Тем не менее, кососимметрич-ная регуляризация позволяет получить решение равновесной задачи (1). Очевидно, что регуляризованная функция уже является сильно кососимметричной с параметром а. Поэтому, если потребовать непрерывность функции &(v,w) по каждой из переменных, ее выпуклость и дифференцируемость по переменной w, выпуклость и замкнутость множества W, то по лемме 1.5 получаем, что при каждом а решение va задачи (23) существует и единственно. Справедлива следующая теорема [43]: Теорема 1.1 Пусть множество W выпукло и замкнуто, множество решений W задачи (1) непусто, функция Ф(у,ш) непрерывна по совокупности переменных (v,w) на W, выпукла и непрерывно дифференцируема по w при любом фиксированном v из W, удовлетворяет условию кососимметричности (18) на W. Тогда Существование нормального решения следует из леммы 1.4 и теоремы о минимизации сильно выпуклой функции на выпуклом замкнутом множестве [29]. В случае, когда неточно задано само множество W, в диссертации применяется метод штрафов для кососимметричных задач. Рассмотрен такой случай: ищется точка v» из условий Справедлива следующая лемма Лемма 1.6 Пусть Wo — выпуклое замкнутое множество из Еп, функция Ф(г;,ги) непрерывна по переменной v на Wo при каждом фиксированном w из Wo, выпукла и дифференцируема по переменной w на Wo при каждом фиксированном v из Wo, удовлетворяет условию кососимметричности (18), функции 7;(ги), г = 1,...,1 выпуклы и дифференцируемы на Wo, функции gi(w), і = I + 1,..., s аффинны, то есть g%{w) = (a,-, w) — b а,- Є Еп, bi — действительные числа. Также пусть множество W решений задачи (24) непусто. Тогда W — выпуклое и замкнутое множество и задача (24) имеет единственное решение v» (нормальное решение), обладающее свойством г г/, v (Е W .

Непрерывный проксимальный метод второго порядка прогнозного типа с переменной метрикой

Рассматривается задача равновесного программирования: найти точку г . из условий Wo С En — заданное выпуклое замкнутое множество, функция Ф(г , W) определена на произведении евклидовых пространств Еп х Еп, дифференцируема по го на Еп, функции 7,(го), г = / + 1,... ,s определены и дифференцируемы на Еп. Предполагается, что множество решений W исходной задачи (55) непусто.

Для учета ограничений типа равенств и неравенств в (55) будем пользоваться простейшей штрафной функцией где gf{w) = max{0; gi{w)} при і = 1,...,1-, g?(w) = \g%{w)\ при і = I + 1,..., s. Введем функцию Тихонова где A(t) 0, a(t) 0 — некоторые заданные функции. Градиент функции (57) по переменной го равен где через Vw$(v, w), P (w) обозначены градиенты функций Ф(У, го), P(W) ПО W. Будем предполагать, что вместо точных значений градиентов Vw$(v,w),P (w) нам известны их приближения Vw$(v,w,t), P (w,t) такие, что для любого t О max{ \\V (w,w,t)-V (w,w)\\,\\P (w,t)-Pr(w)\\ } ( )(1 + MI) Vw є Еп, (59) где S(t) 0- некоторая заданная функция. Для решения задачи (55) предлагается следующий непрерывный экстраградиентный метод с переменной метрикой в сочетании с методом штрафов: — приближение точного градиента функции Тихонова, w = Кщ [...] — проекция точки на множество Wo в метрике, задаваемой скалярным произведением {G(v)x,y), G(v) — симметричная положительно определенная матрица, v0 — произвольная точка из Еп. Приведем условия согласования параметров a(t),f(t), S(t), A(t) метода (60) и сформулируем требования к задаче (55), обеспечивающие сходимость траектории v(t) процесса (60) при t — +00 к решению задачи (55). Теорема 1.4 Пусть выполнены следующие условия: 1. WQ — выпуклое замкнутое множество из Еп; множество W, решений задачи (55) непусто; функция Ф(г ,ги) непрерывна по v на Еп при каокдом w из Еп, выпукла и непрерывно дифференцируема по w на Еп при каждом v из Еп, удовлетворяет условию кососимметричности (18) на Wo, функции gi(w), і = 1,...,/ выпуклы и непрерывно дифференцируемы на Еп, функции gi(w), і = I + 1,... ,s аффинны, то есть gi(w) = (a,-,w) — Ь;, а,- Є Еп, 6,- — действительные числа. 2. Существуют положительные постоянные 77,с,-, г = 1,...,4 такие, что где г „ — нормальное решение задачи (55), параметр р штрафной функции (56) удовлетворяет условиям р 1, р п; S. Сужение градиента Vw$(v,w) на диагональ множества Еп х Еп и градиент Р (го) удовлетворяют условию Липшица 4. Вместо точных значений градиентов Vw fr(v,w) и P (w) известны их приближения V (v,w,t) и P (w,t), для которых выполнены условия (59); 5. G(v) — симметричная положительно определенная матрица при любом v из Еп; существуют сильно выпуклая дважды дифференцируемая функция Ф(г ) и положительные константы т, М, т М такие, что 6. Параметры a(t), y(t),8(t),A(t) метода (60) таковы, что aftMiMWeCMOj+oo); 5{t) Є С[0;+оо); a(t),1(t),A(t) 0; 8{t) 0; a(t) — выпуклая функция, a (t) 0; A{t) — вогнутая функция, A (t) 0; Y(t) 0; (при p = n последнее равенство не нужно) Тогда lim (0 + 7(0 + (0+ 7 )=05 lim A(t) = +00; - +oo у a[t) J t-++oo (63) Urn N0-». = 0; Ит 1И )П = 0 (64) где v» — нормальное решение задачи (55), причем сходимость в (64) равномерная относительно выбора Vw$(v,w,t) и P (w,t) из (59). В качестве параметров а(Ь),п((Ь) 8{Ь), A(t), удовлетворяющих условиям теоремы 1.4, можно взять, например, (при p = rj последнее условие не нужно) Доказательство. Воспользуемся характеристическим свойством G—проекции [29, стр. 308] для уравнений метода (60) с учетом определения функции VwTs(v,w, t): Подставим вместо w в первое из этих неравенств точку vT Є Wo — решение задачи (26) при t = т, а во второе — точку v(t) + v(t) Є Wo. Далее для краткости записи будем опускать аргумент t у функций v(t),v(t),u(t). Получим Сложим эти два неравенства: Поскольку vT является репіением задачи (26) при t = т, то, по лемме 1.3 (yw$(vT, vT) + A(T)P (VT) + a(r)vT, w-vT) 0 V Є W0. Подставим в это неравенство в качестве w точку u(t) Є Wo, умножив его на — 7(0 0. Будем иметь

Похожие диссертации на Непрерывные методы решения задач равновесного программирования