Метод Дэвидона-Флетчера-Пауэлла

Министерство науки, высшей школы и технической
политики Российской Федерации.

Новосибирский Государственный
Технический Университет.
[pic]
Реферат по исследованию операций на тему
«Метод Дэвидона — Флетчера — Пауэлла».

Вариант №2.

Факультет: АВТ.
Кафедра: АСУ.
Группа: АС-513.
Студент: Бойко Константин Анатольевич.
Преподаватель: Ренин Сергей Васильевич.
Дата: 19 октября 1997 года.

Новосибирск
Введение.

Первоначально метод был предложен Дэвидоном (Davidon [1959] ), а затем
развит Флетчером и Пауэллом (Fletcher, Powell [1963] ). Метод Дэвидона —
Флетчера — Пауэлла называют также и методом переменной метрики. Он попадает
в общий класс квазиньютоновских процедур, в которых направления поиска
задаются в виде -Dj[pic]f(y). Направление градиента является, таким
образом, отклоненным в результате умножения на -Dj , где Dj — положительно
определенная симметрическая матрица порядка n ( n, аппроксимирующая
обратную матрицу Гессе. На следующем шаге матрица Dj+1 представляется в
виде суммы Dj и двух симметрических матриц ранга один каждая. В связи с
этим схема иногда называется схемой коррекции ранга два.

Алгоритм Дэвидона — Флетчера — Пауэлла.

Рассмотрим алгоритм Дэвидона — Флетчера — Пауэлла минимизации
дифференцируемой функции нескольких переменных. В частности, если функция
квадратичная, то, как будет показано позднее, метод вырабатывает
сопряженные направления и останавливается после выполнения одной итерации,
т.е. после поиска вдоль каждого из сопряженных направлений.

Начальный этап.

Пусть [pic](0 — константа для остановки. Выбрать точку х1 и начальную
симметрическую положительно определенную матрицу D1. Положить y1 = x1, k =
j = 1 и перейти к основному этапу.

Основной этап.

Шаг 1. Если (([pic]f(yj) ((( (, то остановиться; в противном случае
положить dj = — Dj[pic]f(yj) и взять в качестве (j оптимальное решение
задачи минимизации f(yj + (dj) при ( ( 0. Положить yj+1 = yj + (jdj. Если j
( n, то перейти к шагу 2. Если j = n, то положить y1 = xk+1 = yn+1,
заменить k на k+1, положить j=1 и повторить шаг 1.

Шаг 2. Построить Dj+1 следующим образом :
[pic], (1)
где
pj = (jdj, (2)
qj = [pic]f(yj+1) — [pic]f(yj).
(3)

Заменить j на j + 1 и перейти к шагу 1.

Пример.

Рассмотрим следующую задачу :

минимизировать (x1 — 2)4 + (x1 — 2×2)2.

Результаты вычислений методом Дэвидона — Флетчера — Пауэлла приведены
в таблице 1.

Таблица 1. Результаты вычислений по методу Дэвидона — Флетчера — Пауэлла.

|k|xk |j|yj |[pic]f(|(([pic]f|D |dj |(j |yj+1 |
| |f(xk) | |f(yj) |yj) |(yj) (( | | | | |
|1|(0.00, |1|(0.00, |(-44.00|50.12 |[pic] |(44.00, |0.06|(2.70, |
| |3.00) | |3.00) |, | |[pic] |-24.00) |2 |1.51) |
| |(52.00)| |(52.00)|24.00) | | | | | |
| | | | | |1.47 | | | | |
| | |2| | | | |(-0.67, |0.22|(2.55, |
| | | |(2.70, |(0.73, | | |-1.31) | |1.22) |
| | | |1.51) |1.28) | | | | | |
| | | |(0.34) | | | | | | |
|2|(2.55, |1|(2.55, |(0.89, |0.99 |[pic] |(-0.89, |0.11|(2.45, |
| |1.22) | |1.22) |-0.44) | |[pic] |0.44) | |1.27) |
| |(0.1036| |(0.1036| | | | | | |
| |) | |) | |0.40 | | | | |
| | |2| |(0.18, | | |(-0.28, |0.64|(2.27, |
| | | |(2.45, |0.36) | | |-0.25) | |1.11) |
| | | |1.27) | | | | | | |
| | | |(0.0490| | | | | | |
| | | |) | | | | | | |
|3|(2.27, |1|(2.27, |(0.18, |0.27 |[pic] |(-0.18, |0.10|(2.25, |
| |1.11) | |1.11) |-0.20) | |[pic] |0.20) | |1.13) |
| |(0.008)| |(0.008)| | | | | | |
| | | | | |0.06 | | | | |
| | |2| |(0.04, | | |(-0.05, |2.64|(2.12, |
| | | |(2.25, |0.04) | | |-0.03) | |1.05) |
| | | |1.13) | | | | | | |
| | | |(0.004)| | | | | | |
|4|(2.12, |1|(2.12, |(0.05, |0.09 |[pic] |(-0.05, |0.10|(2.115, |
| |1.05) | |1.05) |-0.08) | | |0.08) | |1.058) |
| |(0.0005| |(0.0005| | | | | | |
| |) | |) | |0.006 | | | | |
| | |2| |(0.004,| | | | | |
| | | |(2.115,|0.004) | | | | | |
| | | |1.058) | | | | | | |
| | | |(0.0002| | | | | | |
| | | |) | | | | | | |

На каждой итерации вектор dj для j = 1, 2 определяется в виде

–Dj[pic]f(yj), где D1 – единичная матрица, а D2 вычисляется по формулам (1)
— (3). При

k = 1 имеем p1 = (2.7, -1.49)T, q1 = (44.73, -22,72)T. На второй итерации

p1 = (-0.1, 0.05)T, q1 = (-0.7, 0.8)T и, наконец, на третьей итерации

p1 = (-0.02, 0.02)T, q1 = (-0.14, 0.24)T. Точка yj+1 вычисляется
оптимизацией вдоль направления dj при начальной точке yj для j = 1, 2.
Процедура остановлена в точке

y2 = (2.115, 1.058)T на четвертой итерации, так как норма ((f(y2) ((= 0.006
достаточно мала. Траектория движения, полученная методом, показана на
рисунке 1.

Рисунок 1. Метод Дэвидона — Флетчера — Пауэлла.
[pic]
Лемма 1 показывает, что каждая матрица Dj положительно определена и dj
является направлением спуска.
Для доказательства леммы нам понадобится :
Теорема 1. Пусть S — непустое множество в Еn, точка x ( cl S. Конусом
возможных направлений в точке x называется множество D = {d : d ( 0, x
+ (d ( S при всех ( ( (0, () для некоторого ( > 0}.
Определение. Пусть x и y — векторы из Еn и (xTy( — абсолютное значение
скалярного произведения xTy. Тогда выполняется следующее неравенство,
называемое неравенством Шварца : (xTy( ( ((x(( ((y((.

Лемма 1.

Пусть y1 ( Еn, а D1 – начальная положительно определенная
симметрическая матрица. Для j = 1, …, n положим yj+1 = yj + (jdj, где dj
= –Dj[pic]f(yj), а (j является оптимальным решением задачи минимизации f(yj
+ (dj) при ( ( 0. Пусть, кроме того, для

j = 1, …, n – 1 матрица Dj+1 определяется по формулам (1) — (3). Если
[pic]f(yj) ( 0 для

j = 1, …, n, то матрицы D1, …, Dn симметрические и положительно
определенные, так что d1, …, dn – направления спуска.
Доказательство.
Проведем доказательство по индукции. При j = 1 матрица D1
симметрическая и положительно определенная по условию леммы. Кроме того,

[pic]f(y1)Td1 = –[pic]f(y1)TD1[pic]f(y1) ( 0, так как D1 положительно
определена. Тогда по теореме 1 вектор d1 определяет направление спуска.
Предположим, что утверждение леммы справедливо для некоторого j ( n – 1, и
покажем, что оно справедливо для j+1. Пусть x – ненулевой вектор из En,
тогда из (1) имеем
[pic] (4)

Так как Dj – симметрическая положительно определенная матрица, то
существует положительно определенная матрица Dj1/2, такая, что Dj =
Dj1/2Dj1/2. Пусть

a = Dj1/2x и b = Dj1/2qj. Тогда xTDjx = aTa, qjTDjqj = bTb и xTDjqj = aTb.
Подставляя эти выражения в (4), получаем :
[pic] (5)

По неравенству Шварца имеем (aTa)(bTb) ( (aTb)2. Таким образом, чтобы
доказать, что xTDj+1x ( 0, достаточно показать, что pjTqj ( 0 и bTb ( 0.
Из (2) и (3) следует, что

pjTqj = (jdjT[[pic]f(yj+1) – [pic]f(yj)].
(6)

По предположению[pic]f(yj) ( 0, и Dj положительно определена, так что

[pic]f(yj)TDj[pic]f(yj) ( 0. Кроме того, dj – направление спуска, и,
следовательно, (j ( 0. Тогда из (6) следует, что pjTqj ( 0. Кроме того, qj
( 0, и , следовательно, bTb= qjTDjqj ( 0.
Покажем теперь, что xTDj+1x ( 0. Предположим, что xTDj+1x = 0. Это
возможно только в том случае, если (aTa)(bTb) = (aTb)2 и pjTx = 0. Прежде
всего заметим, что

(aTa)(bTb) = (aTb)2 только при a = (b, т.е. Dj1/2x = (Dj1/2qj. Таким
образом, x = (qj. Так как x ( 0, то ( ( 0. Далее, 0 = pjTx = ( pjTqj
противоречит тому, что pjTqj ( 0 и ( ( 0. Следовательно, xTDj+1x > 0, т.е.
матрица Dj+1 положительно определена.
Поскольку [pic]f(yj+1) ( 0 и Dj+1 положительно определена, имеем

[pic]f(yj+1)Tdj+1 = –[pic]f(yj+1)T Dj+1[pic]f(yj+1) < 0. Отсюда по теореме
1 следует, что dj+1 – направление спуска.
Лемма доказана.
Квадратичный случай.

В дальнейшем нам понадобиться :

Теорема 2. Пусть f(x) = cTx + ( xTHx, где Н — симметрическая матрица
порядка n x n. Рассмотрим Н — сопряженные векторы d1, …, dn и
произвольную точку x1. Пусть (k для k = 1, …, n — оптимальное решение
задачи минимизации

f(xk + (dk) при ( ( Е1 и xk+1 = xk + (dk. Тогда для k = 1, …, n
справедливы следующие утверждения :
1. [pic]f(xk+1)Tdj = 0, j = 1, …, k;
2. [pic]f(x1)Tdk = [pic]f(xk)Tdk;
3. xk+1 является оптимальным решением задачи минимизации f(x) при
условии

x — x1 ( L(d1, …, dk), где L(d1, …, dk) – линейное
подпространство, натянутое на векторы d1, …, dk, то есть [pic] В
частности, xn+1 – точка минимума функции f на Еn.

Если целевая функция f квадратичная, то в соответствии со
сформулированной ниже теоремой 3 направления d1, …, dn, генерируемые
методом Дэвидона — Флетчера — Пауэлла, являются сопряженными.
Следовательно, в соответствии с утверждением 3 теоремы 2 метод
останавливается после завершения одной итерации в оптимальной точке. Кроме
того, матрица Dn+1, полученная в конце итерации, совпадает с обратной к
матрице Гессе Н.
Теорема 3. Пусть Н – симметричная положительно определенная матрица
порядка n x n. Рассмотрим задачу минимизации f(x) = cTx + ( xTHx при
условии x ( En. Предположим, что задача решена методом Дэвидона —
Флетчера — Пауэлла при начальной точке y1 и начальной положительно
определенной матрице D1. В частности, пусть (j, j = 1, …, n, –
оптимальное решение задачи минимизации f(yj + (dj) при ( ( 0 и yj+1 =
yj + (jdj, где dj = -Dj[pic]f(yj), а Dj определяется по формулам (1) –
(3). Если [pic]f(yj) ( 0 для всех j, то направления

d1, …, dn являются Н — сопряженными и Dn+1 = H-1. Кроме того, yn+1
является оптимальным решением задачи.
Доказательство.
Прежде всего покажем, что для j, такого, что 1 ( j ( n, справедливы
следующие утверждения :
1. d1, …, dj линейно независимы.
2. djTHdk = 0 для i ( k; i, k ( j.
3. Dj+1Hpk, или, что эквивалентно, Dj+1Hdk = dk для 1 ( k ( j, pk =
(kdk.
Проведем доказательство по индукции. Для j = 1 утверждения 1 и 2
очевидны. Чтобы доказать утверждение 3, заметим прежде всего, что для
любого k справедливы равенства
Hpk = H((kdk) = H(yk+1 — yk) = [pic]f(yk+1) –[pic]f(yk) = qk.
(7)
В частности, Hp1 = q1. Таким образом, полагая j = 1 в (1), получаем
[pic],
т.е. утверждение 3 справедливо при j = 1.
Теперь предположим, что утверждения 1, 2 и 3 справедливы для j ( n –
1. Покажем, что они также справедливы и для j + 1. Напомним, что по
утверждению 1 теоремы 2 diT[pic]f(yj+1) = 0 для i ( j. По индуктивному
предположению di = Dj+1Hdi, i ( j. Таким образом, для i ( j имеем
0 = diT[pic]f(yj+1) = diTHDj+1[pic]f(yj+1) = –diTHdj+1.
Ввиду предположения индукции это равенство показывает, что
утверждение 2 также справедливо для j+1.
Теперь покажем, что утверждение 3 справедливо для j+1.
Полагая k ( j+1, имеем
[pic]. (8)
Учитывая (7) и полагая k = j + 1 в (8), получим, что Dj+2Hpj+1 =
pj+1. Теперь пусть k ( j. Так как утверждение 2 справедливо для j + 1, то
pj+1THpk = (k(j+1dj+1THdk = 0. (9)
По предположению индукции из (7) и вследствие того, что утверждение 2
справедливо для j + 1, получаем
[pic] . (10)
Подставляя (9) и (10) в (8) и учитывая предположение индукции,
получаем
[pic].
Таким образом, утверждение 3 справедливо для j+1.
Осталось показать, что утверждение 1 справедливо для j+1.
Предположим, что [pic]. Умножая это равенство на [pic]и учитывая, что
утверждение 2 справедливо для j+1, получаем, что [pic]. По условию теоремы
[pic], а по лемме 1 матрица [pic] положительно определена, так что [pic].
Так как H положительно определена, то [pic] и, следовательно, [pic]. Отсюда
следует, что [pic], и так как d1, …, dj линейно независимы по предположению
индукции, то [pic] для i = 1, …, j. Таким образом, d1, …, dj+1 линейно
независимы и утверждение 1 справедливо для j+1. Следовательно, утверждения
1, 2 и 3 выполняются. В частности сопряжённость d1, …, dn следует из
утверждений 1 и 2, если положить j = n.
Пусть теперь j = n в утверждении 3. Тогда [pic] для k = 1, …, n. Если
в качестве D взять матрицу, столбцами которой являются векторы d1, …, dn,
то [pic]. Так как D имеет обратную, то [pic], что возможно только в том
случае, если [pic]. Наконец, [pic] является оптимальным решением по теореме
2.
Теорема доказана.

Список литературы.

1. Базара М., Шетти К. «Нелинейное программирование. Теория и алгоритмы».
М., 1982.
Химмельблау Д. «Прикладное нелинейное программирование». М., 1975.

Добавить комментарий