Необходимые и достаточные условия куна таккера. Необходимые условия минимума функции

Постановка задачи

Рассмотрим задачу нелинейной оптимизации. Пусть есть функции

При условиях .

Вильям Каруш в своей дипломной работе нашёл необходимые условия в общем случае, когда накладываемые условия могут содержать и уравнения, и неравенства. Независимо от него к тем же выводам пришли Гарольд Кун и Альберт Таккер.

Необходимые условия минимума функции

Если при наложенных ограничениях - решение задачи, то найдётся ненулевой вектор множителей Лагранжа такой, что для функции Лагранжа выполняются условия:

Достаточные условия минимума функции

Перечисленные необходимые условия минимума функции в общем случае не являются достаточными. Существует несколько вариантов дополнительных условий, которые делают их достаточными.

Простая формулировка

Если для допустимой точки выполняются условия стационарности, дополняющей нежёсткости и неотрицательности, а также λ 1 > 0 , то .

Более слабые условия

Если для допустимой точки выполняются условия стационарности, дополняющей нежёсткости и неотрицательности, а также (условие Слейтера ), то .


Wikimedia Foundation . 2010 .

Смотреть что такое "Условия Каруша - Куна - Таккера" в других словарях:

    В теории оптимизации условия Каруша Куна Таккера (англ. Karush Kuhn Tucker conditions, KKT) необходимые условия решения задачи нелинейного программирования. Чтобы решение было оптимальным, должны быть выполнены некоторые… … Википедия

    В теории оптимизации условия Каруша Куна Таккера (англ. Karush Kuhn Tucker conditions, KKT) необходимые условия решения задачи нелинейного программирования. Чтобы решение было оптимальным, должны быть выполнены некоторые условия регулярности.… … Википедия

    Вильям Каруш William Karush Дата рождения: 1 марта 1917(1917 03 01) Место рождения: Чикаго, США Дата смерти … Википедия

    У этого термина существуют и другие значения, см. Оптимизация. Оптимизация в математике, информатике и исследовании операций задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного … Википедия Википедия

    Метод множителей Лагранжа, метод нахождения условного экстремума функции f(x), где, относительно m ограничений, i меняется от единицы до m. Содержание 1 Описание метода … Википедия

Теорема Куна-Таккера является обобщением методов решения оптимизационных задач в двух направлениях:

Линейного программирования на нелинейный случай, который получил по аналогии не очень удачное название «нелинейного программирования»;

Нелинейных ограничений равенств на ограничения неравенства.

Метод и условия Каруша-Куна-Таккера (Karush-Kuhn- Tucker conditions , KKT) формально являются необходимыми условиями оптимальности задачи нелинейного программирования. Кроме того, необходимые условия включают, так называемые условия регулярности стационарных точек – невырожденность множества градиентов ограничений. Метод является обобщением метода множителей Лагранжа на случай ограничений неравенств.

Кун и Таккер обобщили метод множителей Лагранжа (для использования при построении критериев оптимальности для задач с ограничениями в виде равенств) на случай общей задачи нелинейного программирования с ограничениями, как в виде равенств, так и в виде неравенств .

Основным методом в нелинейном программировании до сих пор остаётся применение функции Лагранжа, полученной переносом ограничений в целевую функцию. Условия Куна-Таккера также выведены из этого принципа.

Вильям Каруш в своей дипломной работе в 1931 году нашёл необходимые условия в общем случае ограничений равенств и неравенств. Независимо от него к тем же выводам позднее в 1941 году пришли Гарольд Кун и Альберт Таккер. Полученные ими результаты были более общими.

Если при наложенных ограничениях является решением задачи, то найдётся вектор множителей Лагранжа такой, что для функции Лагранжа выполняются условия:

- стационарности : ;

- дополняющей нежёсткости : ;

- неотрицательности :.

Перечисленные необходимые условия минимума функции в общем случае не являются достаточными. Существует несколько вариантов дополнительных условий, которые делают их достаточными:

- простое условие – 1) точка стационарна, 2)выполняется условие дополняющей нежесткости, 3) множители Лагранжа ;

- условие Слейтера (более слабое) – 1) точка стационарна, 2) выполняется условие дополняющей нежесткости, 3) .

Перейдём непосредственно к доказательству теоремы Куна-Таккера.

Если непрерывная функция n переменных x = (x1,...,xn) F(х) имеет в точкех опт максимум, то существует ε > 0 такое, что для всех x из ε-окрестности точких опт

F(x)≤F(x опт)

F(x)-F(x опт)≤0.

Выберем два вида приращения x j вдоль j -й координаты

Δx j =x j -x jопт >0,

Δx j =x j -x jопт <0.



Переходя в этих соотношениях к пределу при Δx j →0, получаем:

Из этих соотношений следует, что

(3.6.1)

Аналогичное соотношение можно получить для случая минимума функции. Таким образом, доказана необходимость условий (3.6.1) для достижения в точке х опт максимума или минимума функции f(х) , т. е. если имеется экстремум, то условия (3.6.1) удовлетворяются. Но равенство нулю всех производных в точке х опт еще не обеспечивает существования в ней экстремума, т. е. условия (3.6.1) не являются достаточными. Геометрически это означает, что в случае нулевой производной от функции одной переменной может иметь место точка перегиба, а не максимум (или минимум), а в случае функции двух переменных - седловая точка, а не экстремум и т. д. Поэтому точки х опт , в которых выполняются соотношения (3.6.1), называются стационарными.

Заметим, что условие (3.6.1) удалось получить благодаря возможности придавать переменной х приращения двух знаков, откуда и возникли два неравенства при и при . Если допустимая область значений х ограничена неотрицательными значениями х ≥0, то внутри области, где х > 0, справедливость условия (3.6.1) сохраняется, так как там допустимы приращения обоих знаков. На границе области х ≥ 0, где х = 0, допускается только положительное приращение Δх >0, можно говорить только об односторонней производной, и из (3.6.1) следует следующее необходимое условие максимума:

Соответственно, необходимое условие минимума на границе области х j = 0 запишется в виде

б) Задача на условный экстремум

При определении условного экстремума функции, когда требуется определить максимум (или минимум) функции F(х) при ограничивающих условиях:

g i (x) = b i , i = 1, ..., m,

f(x)=max;

g i (x)=b i ;

используется также метод множителей Лагранжа, который, так же как в случае классического вариационного исчисления, заключается во введении функции Лагранжа

(3.6.2)

где λ i - неопределенные множители Лагранжа.



Полагая, что функция является частным случаем функционала, получаем, что необходимые условия экстремума находятся прямым дифференцированием соотношения (3.6.2) и записываются в виде


Если ввести в рассмотрение векторы

соотношения (17-8) и (17-9) перепишутся как

grad Φ = grad F - λ grad φ = 0; (3.6.6)

где равенство нулю векторов понимается покомпонентно.



Рисунок 3.6.1 - Пояснение к задаче на условный экстремум

В случае n = 2 и m = 1 геометрическая задача об отыскании условного экстремума сводится (рис. 17-6) к отысканию точки касания А кривой φ = b к одной из кривых постоянного уровня f = const.

Теорема 7.2. Для задачи выпуклого программирования (7.4)–(7.6), множество допустимых решений которой обладает свойством регулярности, план является оптимальным планом тогда и только тогда, когда существует такой вектор , что
– седловая точка функции Лагранжа.

Если предположить, что целевая функция
и функциинепрерывны и дифференцируемы, то теорема Куна-Таккера может быть дополнена аналитическими выражениями, определяющими необходимое и достаточное условие того, чтобы точка
была седловой точкой функции Лагранжа, т.е. являлась решением задачи выпуклого программирования. Эти выражения имеют следующий вид:

где и– значения соответствующих частных производных функции Лагранжа, вычисленных в седловой точке.

Теорема Куна-Таккера в теории нелинейного программирования занимает центральное место. Она справедлива и для задач так называемого квадратичного программирования, т.е. где целевая функция
при ограничениях:

.

В общем случае решения задач нелинейного программирования для определения глобального экстремума задачи не существует эффективного вычислительного метода, если неизвестно, что любой локальный экстремум одновременно является и глобальным. Так, в задаче выпуклого и квадратичного программирования множество допустимых решений выпукло, то, если целевая функция вогнута, любой локальный максимум является также и глобальным.

Пример 7.3. С помощью теоремы Куна-Таккера найдём
при ограничениях

Решаем графически (рис. 7.2) и находим:
;
;
(более подробно решение см. ниже). Покажем, что существует векторY 0 0, при котором в точке оптимума выполняются условия Куна-Таккера. Составим функцию Лагранжа:

Решение
находим из системы:
. Из второго уравнения
подставляем в первое уравнение системы. Дифференцируем по:
. В выраженияиподставляем значения
и
. Имеем значения частных производных больше нуля, а по условию должны быть равно нулю, тогда =0 и =0. С другой стороны,может принимать ненулевые значения, т.к.
отсюда
; все
т.е. условия Куна-Таккера выполняются, следовательно, эта точка – точка экстремума.

Рис.7.2. Графическое решение задачи нелинейного

программирования примера 7.3

Необходимое условие оптимальности для задачи нелинейного программирования можно сформулировать следующим образом. Пусть
оптимальное решение задачи (7.4)–(7.6), причём функции
,
,
дифференцируемы в этой точке. Если
– неособая точка допустимого множества задачи (7.4)–(7.6), то она является точкой Куна-Таккера этой задачи.

Таким образом, если допустимое множество
задачи (7.4)-(7.6) не имеет особых точек, а функцииF (М), g i (М), (
) дифференцируемы во всех точках
, то оптимальное решение этой задачи следует искать среди точек Куна-Таккера.

Как известно из математического анализа, особой точкой множества допустимых решений системы линейных уравнений и неравенств вида

т. е. множества допустимых решений

если в точке
линейно зависимы градиенты тех функций
, которые в ней обращаются в. Например,
– особая точка множества

Действительно,

Таким образом, – линейно зависимая система.

Градиент функции
– это вектор, координаты которого соответственно равны значениям частных производных функции
в точкеM 0 . Этот вектор показывает направление быстрейшего роста функции.

Необходимое условие оптимальности малопригодно для решения большинства задач нелинейного программирования, т.к. лишь в редких случаях удается найти все точки Куна-Таккера задачи нелинейного программирования.

Достаточное условие оптимальности для задачи нелинейного программирования: если
– седловая точка функции Лагранжа для задачи (7.4)–(7.6), то
является оптимальнымрешением этой задачи.

Это условие в общем случае не является необходимым: функция Лагранжа может не иметь седловых точек, в то же время исходная задача нелинейного программирования обладает оптимальным решением.

Известны различные методы, позволяющие найти оптимальное решение задачи нелинейного программирования приближённо. Однако эти методы дают достаточно хорошее приближение лишь для задачи выпуклого программирования, где всякий локальный экстремум является одновременно и глобальным. В общем случае под градиентными методами понимают методы, в которых движение к точке оптимума функции совпадает с направлением градиента этой функции, т.е. начиная с некоторой точки
осуществляется последовательный переход к некоторым другим точкам до тех пор, пока не выявится приемлемое решение исходной задачи. При этом градиентные методы могут быть подразделены на 2 группы.

К первой группе относятся методы, при использовании которых исследуемые точки не выходят за пределы области допустимых решений задачи. Наиболее распространенным из таких методов является метод Франка-Вольфа (Вулфа) . К числу таких методов относится метод проектируемых градиентов Розена, метод допустимых направлений Зойтендейка .

Ко второй группе относятся методы, при использовании которых исследуемые точки могут как принадлежать, так и не принадлежать области допустимых решений. Однако в результате реализации итерационного процесса находится точка области допустимых решений, определяющая приемлемое решение.

Из таких методов наиболее часто используется метод штрафных функций или метод Эрроу-Гурвица .

При нахождении решения задач градиентными методами, в том числе и названными, итерационный процесс осуществляется до того момента, пока градиент функции
в очередной точке
не станет равным нулю или же пока
, где– достаточно малое положительное число, характеризующее точность полученного решения.

Решение сложных задач нелинейного программирования градиентными методами связано с большим объёмом вычислений и целесообразно только с использованием ЭВМ.

На примере покажем общий смысл градиентных методов решения задач нелинейного программирования.

Пусть имеется функция двух переменных
. Пусть исходные значения переменных будут
, а значение функции
. Если
не является экстремумом, то определяют такие новые значения переменных
и
, чтобы следующее значение функции
оказалось ближе к оптимуму, чем предыдущее.

Каким же образом определяется величина приращений и ? Для этого в точках иопределяется направление изменения функции в сторону экстремума с помощью градиента. Чем больше значение частной производной, тем быстрее происходит изменение функции в сторону экстремума. Поэтому приращенияивыбирают пропорциональными значению частных производныхив точках
и
. Таким образом,
и
, где – величина, называемая шагом, котораяустанавливает масштаб изменений и.

Пример 7.4.

Пусть необходимо максимизировать функцию

(максимум в точке (3;2))


.

В точке
,
при
имеем

;
,

Проведём ещё одну итерацию. В точке
,
при
имеем

;
,

Рис.7.3. Геометрическая интерпретация двух шагов

градиентного метода для примера 7.4

На рис. 7.3 показано движение по градиенту, которое было проведено в данном примере. Отношение указывает направление изменения функции в сторону максимума. Если градиент взять со знаком минус, то будем двигаться в сторону минимума.

Специфической проблемой градиентных методов является выбор величины шага t . Если задаться малым шагом, то оптимум будем искать очень долго. Если выбрать его значение слишком большим, то оптимум можно "проскочить". Соответствующими методами решается промежуточная задача выбора оптимальной величины шага. Если шаг t определяется приближённо, то, как правило, попадают не в оптимум, а в его зону. Градиентные методы обеспечивают определение локальных оптимумов. При отыскании глобального оптимума с помощью градиента нередко бывает сомнение в том, что найденный оптимум является глобальным. В этом недостаток этого метода при решении задач невыпуклого программирования.

Вопросы для самопроверки

    Постановка задачи нелинейного программирования.

    Процесс нахождения решения задачи нелинейного программирования с использованием её геометрической интерпретации.

    Алгоритм метода Лагранжа решения задачи нелинейного программирования.

    Применение метода Лагранжа к решению задачи нелинейного программирования в случае, когда условия связи представляют собой неравенства.

    Вспомогательные определения и теоремы, необходимые для рассмотрения центральной теоремы нелинейного программирования – теоремы Куна-Таккера.

    Теорема Куна-Таккера.

    Необходимое и достаточное условие оптимальности для задачи нелинейного программирования.

    Общий смысл градиентных методов приближённого решения задач нелинейного программирования.

    Группы градиентных методов приближённого решения задач нелинейного программирования.

В предыдущем разделе построены условия Куна -Таккера для задач условной оптимизации. С помощью метода множителей Лагранжа получено интуитивное представление о том, что условия Куна - Танкера тесно связаны с необходимыми условиями оптимальности. В данном разделе рассматриваются строгие формулировки необходимых и достаточных условий оптимальности решения задачи нелинейного программирования.

Теорема 1. Необходимость условий Куна-Таккера

Рассмотрим задачу нелинейного программирования (0) - (2). Пусть - дифференцируемые функции, а х* - допустимое решение данной задачи. Положим. Далее пусть линейно независимы. Если х* - оптимальное решение задачи нелинейного программирования, то существует такая пара векторов, что является решением задачи Куна-Таккера (3) - (7).

Условие, согласно которому должны быть линейно независимыми, известно как условие линейной независимости и по существу представляет собой некоторое условие регулярности допустимой области, которое почти всегда выполняется для встречающихся на практике задач оптимизации. Однако вообще проверка выполнения условия линейной независимости весьма затруднительна, так как требуется, чтобы оптимальное решение задачи было известно заранее. Вместе с тем условие линейной независимости всегда выполняется для задач нелинейного программирования, обладающих следующими свойствами.

  • 1. Все ограничения в виде равенств и неравенств содержат линейные функции.
  • 2. Все ограничения в виде неравенств содержат вогнутые функции, все ограничения-равенства - линейные функции, а также существует, по крайней мере, одна допустимая точка х, которая расположена во внутренней части области, определяемой ограничениями-неравенствами. Другими словами, существует такая точка х, что

Если условие линейной независимости в точке оптимума не выполняется, то задача Куна-Таккера может не иметь решения.

Минимизировать

при ограничениях

На рис. 1 изображена область допустимых решений сформулированной выше нелинейной задачи. Ясно, что оптимальное решение этой задачи есть. Покажем, что условие линейной независимости не выполняется в точке оптимума.

Рис.

Легко видеть, что векторы линейно зависимы, т.е. условие линейной независимости в точке не выполняется.

Запишем условия Куна-Таккера и проверим, выполняются ли они в точке (1, 0). Условия (3), (6) и (7) принимают следующий вид;

При из уравнения (11) следует, что, тогда как уравнение (14) дает, Следовательно, точка оптимума не является точкой Куна - Таккера.

Заметим, что нарушение условия линейной независимости не обязательно означает, что точка Куна-Таккера не существует. Для того чтобы подтвердить это, заменим целевую функцию из этого примера функцией. При этом оптимум по-прежнему достигается в точке (1,0), в которой условие линейной независимости не выполняется. Условия Куна-Таккера (12) - (16) остаются неизменными, а уравнение (11) принимает вид

Нетрудно проверить, что точка является точкой Куна-Таккера, т.е. удовлетворяет условиям Куна-Таккера.

Теорема о необходимости условий Куна-Таккера позволяет идентифицировать неоптимальные точки. Другими словами, теорему 1 можно использовать для доказательства того, что заданная допустимая точка, удовлетворяющая условию линейной независимости, не является оптимальной, если она не удовлетворяет условиям Куна-Таккера. С другой стороны, если в этой точке условия Куна-Таккера выполняются, то нет гарантии, что найдено оптимальное решение нелинейной задачи. В качестве примера рассмотрим следующую задачу нелинейного программирования.

Следующая теорема устанавливает условия, при выполнении которых точка Куна-Таккера автоматически соответствует оптимальному решению задачи нелинейного программирования.

Теорема 2. Достаточность условий Куна-Таккера

Рассмотрим задачу нелинейного программирования (0) - (2). Пусть целевая функция выпуклая, все ограничения в виде неравенств содержат вогнутые функции, а ограничения в виде равенств содержат линейные функции. Тогда если существует решение, удовлетворяющее условиям Куна-Таккера (3) - (7), то х* - оптимальное решение задачи нелинейного программирования.

Если условия теоремы 2 выполняются, то нахождение точки Куна-Таккера обеспечивает получение оптимального решения задачи нелинейного программирования.

Теорему 2 можно также использовать для доказательства оптимальности данного решения задачи нелинейного программирования. В качестве иллюстрации опять рассмотрим пример:

Минимизировать

при ограничениях

С помощью теоремы 2 докажем, что решение является оптимальным. Имеем

Так как матрица положительно полуопределена при всех х, функция оказывается выпуклой. Первое ограничение в виде неравенства содержит линейную функцию, которая одновременно является как выпуклой, так и вогнутой. Для того

чтобы показать, что функция является вогнутой, вычислим

Поскольку матрица отрицательно определена, функция является вогнутой. Функция входит в линейное ограничение в вяде равенства. Следовательно, все условия теоремы 2 выполнены; если мы покажем, что - точка Куна-Таккера, то действительно установим оптимальность решения. Условия Куна-Таккера для примера 2 имеют вид

Точка удовлетворяет ограничениям (24) - (26) и, следовательно, является допустимой. Уравнения (22) и (23) принимают следующий вид:

Положив, получим и. Таким образом, решение х*=(1, 5), удовлетворяет условиям Куна-Таккера. Поскольку условия теоремы 2 выполнены, то оптимальное решение задачи из примера 3. Заметим, что существуют также и другие значения и, которые удовлетворяют системе (22) - (29).

Замечания

  • 1. Для встречающихся на практике задач условие линейной независимости, как правило, выполняется. Если в задаче все функции дифференцируемы, то точку Куна-Таккера следует рассматривать как возможную точку оптимума. Таким образом, многие из методов нелинейного программирования сходятся к точке Куна-Таккера. (Здесь уместно провести аналогию со случаем безусловной оптимизации, когда соответствующие алгоритмы позволяют определить стационарную точку.)
  • 2. Если условия теоремы 2 выполнены, точка Куна-Таккера в то же время оказывается точкой глобального минимума. К сожалению, проверка достаточных условий весьма затруднительна, и, кроме того, прикладные задачи часто не обладают требуемыми свойствами. Следует отметить, что наличие хотя бы одного нелинейного ограничения в виде равенства приводит к нарушению предположений теоремы 2.
  • 3. Достаточные условия, установленные теоремой 2, можно обобщить на случай задач с невыпуклыми функциями, входящими в ограничения в виде неравенств, невыпуклыми целевыми функциями и нелинейными ограничениями-равенствами. При этом используются такие обобщения выпуклых функций, как квазивыпуклые и псевдовыпуклые функции.

Теоремы Куна-Таккера - родовое название для утверждений, представляющих собой обобще-

ние теоремы Лагранжа на случай задач оптимизации с ограничениями в виде неравенств, т. е. задач

следующего типа:

gj(x) > 0, j = 1, .

M, (?)

x = (x1, . . . , xn) 2 X.

Здесь f: X 7! R - (в соответствие с установившейся терминологией) целевая функция, gr: X 7! R,

r = 1, . . . ,m, - функции ограничений, X _ Rn - открытое множество.

Теорема 196 (Теорема Джона в терминах седловой точки):

Пусть функции f( ), g1( ), . . . , gn( ) вогнуты и?x - решение задачи (?), такое что?x 2 intX.

Тогда существуют множители Лагранжа _j >

X является решением задачи

Мы приведем эти утверждения для случая, когда функции f, gr дифференцируемы (теоремы Ку-

на-Таккера в дифференциальной форме).

Напомним, что функция

L(x,_) = _0f(x) +

называется функцией Лагранжа (лагранжианом) этой задачи, а коэффициенты _j - множителями

Лагранжа.

Имеет место следующее утверждение.

Теорема 197 (Теорема Джона для дифференцируемых функций):

Пусть?x - решение задачи (?), такое что?x 2 intX и функции f( ), g1( ), . . . , gn( ) дифферен-

цируемы в точке?x.

Тогда существуют множители Лагранжа _j > 0, j = 0, . . . ,m, не все равные нулю, такие что

выполнены следующие соотношения (условия Куна-Таккера):

0, i = 1, . . . , n

J = 0 (условия дополняющей

нежесткости).

Отметим, что условия дополняющей нежесткости можно записать в виде

gj(?x)_j = 0, j = 1, . . . , m.

Из этих условий следует, что если множитель Лагранжа положителен (_j > 0), то соответствующее

ограничение в решении задачи (при x = ?x) выполняется как равенство (т. е. gj(?x) = 0). Другими

словами, это ограничение активно. С другой стороны, в случае, когда gj(?x) > 0, то соответствующий

множитель Лагранжа _j равен нулю.

Если в задаче (?) часть ограничений имеет вид ограничений на неотрицательность некоторых xi ,

то для них можно не вводить множители Лагранжа, записав такие ограничения отдельно:

gj(x) > 0, j = 1, . . . , m, (??)

xi > 0, i 2 P _ {1, . . . , n}. Во внутренней точке (в том смысле, что1 ?x 2 intX) условия первого порядка для i 2 P тогда

будут иметь следующий вид:

Для i /2 P здесь, как и в случае представления задачи в виде (?), производная функции Лагранжа

по той переменной будет иметь вид @L(?x,_)

Кроме того, выполнены также условия дополняющей нежесткости

Из второго из этих условий следует, что при?xi > 0 (i 2 P) выполнено

С другой стороны, если @L(?x,_)/@xi Другая модификация теоремы связана с наличием в задаче ограничений в виде равенств. Обозна-

чим множество соответствующих индексов через E. Задача принимает следующий вид:

gj(x) > 0, j 2 {1, . . . ,m}\E,

gj(x) = 0, j 2 E, (???)

xi > 0, i 2 P _ {1, . . . , n}.

При этом в теореме Джона снимается условие, что все множители Лагранжа неотрицательны -

множители Лагранжа _j при j 2 E могут иметь произвольный знак.

Теорема Джона не гарантирует, что множитель Лагранжа целевой функции, _0 , отличен от нуля.

Однако если _0 = 0, то условия Куна-Таккера характеризуют не решение рассматриваемой задачи, а

структуру множества ограничений в точке?x и теорема не имеет непосредственной связи с интересую-

щей нас задачей максимизации функции f( ), поскольку градиент самой функции f( ) .пропадает. из

условий Куна-Таккера.

Поэтому важно охарактеризовать условия, которые гарантируют, что _0 > 0.

Такие условия называются условиями регулярности.

В случае, когда рассматриваемая задача является выпуклой, одно из условий регулярности, -

так называемое условие Слейтера - имеет вид:

В случае, когда целевая функция и ограничения задачи являются дифференцируемыми, простей-

шее условие регулярности формулируется в терминах градиентов функций-ограничений и имеет вид:

градиенты активных ограничений в точке?x линейно независимы. (В число рассматриваемых ограни-

чений следует включать и ограничения на неотрицательность.)

Обозначим через A множество индексов тех ограничений, которые в точке оптимума?x активны

(в том числе, индексы всех ограничений в виде равенств), т. е.

gj(?x) = 0 , j 2 A.

Тогда если градиенты ограничений - векторы

линейно независимы2, то _0 > 0. Это условие называется условием регулярности Куна-Таккера.

Заметим, что если _0 > 0, то без потери общности можно считать _0 = 1, что обычно и делается.

Соответствующую теорему и называют собственно (прямой) теоремой Куна-Таккера. Теорема 198 (Прямая теорема Куна-Таккера, необходимое условие оптимальности):

Пусть функции f( ), g1( ), . . . , gn( ) дифференцируемы, и?x - решение задачи (?), такое что

X 2 intX и выполнено условие регулярности Куна-Таккера.

Тогда существуют множители Лагранжа _j > 0, j = 1, . . . ,m, такие что при _0 = 1 выполнены

следующие соотношения:

0, i = 1, . . . , n

Несложно переформулировать эту теорему для задач (??) и (???). Здесь требуются такие же мо-

дификации условий Куна-Таккера, как и в теореме Джона.

0, i = 1, . . . , n

можно переписать в виде:

Это соотношение показывает, что в точке оптимума градиент целевой функции является линейной ком-

бинацией антиградиентов ограничений, причем все коэффициенты этой линейной комбинации неотри-

цательны. Рис. 17.1 иллюстрирует это свойство. Интуитивно, идея этого свойства состоит в том, что

если бы какой-нибудь коэффициент линейной комбинации был отрицательным, то можно было бы

увеличить значение целевой функции, двигаясь вдоль этого ограничения. Один из вариантов обратной теорема Куна-Таккера утверждает, что при вогнутости функций

f( ), {gk( )} выполнение этих условий в допустимом решении?x (т. е. точке, удовлетворяющей огра-

ничениям) при некоторых множителях Лагранжа, удовлетворяющих требованиям прямой теоремы,

гарантирует, что?x является решением задачи.

Теорема 199 (Обратная теорема Куна-Таккера /достаточное условие оптимальности/):

Пусть f( ) - дифференцируемая вогнутая функция, g1( ), . . . , gn( ) - дифференцируемые

квазивогнутые функции, множество X выпукло и точка?x допустима в задаче (?), причем?x 2

Пусть, кроме того, существуют множители Лагранжа _j > 0, j = 1, . . . ,m, такие что при

0 = 1 выполнены следующие соотношения:

0, i = 1, . . . , n

Тогда?x - решение задачи (?).

Теорему можно очевидным образом переформулировать для задач (??) и (???). Для задачи (???)

ограничения в виде равенств могут быть только линейными (это связано с тем, что ограничение в виде

равенства, gj(x) = 0, следует представить с помощью двух ограничений в виде неравенств, gj(x) > 0

и?gj(x) > 0, каждое из которых задается квазивогнутой функцией; такое может быть только если

ограничение линейное).

В еще одном варианте достаточного условия оптимальности предположение о вогнутости целевой

функции заменяется на предположение о квазивогнутости с добавлением условия rf(?x) 6= 0.