Многомерные задачи оптимизации

Автор: Пользователь скрыл имя, 20 Января 2011 в 15:51, курсовая работа

Краткое описание

Вибір оптимального рішення або порівняння двох альтернативних розв’язків проводиться за допомогою деякої залежної величини (функції),обумовленої проектними параметрами.Ця велечина називається цвілевою функцією (або критерієм якості).В процесі розв’язку задачі оптимізації повинні бути знайдені такі значення проектних параметрів, при яких цілева функція має мінімум (або максимум).

Оглавление

Введение 3
1. Основные понятия 4
1.1 Определения. 4
1.2 Задачи оптимизации. 5
2. Одномерная оптимизация 6
2.1 Задачи па экстремум. 6
2.2 Методы поиска. 7
2.3 Метод золотого сечения. 8
2.4 Метод Ньютона. 11
3. Многомерные задачи оптимизации 13
3.1 Минимум функции нескольких переменных. 13
3.2 Метод покоординатного спуска. 14
3.3 Метод градиентного спуска. 14
4. Задачи с ограничениями 16
4.1 Линейное Программирование. 16
4.2 Геометрический метод. 17
4.3 Задача о ресурсах. 19
Список Литературы

Файлы: 1 файл

Проба#2 .doc

— 554.00 Кб (Скачать)

Содержание:

Список Литературы 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

                                            1. Основные понятия

1.1 Визначення.

    Під оптимізацією розуміють процес вибору найкращого варіанту з усіх можливих. З точки зору інженерних розрахунків методи оптимізації дозволяють  найкращий варіант конструкції, найкращий розподіл ресурсів та інше.

    В процесі розв’язку задачі оптимізації ,як звичай,необхідно знайти оптимальне значення деяких параметрів,які визначають дану задачу.При розвязку інженерних задач їх прийнято називати проектними параметрами, а в задачах економіки їх называють параметрами плана. В якості проектних параметрів можуть бути,зокрема,значення лінійних розмірів обєкта, маси, температури й інше число n проектних параметрів x1,x2,…,xn які характеризують розмірність ( й степінь складності) задачі оптимізації.

    Вибір оптимального рішення або порівняння двох альтернативних розв’язків проводиться за допомогою деякої залежної величини (функції),обумовленої проектними параметрами.Ця велечина називається цвілевою функцією (або критерієм якості).В процесі розв’язку задачі оптимізації повинні бути знайдені такі значення проектних параметрів, при яких цілева функція має мінімум (або максимум). Таким чином, цілева функція – це глобальний критерій оптимальності в математичих моделях, за допомогою яких описуються инженерні або экономичні задачі.

    Цілеву функцію можно записати у вигляді:

    U=F(x1, x2,…,xn).                              (1.1)

    Прикладами цвілевої функції,які зустрічаються у інженерних та економічних розрахунках,є міцність й маса конструкції,потужність установки, обєм випуску продукції,вартість перевезень вантажу та шнше.

     У випадку одного проектного параметра цілева функція (1.1) є функцією однієї змінної,а її графік - деяка крива на площині.При цілева функція є функцією двох змінних, її графік — поверхня у тривимірному просторі.

    Слід зазначит, що цілева функція не завжди може бути представлена у вигляді формули.Іноді вона може приймати тільки деякі значення,задаватися у вигляді таблиці та інше.В усіх випадках вона повинна бути однозначною функцією проектних параметрів.

   Цілевих функцій може бути декілька.Наприклад,при проектуванні виробів машино- будівництва одночасно потребується забезпечити максимальну надійність, мінімальну матеріалоємкість,максимальний корисний об’єм (або вантажопідємність).Деякі цілеві функції можуть здатися несумісними.В таких випадках необхідно вводити пріоритет тієї чи іншої цвілевої функції.

1.2 Задачі оптимізації. 

     Можно виділити два типи задач оптимізації — безумовні та умовні. Безумовна задача оптимізації складається у відшуканні максимуму або мінімуму дійсної функції (1.1) при дійсних змінних й визначенні значень аргументів на деякій множині σ  n-мірного простору. Звичайно розглядаються задачі мінімізації, що до них легко зводяться і задачі на пошук максимуму шляхом заміни знака цільової функції на протилежний.    Условные задачи оптимизации, или задачи с ограничениями, это такие, при формулировке которых задаются некоторые условия (ограничения) на множестве . Эти ограничения задаются совокупностью некоторых функций, удовлетворяющих уравнениям или неравенствам.

   Ограничения-равенства выражают зависимость между, проектными параметрами, которая должна учитываться при нахождении решения. Эти ограничения отражают законы природы, наличие ресурсов т. п.

в результате ограничений область проектирования , определяемая всеми проектными параметрами, может быть существенно уменьшена в соответствии с физической сущностью задачи.

   При наличие ограничений оптимальное решение может соответствовать либо локальному экстремуму в нутрии области проектирования, либо значению целевой функции на границе области. Если ограничения отсутствуют то ищется оптимальное решение на всей области проектирования, то есть глобальный экстремум.

2.1 Задачи па экстремум.

       Одномерная задача оптимизации в общем случае формулируется следующим образом. Найти наименьшее (или наибольшее) значение целевой функции y=х, заданной на множестве σ, и определить значение проектного параметра х Є σ, при котором целевая функция принимает экстремальное  значение. Существование решения поставленной задачи вытекает из следующей теоремы.

  Методы поиска экстремума функции f (x) (одномерной оптимизации) 

          К числу наиболее популярных  численных методов одномерной  оптимизации относятся: метод Больцано (деления интервала пополам), метод «золотого сечения» и пошаговый метод. Первые два метода ориентированы на поиск  ext f (x) внутри фиксированного интервала (а,b) оси х, последний - на поиск ext f (x) в окрестности заданной точки х0.

Метод Больцано при поиске минимума функции f (x) предусматривает следующие действия:

1) определяется  средняя точка интервала (а,b):  с = (a+b)/2;

2) выбирается  число  0 <d< (b-a)/2 (наиболее популярная рекомендация: d =(b-a)/4)  и определяются точки: x1=c-d  и x2=c+d ;

3) вычисляются  значения функции в этих точках: f (x1)  и f (x2);

4) если f (x1)< f (x2), то интервал (а,b)  стягивается в свою левую половину:  b=c, в противном случае - в правую: а=с.

          Для  нового интервала (а,b) вновь выполняются действия  п.п. 1)-4). Процесс  деления интервала продолжается до тех пор, пока его длина не станет меньше  заданной  точности:  b-а < e.  При завершении процесса поиска за точку минимума  f (x) принимается середина последнего отрезка:  x*=(а+b)/2.

          Достаточные условия сходимости алгоритма метода Больцано:

        а) функция f (x) непрерывна внутри интервала;

        б) f (x) унимодальна на интервале (а,b), т.е. имеет внутри него единственный экстремум; 

        в) в некоторой окрестности  искомой точки х*  f (x) является монотонной

(с одной   стороны  возрастает, с другой - убывает).

          При тех же условиях сходится  алгоритм метода «золотого сечения».

          Определение:  «золотым  сечением» отрезка называется его деление на две части таким образом, что отношение длины отрезка к его большей части равно отношению большей части к меньшей.

      Следовательно, для отрезка единичной длины: 1/t = t/(1-t) ® t2+t-1=0 ®

        

          Пошаговый метод применяется в тех случаях, когда интервал  (а,b) оси х, содержащий точку экстремума функции f (x) неизвестен,  но известно, что экстремум находится в окрестности экспериментально  найденной точки х0. Этот метод применяется на практике значительно чаще методов Больцано и «золотого сечения», т.к. условие сходимости его алгоритма намного проще: для этого достаточно, чтобы функция f (x) была непрерывна в окрестности т. х0.   

           При поиске минимума функции  метод заключается в

следующем:

     1) выполняется пробный шаг от точки х0 с целью выбора направления поиска:

x = x0 + x (x ~ 0.5×e)  и вычисляются значения  f (х0), f (х);

       2) если f (х) < f (х0), то величина основного шага, с которым осуществляется движение в направлении убывания функции, положительна (h > 0), в противном случае - отрицательна (h < 0);

          3) движение в выбранном направлении  с шагом h: xk+1= xk+h, k=0,1,2 ...

осуществляется  до тех пор, пока f (xk+1) <  f (xk);

          4) если f (xk+1) ≥ f (xk),  то при выполнении условия h < ε процесс поиска заканчивается,  а если h ³ ε, то шаг дробится:  h=|h|/p, p > 1 и осуществляется возврат

к п. 1) с начальной  точкой х0 = xk.

          В качестве коэффициента дробления  шага p используют 2, 3, 5,  но чаще всего p = e = 2.71828.  По завершении процесса поиска за точку экстремума принимается значение x* =(xk+1 + xk)/2.

 
 

2.2 Методы  поиска.

      Численные методы поиска экстремальных значений функции рассмотрим на примере нахождения минимума функции на отрезке [а., b]. Будем предполагать, что целевая функция унимодальна, т.е. на данном отрезке она имеет только один минимум. Отметим, что в инженерной практике обычно встречаются именно такие целевые функции.

      Погрешность приближенного решения задачи определяется разностью между оптимальным значением x проектного параметра и приближение к нему х. Потребуем, чтобы эта погрешность была по модулю меньше заданного допустимого значения а:

                      (2.1)

     Процесс решения задачи методом поиска состоит в последовательном сужении интервала изменения проектного параметра, называемого интервалом неопределенности. В начале процесса оптимизации его длина равна , а к концу она должна стать меньше , т. е. оптимальное значение проектного параметра должно находиться в интервале неопределенности – на отрезке , причем . Тогда для выполнения (2.1) в качестве приближения к оптимальному значению можно принять любое .

    Наиболее простым способом сужения интервала является деление его на некоторое число равных частей с последующим вычислением значений целевой функции в точках разбиения. Пусть - число элементарных отрезков, - шаг разбиения. Вычислим  значения целевой функции в узлах . Сравнивая полученные значения , найдем среди них наименьшее .

    Число можно приближенно принять за наименьшее значение целевой функции на отрезке . Очевидно, что близость к минимуму зависит от числа точек, и для непрерывной функции

     

  т. е. с увеличением числа точек разбиения погрешность минимума стремится к нулю.

     В данном методе, который можно назвать методом перебора, главная трудность состоит в выборе и оценке погрешности. Можно, например, провести оптимизацию с разными шагами и исследовать сходимость такого итерационного процесса. Но это трудоемкий путь.

     Более экономичным способом уточнения оптимального параметра является использование свойства унимодальности целевой функции, это позволяет построить процесс сужения интервала неопределенности. Пусть, как и ранее, среди всех значений унимодальной функции , вычисленных в узлах наименьшим оказалось . Это означает, что оптимальное значение проектного параметра находится на отрезке , т. е. интервал неопределенности сузился до длины двух шагов. Если размер интервала недостаточен для удовлетворения заданной погрешности, т. е. ,

то его снова  можно уменьшить путем нового разбиения. Получится интервал, равный двум длинам нового шага разбиения  и т. д. Процесс оптимизации продолжается до достижения заданного размера  интервала неопределенности.

Информация о работе Многомерные задачи оптимизации