Алгоритм Trust-Region

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Содержимое страницы заменено на «Prak2.zip»)
Строка 1: Строка 1:
-
== Введение ==
+
[[Prak2.zip]]
-
== Безусловная оптимизация ==
+
-
Среди задач на поиск безусловного минимума особое место занимают задачи минимизации функции вида:<br>
+
-
<tex>F(x) = \frac{1}{2}\sum_i{r_i^m(x)^2}</tex><br>
+
-
где <tex>r_i(x)</tex> - гладкая нелинейная функция из <tex>R^n</tex> в <tex>R</tex>. Будем считать, что m ≥ n.<br>
+
-
Если обозначить <tex>r_i(x) = (r_1(x),\dots,r_m(x))^T</tex><br>
+
-
то <tex>F(x) = \frac{1}{2}||r(x)||_2^2</tex><br>
+
-
Обозначим якобиан функции r: <tex>J(x) = \frac{\delta r_j}{\delta x_i}</tex><br>
+
-
Тогда производные функции f(x) можно вычислить с помощью формул:<br>
+
-
<tex>\nabla f(x) = \sum_{j = 1}^m{r_j(x)\nabla r_j(x) = J(x)^Tr(x)}</tex><br>
+
-
<tex>\nabla^2 f(x) = \sum_{j = 1}^m{\nabla r_j(x)\nabla r_j(x) + \sum_{j = 1}^m{\nabla^2 r_j(x)r_j(x)= J(x)^TJ(x) + \sum_{j = 1}^m{\nabla^2 r_j(x)r_j(x)}</tex><br>
+
-
=== Алгоритмы для нелинейной задачи метода наименьших квадратов ===
+
-
==== Метод Гаусса-Ньютона ====
+
-
== Условная оптимизация ==
+
-
== Примеры ==
+
-
== Рекомендации программисту ==
+
-
== Выводы ==
+
-
== Литература ==
+
-
Philip E. Gill Practical Otpimization 1981.<br>
+

Версия 11:46, 23 ноября 2008

Prak2.zip

Личные инструменты