Многомерная линейная регрессия

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 2: Строка 2:
==Примеры задач==
==Примеры задач==
-
Многомерная линейная регрессия широко применяется в задачах прогнозирования [[Временной ряд|временных рядов]], где объекты и ответы являются рядами. В частности, в методе [http://en.wikipedia.org/wiki/Echo_state_network рукуррентной нейросети с откликом].
+
Многомерная линейная регрессия широко применяется в задачах прогнозирования [[Временной ряд|временных рядов]], где объекты и ответы являются рядами. В частности, в методе [http://en.wikipedia.org/wiki/Echo_state_network рекуррентной нейросети с откликом].
== Обозначения ==
== Обозначения ==
Строка 20: Строка 20:
==Литература==
==Литература==
-
#''Воронцов К. В.'' Лекции по алгоритмам восстановления регрессии
+
# {{книга
 +
|автор = Воронцов К.В.
 +
|заглавие = Лекции по алгоритмам восстановления регрессии
 +
|год = 2007
 +
|ссылка = http://www.ccas.ru/voron/download/Regression.pdf
 +
}}
==См. также==
==См. также==

Версия 12:18, 11 января 2009

Многомерная линейная регрессия по сути есть линейная регрессия, в которой объекты x и ответы y являются векторами.

Содержание

Примеры задач

Многомерная линейная регрессия широко применяется в задачах прогнозирования временных рядов, где объекты и ответы являются рядами. В частности, в методе рекуррентной нейросети с откликом.

Обозначения

Пусть имеется набор n вещественнозначных признаков f_j(x), j=1,...,n. Введём матричные обозначения: матрицу информации F, целевой вектор y, вектор параметров \alpha и диагональную матрицу весов W:

F=\(f_1(x_1)\ \ \ldots\ \ f_n(x_1)<br>\ \vdots\ \ \ \ \ \ \ \ \ \ \ddots\ \ \ \ \vdots<br>f_1(x_l)\ \ \ldots\ \ f_n(x_l)\)\;, \ \ \ y=\(y_1<br>\ \vdots<br>y_l\)\;, \ \ \ \alpha=\(\alpha_1<br>\ \vdots<br>\alpha_n\)\;, \ \ \ W=\(\sqrt{w_1}\ \ \ \ \ \ \ \ 0\ <br>\ \ \ \ \ \ \ddots<br>\ 0\ \ \ \ \ \ \ \ \sqrt{w_l}\)\;.

Метод наименьших квадратов как функционал качества

Задача минимизации функционала качества метода наименьших квадратов

Q(\alpha, X^l) = \sum_{i=1}^l\mathbf{w}_i(f(x_i, \alpha)-y_i)^2\longrightarrow\min

существенно упрощается, если модель алгоритмов линейна по параметрам \alpha \in \mathbb{R}^n:

f(x,\alpha) = \sum_{j=1}^n\alpha_jf_j(x).

В матричных обозначениях функционал среднего квадрата ощибки принимает вид

Q(\alpha)\ =\ \parallel W(F\alpha\ -\ y)\parallel^2.

Функционал с произвольными весами легко преводится к функционалу с единичными весами путём несложной предванительной обработки данных F' = WF\ ,\ y' = Wy\ :

Q(\alpha)\ =\ \parallel F'\alpha\ -\ y'\parallel^2\ =\ (F'\alpha\ -\ y')^\top(F'\alpha\ -\ y')

Литература

  1. Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.

См. также