Алгоритм LOWESS

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: coming soon)
Строка 1: Строка 1:
-
coming soon
+
'''Алгоритм LOWESS (locally weighted scatter plot smoothing)''' - локально взвешенное сглаживание.
 +
 
 +
=== Вход ===
 +
<tex>X^l</tex> - обучающая выборка
 +
=== Выход ===
 +
Коэффициенты <tex>\gamma_i, i=1,\ldots,l</tex>
 +
 
 +
=== Алгоритм ===
 +
1: инициализация
 +
::<tex>\gamma_i:=1, i=1,\ldots,l</tex>
 +
2: '''повторять'''
 +
3: вычислить оценки скользящего контроля на каждом объекте:
 +
::<tex>a_i:=a_h\( x_i;X^l\setminus\{x_i\} \)=\frac{\sum_{j=1,j\ne i}^ly_j\gamma_jK\(\frac{\rho(x_i,x_j)}{h(x_i)}\)}{\sum_{j=1,j\ne i}^l\gamma_jK\(\frac{\rho(x_i,x_j)}{h(x_i)}\)},\;i=1,\ldots,l</tex>
 +
4: вычислить коэффициенты <tex>\gamma_i</tex>:
 +
::<tex>\gamma_i:=\tilde{K}( \| a_i\;-\;y_i\| ) ,\;i=1,\ldots,l</tex>;
 +
5: '''пока''' коэффициенты <tex>\gamma_i</tex> не стабилизируются
 +
 
 +
Коэффициенты <tex>\gamma_i</tex>, как и ошибки <tex>\epsilon_i</tex>, зависят от функции <tex>a_h</tex>, которая, в свою очередь, зависит от <tex>\gamma_i</tex>. Разумеется, это не "порочный круг", а хороший повод для организации итерационного процесса. На каждой итерации строится функция <tex>a_h</tex>, затем уточняются весовые множители <tex>\gamma_i</tex>. Как правило, этот процесс сходится довольно быстро.
 +
 
 +
==Литература==
 +
# {{книга
 +
|автор = Воронцов К.В.
 +
|заглавие = Лекции по алгоритмам восстановления регрессии
 +
|год = 2007
 +
|ссылка = http://www.ccas.ru/voron/download/Regression.pdf
 +
}}
 +
 
 +
==См. также==
 +
* [[Непараметрическая регрессия]]
 +
* [[Регрессионный анализ]]
 +
 
 +
[[Категория:Регрессионный анализ]]

Версия 23:47, 11 января 2009

Алгоритм LOWESS (locally weighted scatter plot smoothing) - локально взвешенное сглаживание.

Содержание

Вход

X^l - обучающая выборка

Выход

Коэффициенты \gamma_i, i=1,\ldots,l

Алгоритм

1: инициализация

\gamma_i:=1, i=1,\ldots,l

2: повторять 3: вычислить оценки скользящего контроля на каждом объекте:

a_i:=a_h\( x_i;X^l\setminus\{x_i\} \)=\frac{\sum_{j=1,j\ne i}^ly_j\gamma_jK\(\frac{\rho(x_i,x_j)}{h(x_i)}\)}{\sum_{j=1,j\ne i}^l\gamma_jK\(\frac{\rho(x_i,x_j)}{h(x_i)}\)},\;i=1,\ldots,l

4: вычислить коэффициенты \gamma_i:

\gamma_i:=\tilde{K}( \| a_i\;-\;y_i\| ) ,\;i=1,\ldots,l;

5: пока коэффициенты \gamma_i не стабилизируются

Коэффициенты \gamma_i, как и ошибки \epsilon_i, зависят от функции a_h, которая, в свою очередь, зависит от \gamma_i. Разумеется, это не "порочный круг", а хороший повод для организации итерационного процесса. На каждой итерации строится функция a_h, затем уточняются весовые множители \gamma_i. Как правило, этот процесс сходится довольно быстро.

Литература

  1. Воронцов К.В. Лекции по алгоритмам восстановления регрессии. — 2007.

См. также

Личные инструменты