Аппроксимация Лапласа (пример)
Материал из MachineLearning.
 (→Пример 2)  | 
				 (→Пример 2)  | 
			||
| Строка 80: | Строка 80: | ||
===Пример 2===  | ===Пример 2===  | ||
| - | Задуманная функция <tex>y=7.5x + 12tanx+\epsilon</tex>. Рассматривается   | + | Задуманная функция <tex>y=7.5x + 12tanx+\epsilon</tex>, где <tex>\epsilon</tex> - белый гауссовский шум. Рассматривается следующая регрессионная модель: линейная комбинация функций <tex>x</tex> и <tex>tanx</tex>.  | 
| + | <center> <tex>y(x)=w_1*x+w_2tanx</tex>.</center>  | ||
| + | <tex>w_1_{opt}</tex> и <tex>w_2_{opt}</tex> - оптимальное значение параметров (при которых ''SSE'' минимально).  | ||
| + | |||
| + | '''Фиксируем один параметр''' <tex>w_1=w_1_{opt}</tex> и задаем различные значение <tex>w_2</tex> (10000 случайных значений на отрезке [-1;2]). Строим зависимость:  | ||
| + | |||
| + | [[Изображение:Odin_parametr.png|center|frame]]  | ||
| + | |||
| + | <tex>D_{kl}(p_{SSE},p_{lap})=4.3097*10^{-16}</tex>  | ||
== Смотри также ==   | == Смотри также ==   | ||
Версия 03:10, 8 декабря 2010
Аппроксимация Лапласа - способ оценки параметров нормального распределения при апроксимации заданой плотности вероятности.
Содержание | 
Постановка задачи
Задана выборка — множество  значений свободных переменных и множество 
 соответствующих им значений зависимой переменной.
Необходимо для выбранной регрессионной модели 
:
3-1 показать зависимость среднеквадратичной ошибки от значений параметров модели: ;
3-2 построить график и сделать апроксимацию Лапласа для зависимости ;
3-3 найти расстояния между получеными зависимостями, используя расстояние Кульбака - Лейблера.
Описание алгоритма
При востановлении регрессии рассматривалась следующая гипотеза порождения данных:
В таком случае, при фиксированной модели f плотность вероятности появления данных равняется[1]:
 - это функция регрессионных невязок, т.е. 
;
 - нормировачный коэффициент.
3-1. В заданной модели f, используя метод наименьших квадратов, находим оптимальное значение вектора параметров . Далее, фиксируем  все параметры выбранной регрессионной модели (для определенности зададим им оптимальные значения) кроме одного (пусть этот незафиксированный параметр будет 
). После чего, варируя значение 
, строим искомую зависимость 
 и график 
. Таким образом построена зависимость от одного параметра 
. 
Аналогично действуя, строится зависимость от большего количества параметров.
3-2. При апроксимации Лапласа, полученную в пункте 3-1 функцию  приближаем функцией многомерного нормального распределения 
. Воспользуемся нелиейной регрессионной моделью: 
Другими словами, зная из пункта 3-1 значение  (т.е. множество пар 
, где 
 - вектор параметров i-го сэмпла), надо получить корреляционную матрцу 
. 
Вначале, представляем элементы матрицы  в виде вектора параметров. Далее, используя метод Ньютона-Гаусса,нахождим оптимальный вектора параметров (минимум суммы остаточных квадратов). Затем, делаем обратный переход от вектора параметров к матрице и получаем искомую корреляционную матрицу 
.
3-3. Расстояние Кульбака - Лейблера между двумя распределениями p(z) и q(z) равняется:
Вычислительный эксперимент
Обозначим плотность распределения SSE как , а его апроксимация лапласса 
.
Пример 1
Задуманная функция . Рассматривается линейная регрессионная модель с двумя параметрами: 
.
 и 
 - оптимальное значение параметров (при которых SSE минимально).
Фиксируем один параметр  и задаем различные значение 
 (500 случайных значений на отрезке [-1;2]). Строим зависимость:
.
Повторим эксперимент, только теперь варируем сразу оба параметра  и 
:
апроксимация Лапласса:
ковариационная матрица 
На рис.2 наблюдается зависимость между коэффициентами  и 
. Следовательно, ковариационная матрица 
 не будет диагональной.
Пример 2
Задуманная функция , где 
 - белый гауссовский шум. Рассматривается следующая регрессионная модель: линейная комбинация функций 
 и 
.
 и 
 - оптимальное значение параметров (при которых SSE минимально).
Фиксируем один параметр  и задаем различные значение 
 (10000 случайных значений на отрезке [-1;2]). Строим зависимость:
Смотри также
Литература
- Bishop, C. Pattern Recognition And Machine Learning. Springer. 2006.
 
Примечания
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 






