Аппроксимация Лапласа (пример)
Материал из MachineLearning.
 (→Описание алгоритма)  | 
				 (→Пример 1)  | 
			||
| Строка 24: | Строка 24: | ||
===Пример 1===  | ===Пример 1===  | ||
| - | Задуманная функция <tex>y=x + sin3x</tex>. Берем линейную регрессионную модель с   | + | Задуманная функция <tex>y=x + sin3x</tex>. Берем линейную регрессионную модель с двумя параметрами: <tex>y(x)=w_1+w_2x</tex>.  | 
Используя '''МНК''' находим оптимальное значение <tex>w_1_{opt}</tex> и <tex>w_2_{opt}</tex> (при которых ''SSE'' минимально).  | Используя '''МНК''' находим оптимальное значение <tex>w_1_{opt}</tex> и <tex>w_2_{opt}</tex> (при которых ''SSE'' минимально).  | ||
| - | '''При фиксированном''' <tex>w_1=w_1_{opt}</tex> задаем различные значение <tex>w_2</tex> (500   | + | '''При фиксированном''' <tex>w_1=w_1_{opt}</tex> задаем различные значение <tex>w_2</tex> (500 случайных значений на отрезке [-1;2]) и строим зависимость:  | 
[[Изображение:Sse(w2).png|center|frame]]  | [[Изображение:Sse(w2).png|center|frame]]  | ||
| Строка 35: | Строка 35: | ||
'''Повторим эксперимент''', только теперь варируем сразу оба параметра <tex>w_1</tex> и <tex>w_2</tex>:  | '''Повторим эксперимент''', только теперь варируем сразу оба параметра <tex>w_1</tex> и <tex>w_2</tex>:  | ||
| - | [[Изображение:Sse(w1,w2).png|center|frame|  | + | [[Изображение:Sse(w1,w2).png|center|frame|Рис. 1. ]]  | 
| - | [[Изображение:Sse(w1,w2)_axle_up.png|center|frame|  | + | [[Изображение:Sse(w1,w2)_axle_up.png|center|frame|Рис. 2. Ось log(p) направлена вверх]]   | 
| - | апроксимация   | + | апроксимация Лапласса:  | 
[[Изображение:Laplas_2_parametr.png|center|frame|Laplace approximation]]  | [[Изображение:Laplas_2_parametr.png|center|frame|Laplace approximation]]  | ||
Версия 19:32, 21 ноября 2010
Аппроксимация Лапласа - способ оценки параметров нахождения нормального распределения при апроксимации заданой плотности вероятности.
Содержание | 
Сэмплирование
Сэмплирование – метод выбора подмножества наблюдаемых величин из данного множества, для дальнейшего его анализа. Одно из основных приминений методов сэмплирования заключается в оценке мат. ожидания сложных вероятностных распределений:
для которых тяжело делать выборку непосредственно из распределения p(z). Однако, можно подсчитать значение p(z) в любой точке z. Один из наиболее простых методов подсчета мат. ожидаия – разбить ось z на равномерную сетку и подсчитать интеграл как сумму
Существует несколько методов сэмплирования для создания подходящей выборки длинны L ???.
Постановка задачи
Задана выборка — множество  значений свободных переменных и множество 
 соответствующих им значений зависимой переменной.
Необходимо для выбранной регрессионной модели 
показать зависимость среднеквадратичной ошибки от значений параметров модели: 
; построить график и сделать апроксимацию Лапласа для нее; найти расстояния между получеными зависимостями, используя расстояние Кульбака - Лейблера.
Описание алгоритма
Расстояние Кульбака - Лейблера: 
Вычислительный эксперимент
Обозначим плоность распределения SSE как , а его апроксимация лапласса 
Пример 1
Задуманная функция . Берем линейную регрессионную модель с двумя параметрами: 
.
Используя МНК находим оптимальное значение 
 и 
 (при которых SSE минимально).
При фиксированном  задаем различные значение 
 (500 случайных значений на отрезке [-1;2]) и строим зависимость:
.
Повторим эксперимент, только теперь варируем сразу оба параметра  и 
:
апроксимация Лапласса:
На рис.2 наблюдается зависимость между коэффициентами  и 
. Следовательно, ковариационная матрица cov(w_1,w_2) не будет диагональной.
Смотри также
Литература
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 





