Аппроксимация Лапласа

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Многомерная случайная величина)
Текущая версия (17:36, 20 сентября 2011) (править) (отменить)
(Описание)
 
(11 промежуточных версий не показаны.)
Строка 3: Строка 3:
==Описание==
==Описание==
===Постановка задачи===
===Постановка задачи===
-
Пусть задана ненормированная плотность вероятности <tex>P^*(x)</tex>. Необходимо найти нормировочную константу
+
Пусть задано ненормированное распределение <tex>P^*(x)</tex>. Необходимо найти нормировочную константу
<tex>Z_P=\int_{-\infty}^{\infty} P(x) dx,</tex>
<tex>Z_P=\int_{-\infty}^{\infty} P(x) dx,</tex>
-
причем эта плотность вероятности имеет максимум в точке <tex>x_0</tex>.
+
причем это распеделение имеет максимум в точке <tex>x_0</tex>.
===Применение метода===
===Применение метода===
Разложим ее по Тейлору:
Разложим ее по Тейлору:
Строка 15: Строка 15:
где
где
-
<tex> c = - \frac{\partial^2}{\partial x^2} {P^* (x) \right|}_{x = x_0}.</tex>
+
<tex> c = - \frac{\partial^2}{\partial x^2} \ln {P^* (x) |}_{x = x_0}.</tex>
Тогда можно аппроксимировать <tex>P^* (x)</tex> ненормированным гауссианом:
Тогда можно аппроксимировать <tex>P^* (x)</tex> ненормированным гауссианом:
-
<tex>Q^* (x) = P^* (x_0) \exp{-\frac{c}{2}(x - x_0 )^2},</tex>
+
<tex>Q^* (x) = P^* (x_0) \exp\[-\frac{c}{2}(x - x_0 )^2\],</tex>
для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:
для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:
Строка 26: Строка 26:
===Многомерная случайная величина===
===Многомерная случайная величина===
-
Можно получить аналогичный результат, если <tex>x=(x_1, \cdots, x_k)</tex> ---- векторная величина. Введем обозначение
+
Можно получить аналогичный результат, если <tex>x=(x_1, \cdots, x_k)</tex> &ndash; векторная величина. Введем обозначение
-
<tex>A_{ij} = - \frac{\partial^2}{\partial x_i \partial x_j} \ln P^* (x) \right|_{x = x_0}.</tex>
+
<tex>A_{ij} = - \frac{\partial^2}{\partial x_i \partial x_j} \ln P^* (x) |_{x = x_0}.</tex>
Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:
Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:
Строка 39: Строка 39:
==Замечания==
==Замечания==
-
Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы случайную величину <tex>x</tex> или произвольную нелинейную функцию от нее <tex>u(x)</tex>. Действительно, <tex>P(u)</tex> имеет вид <tex>P(u) = P(x)\frac{\partial x}{\partial u}</tex>,
+
[[Изображение:Model5Sw.png|100px|thumb|right|Пример аппроксимируемой функции]]
-
и, вообще говоря, нормировочный коэффициент <tex>Z_P</tex> будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию <tex>u(x)</tex>, в котором данная оценка наиболее точна.
+
Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы [[Случайная величина|случайную величину]] <tex>x</tex> или произвольную нелинейную функцию от нее <tex>u(x)</tex>. Действительно, <tex>P(u)</tex> имеет вид <tex>P(u) = P(x)\frac{\partial x}{\partial u}</tex>,
 +
и, вообще говоря, нормировочный коэффициент <tex>Z_P</tex> будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию <tex>u(x)</tex>, для которой данная оценка наиболее точна.
 +
 
 +
==См. также==
 +
* [[Аппроксимация Лапласа (пример)]]
 +
* [[Связанный Байесовский вывод]]
 +
* [[Метод наибольшего правдоподобия]]
==Литература==
==Литература==
Строка 48: Строка 54:
|год = 2005
|год = 2005
|издательство = Cambridge University Press
|издательство = Cambridge University Press
-
|страницы = 341-342
+
|страницы = 341-342
 +
|ссылка = http://www.inference.phy.cam.ac.uk/mackay/itila/book.html
}}
}}
 +
[[Категория:Байесовские методы]]
 +
[[Категория:Регрессионный анализ]]

Текущая версия

Содержание

Определение

Аппроксимация Лапласа -- способ оценивания нормировочного коэффициента для ненормированной плотности вероятности.

Описание

Постановка задачи

Пусть задано ненормированное распределение P^*(x). Необходимо найти нормировочную константу

Z_P=\int_{-\infty}^{\infty} P(x) dx,

причем это распеделение имеет максимум в точке x_0.

Применение метода

Разложим ее по Тейлору:

\ln P^* (x) = \ln P^* (x_0) - \frac{c}{2} (x - x_0)^2 + \cdots ,

где

 c = - \frac{\partial^2}{\partial x^2} \ln {P^* (x) |}_{x = x_0}.

Тогда можно аппроксимировать P^* (x) ненормированным гауссианом:

Q^* (x) = P^* (x_0) \exp\[-\frac{c}{2}(x - x_0 )^2\],

для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:

Z_P \approx P^* (x_0) \sqrt{\frac{2 \pi}{c}}.

Многомерная случайная величина

Можно получить аналогичный результат, если x=(x_1, \cdots, x_k) – векторная величина. Введем обозначение

A_{ij} = - \frac{\partial^2}{\partial x_i \partial x_j} \ln P^* (x) |_{x = x_0}.

Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:

\ln P^* (x) = \ln P^* (x_0) - \frac{1}{2} (x-x_0)^T A (x-x_0) + \cdots ,

отбрасывая члены с порядком по (x-x_0) выше квадратичного, получаем нормировочный коэффициент:

Z_P \approx  P^* (x_0) \sqrt{\frac{(2\pi)^k}{\det A}}.

Замечания

Пример аппроксимируемой функции
Пример аппроксимируемой функции

Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы случайную величину x или произвольную нелинейную функцию от нее u(x). Действительно, P(u) имеет вид P(u) = P(x)\frac{\partial x}{\partial u}, и, вообще говоря, нормировочный коэффициент Z_P будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию u(x), для которой данная оценка наиболее точна.

См. также

Литература

1. David J.C. MacKay Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2005. — С. 341-342.

Личные инструменты