Аппроксимация Лапласа

Материал из MachineLearning.

Перейти к: навигация, поиск

Содержание

Определение

Аппроксимация Лапласа -- способ оценивания нормировочного коэффициента для ненормированной плотности вероятности.

Описание

Постановка задачи

Пусть задано ненормированное распределение P^*(x). Необходимо найти нормировочную константу

Z_P=\int_{-\infty}^{\infty} P(x) dx,

причем это распеделение имеет максимум в точке x_0.

Применение метода

Разложим ее по Тейлору:

\ln P^* (x) = \ln P^* (x_0) - \frac{c}{2} (x - x_0)^2 + \cdots ,

где

 c = - \frac{\partial^2}{\partial x^2} \ln {P^* (x) |}_{x = x_0}.

Тогда можно аппроксимировать P^* (x) ненормированным гауссианом:

Q^* (x) = P^* (x_0) \exp\[-\frac{c}{2}(x - x_0 )^2\],

для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:

Z_P \approx P^* (x_0) \sqrt{\frac{2 \pi}{c}}.

Многомерная случайная величина

Можно получить аналогичный результат, если x=(x_1, \cdots, x_k) – векторная величина. Введем обозначение

A_{ij} = - \frac{\partial^2}{\partial x_i \partial x_j} \ln P^* (x) |_{x = x_0}.

Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:

\ln P^* (x) = \ln P^* (x_0) - \frac{1}{2} (x-x_0)^T A (x-x_0) + \cdots ,

отбрасывая члены с порядком по (x-x_0) выше квадратичного, получаем нормировочный коэффициент:

Z_P \approx  P^* (x_0) \sqrt{\frac{(2\pi)^k}{\det A}}.

Замечания

Пример аппроксимируемой функции
Пример аппроксимируемой функции

Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы случайную величину x или произвольную нелинейную функцию от нее u(x). Действительно, P(u) имеет вид P(u) = P(x)\frac{\partial x}{\partial u}, и, вообще говоря, нормировочный коэффициент Z_P будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию u(x), для которой данная оценка наиболее точна.

См. также

Литература

1. David J.C. MacKay Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2005. — С. 341-342.

Личные инструменты