Аппроксимация Лапласа

Материал из MachineLearning.

Перейти к: навигация, поиск

Содержание

Определение

Аппроксимация Лапласа -- способ оценивания нормировочного коэффициента для ненормированной плотности вероятности.

Описание

Постановка задачи

Пусть задана ненормированная плотность вероятности P^*(x). Необходимо найти нормировочную константу

Z_P=\int_{-\infty}^{\infty} P(x) dx,

причем эта плотность вероятности имеет максимум в точке x_0.

Применение метода

Разложим ее по Тейлору:

\ln P^* (x) = \ln P^* (x_0) - \frac{c}{2} (x - x_0)^2 + \cdots ,

где

 c = - \frac{\partial^2}{\partial x^2} {P^* (x) \right|}_{x = x_0}.

Тогда можно аппроксимировать P^* (x) ненормированным гауссианом:

Q^* (x) = P^* (x_0) \exp{-\frac{c}{2}(x - x_0 )^2},

для такой аппроксимации плотности вероятности запишем нормирующий коэффициент:

Z_P \approx P^* (x_0) \sqrt{\frac{2 \pi}{c}}.

Многомерная случайная величина

Можно получить аналогичный результат, если x=(x_1, \cdots, x_k) – векторная величина. Введем обозначение

A_{ij} = - \frac{\partial^2}{\partial x_i \partial x_j} \ln P^* (x) \right|_{x = x_0}.

Тогда разложение по Тейлору логарифма плотности вероятности имеет вид:

\ln P^* (x) = \ln P^* (x_0) - \frac{1}{2} (x-x_0)^T A (x-x_0) + \cdots ,

отбрасывая члены с порядком по (x-x_0) выше квадратичного, получаем нормировочный коэффициент:

Z_P \approx  P^* (x_0) \sqrt{\frac{(2\pi)^k}{\det A}}.

Замечания

Необходимо отметить, что такой способ оценки нормирующего зависит от того, рассматриваем мы случайную величину x или произвольную нелинейную функцию от нее u(x). Действительно, P(u) имеет вид P(u) = P(x)\frac{\partial x}{\partial u}, и, вообще говоря, нормировочный коэффициент Z_P будет отличаться, если метод будет использоваться для такой преобразованной случайной величины. Такого эффекта не наблюдалось бы, если бы оценка нормировочного коэффициента была точна. Мы либо должны учитывать этот факт при применении аппроксимации Лапласа, либо пытаться каким-то образом искать такую функцию u(x), в котором данная оценка наиболее точна.

Литература

1. David J.C. MacKay Information Theory, Inference, and Learning Algorithms. — Cambridge University Press, 2005. — С. 341-342.

Личные инструменты