Достаточная статистика

Материал из MachineLearning.

Перейти к: навигация, поиск

Статистика T_n=T_n(X_1,\ldots,X_n) назвается достаточной для параметра \theta, если условное распределение выборки X^n=(X_1,\ldots,X_n) при условии того, что T_n=a, не зависит от параметра \theta для всех a\in\mathbb{R}.

Важность понятия достаточной статистики обуславливается следующим утверждением. Если T_n — достаточная статистика, а \widehat\theta_n — несмещенная оценка параметра \theta, тогда условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) является также несмещенной оценкой параметра \theta, причем ее дисперсия меньше или равна дисперсии исходной оценки \widehat\theta_n.

Напомним, что условное математическое ожидание \mathbb{E}(\widehat\theta_n|T_n) есть случайная величина, являющаяся функцией от T_n. Таким образом, в классе несмещенных оценок достаточно рассматривать только такие, которые являются функциями от достаточной статистики (при условии, что такая существует для данной задачи).

(Несмещенная) эффективная оценка параметра всегда является достаточной статистикой.

Можно сказать, что достаточная статистика содержит в себе всю информацию об оцениваемом параметре, которая содержится в выборке X^n.

Содержание

Критерий факторизации

Пусть p_{\theta}(x) — плотность распределения выборки в абсолютно непрерывном случае. Тогда статистика T_n(x) является достаточной для параметра \theta тогда и только тогда, когда p может быть представлена в виде произведения двух сомножителей:

p_{\theta}(x)=g_{\theta}\left(T_n\left(x\right)\right)\cdot h\left(x\right),

первый из которых зависит от выборки только через значение статистики T_n, а второй не зависит от параметра \theta.

В случае дискретного распределения случайной величины X верно аналогичное утверждение для вероятности P_{\theta}(x)=P\left\{X_n=x\right\} и равенства

P_{\theta}(x)=g_{\theta}\left(T_n\left(x\right)\right)\cdot h\left(x\right).

Примеры

Вероятность успеха в последовательности испытаний Бернулли

Пусть мы имеем дело с последовательностью испытаний Бернулли: испытания проводятся с неизвестной постоянной вероятностью успеха p, X_i=1 означает успех, X_i=1 — неудачу.

Выборка \left(X_1,X_2,\ldots,X_n\right) содержит информацию о количестве успехов в серии испытаний и порядке их появления. С точки зрения задачи оценивания параметра p, порядок появления не даёт нам никакой информации. Если известно, что число успехов в последовательности испытаний \sum X_i равно t, то все  {n} \choose {t} перестановок успехов равновероятны вне зависимости от p.

Зная только лишь \sum X_i и не имея никакой другой информации о X_i и p, можно, используя таблицу случайных чисел, сконструировать множество случайных величин X'_1,X'_2,\ldots,X'_n, совместное распределение которых будет таким же, как совместное распределение X_1,X_2,\ldots,X_n. Таким образом, с точки зрения задачи оценивания параметра p, информация, содержащаяся в X_i, эквивалентна совокупности информации, имеющейся в \sum X_i и в таблице случайных чисел.

Распределение Пуассона

Пусть X_1,X_2,\ldots,X_n — совокупность независимых одинаково распределённых величин, имеющих распределение Пуассона с параметром \lambda. Тогда

P_{\lambda}\left(x_1,x_2,\ldots,x_n\right) = \frac{\lambda^{\sum x_i} e^{-n\lambda}}{\prod_{j=1}^n x_j!}.

Из вида данного распределения по критерию факторизации можно заключить, что T_n\left(x\right)=\sum X_i является достаточной статистикой для оценивания \lambda:

h(x) = \frac{1}{\prod_{j=1}^n x_j!} — не зависит от \lambda,
g_{\lambda}\left(T_n\left(x\right) \right) = \lambda^{T_n\left(x\right)} e^{-n\lambda} — зависит от выборки только через значение статистики T_n\left(x\right).
Личные инструменты