М-оценка

Материал из MachineLearning.

Версия от 10:53, 24 октября 2011; Riabenko (Обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

М-оценки — широкий класс статистических оценок, доставляющих минимум суммы каких-либо функций от данных:

\hat{\theta}=\arg\min_{\displaystyle\theta}\sum_{i=1}^n\rho\left(x_i, \theta\right) \,\!

М-оценками являются, в частности, оценки наименьших квадратов, а также многие оценки максимального правдоподобия.

Функция \rho выбирается таким образом, чтобы обеспечить желаемые свойства оценки (несмещённость и эффективность) в условиях, когда данные взяты из известного распределения, и достаточную устойчивость к отклонениям от этого распределения.

M-оценки положения распределения

Для положения распределения М-оценки задаются следующим образом:

\hat{\theta}=\arg\min_{\displaystyle\theta}\sum_{i=1}^n\rho\left(x_i - \theta\right), \,\!

где функция \rho должна удовлетворять требованиям

\rho(0)=0, \;\; \rho(x)\geq 0 \forall x, \;\; \rho(-x)=\rho(x), \;\; \rho(x_1)\geq\rho(x_2) при |x_1|>|x_2|.

Среднее и медиана распределения минимизируют, соответственно, функции \sum_{i=1}^n \left(x_i-\theta\right)^2 и \sum_{i=1}^n \left|x_i-\theta\right|; примеры других функций \rho, рассматриваемых в теории робастного оценивания, приведены в таблице ниже.

Если \rho имеет производную \psi, задача минимизации приводит к уравнению

\sum_{i=1}^n \psi\left(x_i-\theta\right)=0.

Чтобы сделать М-оценку независимой от коэффициента масштаба распределения, можно перейти к задаче

\min_{\displaystyle\theta}\sum_{i=1}^n\rho\left(\frac{x_i - \theta}{s}\right), \,\!
\sum_{i=1}^n\psi\left(\frac{x_i - \theta}{s}\right)=0,

где значение параметра s можно находить вместе с \theta, а можно считать в данной задаче известным, используя какую-либо оценку (например, абсолютное отклонение среднего).

Иногда от этой задаче переходят к задаче вида

\sum_{i=1}^n w\left(r_i\right) r_i = 0,

где r_i=\frac{x_i - \theta}{s}, w\left(r_i\right)=\frac{\psi\left(r_i\right)}{r_i} — весовая функция. Оценка параметра тогда получается как решение итерационно перевзвешиваемой задачи наименьших квадратов:

\sum_{i=1}^n w\left(r_i^{(k-1)}\right)r_i^{(k)},

где k — номер итерации.

Вид функции  для некоторых популярных М-оценок.
Вид функции \rho для некоторых популярных М-оценок.
М-оценка \rho(x) \psi(x) w(x)
Huber \begin{cases}x^2/2, & |x|\leq k \\ k\left(|x|-k/2\right), & |x|>k \end{cases} \begin{cases}x, & |x|\leq k  \\ k\operatorname{sgn}(x), & |x|>k \end{cases} \begin{cases}1, & |x|\leq k  \\ \frac{k}{x}, & |x|>k\end{cases}
"fair" c^2\left(\frac{|x|}{c}-\log\left(1+\frac{|x|}{c}\right)\right) \frac{x}{1+\frac{|x|}{c}} \frac{1}{1+\frac{|x|}{c}}
Cauchy \frac{c}{2}\log\left(1+\left(x/c\right)^2\right) \frac{x}{1+\left(x/c\right)^2} \frac{1}{1+\left(x/c\right)^2}
Geman-McClure \frac{x^2/2}{1+x^2} \frac{x}{\left(1+x^2\right)^2} \frac{1}{\left(1+x^2\right)^2}
Welsch \frac{c^2}{2}\left(1-\exp\left(-\left(x/c\right)^2\right)\right) x\exp\left(-\left(x/c\right)^2\right) \exp\left(-\left(x/c\right)^2\right)
Tukey \begin{cases}\frac{c^2}{6}\left(1-\left(1-\left(x/c\right)^2\right)^3\right), & |x|\leq c \\ \frac{c^2}{6}, & |x|>c \end{cases} \begin{cases}x\left(1\left(x/c\right)^2\right)^2 , & |x|\leq c \\ 0 , & |x|>c \end{cases} \begin{cases}\left(1\left(x/c\right)^2\right)^2, & |x|\leq c  \\ 0, & |x|>c \end{cases}
Andrews \begin{cases}k^2\left(1-\cos\left(x/k\right)\right), & |x|\leq k\pi \\ 2k^2, & |x|>k\pi \end{cases} \begin{cases}k\sin\left(x/k\right), & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases} \begin{cases}\frac{\sin\left(x/k\right)}{x/k}, & |x|\leq k\pi \\ 0, & |x|>k\pi \end{cases}

Следующая таблица содержит значения параметров методов, подобранные таким образом, чтобы при применении к стандартному нормальному распределению оценки имели асимптотическую эффективность 95%.

М-оценка Значение параметра
Huber 1.345
"fair" 1.3998
Cauchy 2.3849
Welsch 2.9846
Tukey 4.6851
Andrews 1.339


Ссылки

  • M-estimator - статья из английской Википедии
Личные инструменты