Проверка статистических гипотез

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(уточнение)
м (Альтернативная методика на основе достигаемого уровня значимости)
 
(29 промежуточных версий не показаны.)
Строка 2: Строка 2:
'''Статистическая гипотеза''' (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой [[выборка|выборки данных]].
'''Статистическая гипотеза''' (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой [[выборка|выборки данных]].
-
'''Проверка статистической гипотезы''' (testing statistical hypotheses) — это процесс принятия решения о том, что рассматриваемая статистическая гипотеза не противоречит наблюдаемой [[выборка|выборке данных]].
+
'''Проверка статистической гипотезы''' (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой [[выборка|выборке данных]].
'''Статистический тест''' или '''статистический критерий''' — строгое математическое правило, по которому принимается или отвергается ''статистическая гипотеза''.
'''Статистический тест''' или '''статистический критерий''' — строгое математическое правило, по которому принимается или отвергается ''статистическая гипотеза''.
Строка 12: Строка 12:
Методика состоит в следующем.
Методика состоит в следующем.
-
# Формулируется ''нулевая'' гипотеза&nbsp;<tex>H_0</tex> о&nbsp;распределении вероятностей на множестве&nbsp;<tex>X</tex>. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — ''основная'' или ''нулевая'' <tex>H_0</tex> и альтернативная&nbsp;<tex>H_1</tex>. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что&nbsp;<tex>H_1</tex> означает «не&nbsp;<tex>H_0</tex>». Иногда рассматривается сразу несколько альтернатив. В&nbsp;математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
+
# Формулируется ''нулевая гипотеза''&nbsp;<tex>H_0</tex> о&nbsp;распределении вероятностей на множестве&nbsp;<tex>X</tex>. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — ''основная'' или ''нулевая'' <tex>H_0</tex> и альтернативная&nbsp;<tex>H_1</tex>. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что&nbsp;<tex>H_1</tex> означает «не&nbsp;<tex>H_0</tex>». Иногда рассматривается сразу несколько альтернатив. В&nbsp;математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
# Задаётся некоторая [[статистика (функция выборки)]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика&nbsp;<tex>T</tex>. Вывод функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строгой математической задачей, которая решается методами теории вероятностей; в&nbsp;справочниках приводятся готовые формулы для&nbsp;<tex>F(T)</tex>; в&nbsp;статистических пакетах имеются готовые вычислительные процедуры.
# Задаётся некоторая [[статистика (функция выборки)]] <tex>T:\: X^m \to \mathbb{R}</tex>, для которой в условиях справедливости гипотезы <tex>H_0</tex> выводится [[функция распределения]] <tex>F(T)</tex> и/или [[плотность распределения]]&nbsp;<tex>p(T)</tex>. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика&nbsp;<tex>T</tex>. Вывод функции распределения <tex>F(T)</tex> при заданных&nbsp;<tex>H_0</tex> и&nbsp;<tex>T</tex> является строгой математической задачей, которая решается методами теории вероятностей; в&nbsp;справочниках приводятся готовые формулы для&nbsp;<tex>F(T)</tex>; в&nbsp;статистических пакетах имеются готовые вычислительные процедуры.
# Фиксируется ''[[уровень значимости]]'' — допустимая для данной задачи вероятность ''ошибки первого рода'', то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число <tex>\alpha \in [0,1]</tex>. На&nbsp;практике часто полагают <tex>\alpha=0.05</tex>.
# Фиксируется ''[[уровень значимости]]'' — допустимая для данной задачи вероятность ''ошибки первого рода'', то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число <tex>\alpha \in [0,1]</tex>. На&nbsp;практике часто полагают <tex>\alpha=0.05</tex>.
-
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega</tex> наименее вероятных значений статистики&nbsp;<tex>T</tex>, такое, что <tex>\mathbb{P}\{T\in\Omega\} = \alpha</tex>. Вычисление границ критического множества является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
+
# На множестве допустимых значений статистики&nbsp;<tex>T</tex> выделяется ''критическое множество''&nbsp;<tex>\Omega_\alpha</tex> наименее вероятных значений статистики&nbsp;<tex>T</tex>, такое, что <tex>\mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha</tex>. Вычисление границ критического множества как функции от уровня значимости <tex>\alpha</tex> является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
# Собственно ''статистический тест'' (''статистический критерий'') заключается в проверке условия:
# Собственно ''статистический тест'' (''статистический критерий'') заключается в проверке условия:
-
#* если <tex>T(X^m)\in\Omega</tex>, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза отвергается.
+
#* если <tex>T(X^m)\in\Omega_\alpha</tex>, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза отвергается.
-
#* если <tex>T(X^m)\notin\Omega</tex>, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза принимается.
+
#* если <tex>T(X^m)\notin\Omega_\alpha</tex>, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости&nbsp;<tex>\alpha</tex>». Гипотеза принимается.
Итак, ''статистический критерий'' определяется статистикой&nbsp;<tex>T</tex>
Итак, ''статистический критерий'' определяется статистикой&nbsp;<tex>T</tex>
-
и критическим множеством&nbsp;<tex>\Omega</tex>, которое зависит от уровня значимости.
+
и критическим множеством&nbsp;<tex>\Omega_\alpha</tex>, которое зависит от уровня значимости <tex>\alpha</tex>.
'''Замечание.'''
'''Замечание.'''
Строка 27: Строка 27:
Тому есть две причины.
Тому есть две причины.
* По&nbsp;мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
* По&nbsp;мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
-
* Выбранная статистика <tex>T</tex> может отражать не всю информацию, содержащуюся в гипотезе&nbsp;<tex>H_0</tex>. В&nbsp;таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что <tex>H_0</tex> = «распределение нормально»; <tex>T(X^m)</tex> = [[коэффициент асимметрии]]; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более [[Мощность критерия|мощными критериями]].
+
* Выбранная статистика <tex>T</tex> может отражать не всю информацию, содержащуюся в гипотезе&nbsp;<tex>H_0</tex>. В&nbsp;таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что <tex>H_0</tex> = «распределение нормально»; <tex>T(X^m)</tex> = «[[коэффициент асимметрии]]»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более [[Мощность критерия|мощными критериями]].
-
== Типы статистических гипотез ==
+
== Альтернативная методика на основе достигаемого уровня значимости ==
 +
 
 +
Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В&nbsp;настоящее время результаты проверки гипотез чаще представляют с помощью [[Достигаемый уровень значимости|достигаемого уровня значимости]].
 +
 
 +
'''Достигаемый уровень значимости''' (пи-величина, англ. p-value) — это наименьшая величина уровня значимости,
 +
при которой нулевая гипотеза отвергается для данного значения статистики критерия&nbsp;<tex>T:</tex>
 +
::<tex>p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},</tex>
 +
где
 +
<tex>\Omega_\alpha</tex> — критическая область критерия.
-
* '''Простая гипотеза''' однозначно определяет функцию распределения на множестве&nbsp;<tex>X</tex>.
+
Другая интерпретация:
 +
достигаемый уровень значимости <tex>p(T)</tex> — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем&nbsp;<tex>T.</tex>
-
* '''Сложная гипотеза''' утверждает принадлежность распределения к некоторому множеству распределений на&nbsp;<tex>X</tex>.
+
Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается.
 +
В&nbsp;частности, его можно сравнивать с фиксированным уровнем значимости;
 +
тогда альтернативная методика будет эквивалентна классической.
== Типы критической области ==
== Типы критической области ==
-
Обозначим через <tex>t_z</tex> значение, которое находится из условия <tex>F(t_z) = \mathbb{P}\left\{ T<t_z \right\} = z</tex>, где&nbsp;<tex>F</tex> — функция распределения статистики&nbsp;<tex>T</tex>.
+
Обозначим через <tex>t_\alpha</tex> значение, которое находится из уравнения <tex>F(t_\alpha) = \alpha</tex>, где&nbsp;<tex>F(t) = \mathbb{P}\left\{ T<t \right\}</tex> — функция распределения статистики&nbsp;<tex>T</tex>.
-
Фактически, <tex>t_z</tex> есть обратная функция: <tex>t_z = F^{-1}(z)</tex>.
+
Если функция распределения непрерывная строго монотонная,
 +
то <tex>t_\alpha</tex> есть обратная к ней функция:
 +
::<tex>t_\alpha = F^{-1}(\alpha)</tex>.
 +
Значение <tex>t_\alpha</tex> называется также <tex>\alpha</tex>-''[[квантиль|квантилем]] распределения''&nbsp;<tex>F(t)</tex>.
-
На практике, как правило, используются статистики&nbsp;<tex>T</tex> с унимодальной плотностью распределения, то есть плотностью, имеющей форму пика.
+
На практике, как правило, используются статистики&nbsp;<tex>T</tex> с унимодальной (имеющей форму пика) плотностью распределения.
-
Критические области (наименее вероятные значения статистики) соответствуют хвостам распределения.
+
Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения.
Поэтому чаще всего возникают критические области одного из трёх типов:
Поэтому чаще всего возникают критические области одного из трёх типов:
-
* '''Двусторонняя критическая область''' определяется двумя интервалами <tex>\Omega = (-\infty,\;t_{\alpha/2})\cup(t_{1-\alpha/2}\;+\infty)</tex>.
+
* '''Левосторонняя критическая область:'''
 +
:: определяется интервалом <tex>\Omega_\alpha = (-\infty,\, t_\alpha)</tex>.
 +
:: пи-величина: <tex>p(T) = F(T).</tex>
-
* '''Левосторонняя критическая область''' определяется интервалом <tex>\Omega = (-\infty,\; t_\alpha)</tex>.
+
* '''Правосторонняя критическая область:'''
-
 
+
:: определяется интервалом <tex>\Omega_\alpha = (t_{1-\alpha},\,+\infty)</tex>.
-
* '''Правосторонняя критическая область''' определяется интервалом <tex>\Omega = (t_{1-\alpha},\;+\infty)</tex>.
+
:: пи-величина: <tex>p(T) = 1-F(T).</tex>
 +
* '''Двусторонняя критическая область:'''
 +
:: определяется двумя интервалами <tex>\Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);</tex>
 +
:: пи-величина: <tex>p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.</tex>
== Ошибки первого и второго рода ==
== Ошибки первого и второго рода ==
* '''Ошибка первого рода''' или «ложная тревога» (англ. type I error, <tex>\alpha</tex>&nbsp;error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
* '''Ошибка первого рода''' или «ложная тревога» (англ. type I error, <tex>\alpha</tex>&nbsp;error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
-
::<tex>\alpha = \mathbb{P}\left\{ T\in\Omega | H_0 \right\}.</tex>
+
::<tex>\alpha = \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}.</tex>
* '''Ошибка второго рода''' или «пропуск цели» (англ. type II error, <tex>\beta</tex>&nbsp;error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
* '''Ошибка второго рода''' или «пропуск цели» (англ. type II error, <tex>\beta</tex>&nbsp;error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
-
::<tex>\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega | H_1 \right\}.</tex>
+
::<tex>\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega_\alpha | H_1 \right\}.</tex>
<center>
<center>
Строка 71: Строка 90:
! |&nbsp;<tex>H_0</tex>&nbsp;
! |&nbsp;<tex>H_0</tex>&nbsp;
| style="background: #ddffdd;" | <tex>H_0</tex> верно принята
| style="background: #ddffdd;" | <tex>H_0</tex> верно принята
-
| style="background: #ffdddd;" | <tex>H_1</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''второго'' рода)
+
| style="background: #ffdddd;" | <tex>H_0</tex> неверно принята&nbsp;<br/>(Ошибка ''второго'' рода)
|-
|-
! |&nbsp;<tex>H_1</tex>&nbsp;
! |&nbsp;<tex>H_1</tex>&nbsp;
| style="background: #ffdddd;" | <tex>H_0</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''первого'' рода)
| style="background: #ffdddd;" | <tex>H_0</tex> неверно отвергнута&nbsp;<br/>(Ошибка ''первого'' рода)
-
| style="background: #ddffdd;" | <tex>H_1</tex> верно принята
+
| style="background: #ddffdd;" | <tex>H_0</tex> верно отвергнута
|}
|}
</center>
</center>
-
+
 
== Свойства статистических критериев ==
== Свойства статистических критериев ==
'''Мощность критерия''':
'''Мощность критерия''':
-
<tex>1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega | H \right\}</tex> — вероятность отклонить гипотезу&nbsp;<tex>H_0</tex>, если на самом деле верна альтернативная гипотеза&nbsp;<tex>H</tex>.
+
<tex>1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\}</tex> — вероятность отклонить гипотезу&nbsp;<tex>H_0</tex>, если на самом деле верна альтернативная гипотеза&nbsp;<tex>H</tex>.
''Мощность критерия'' является числовой функцией от альтернативной гипотезы&nbsp;<tex>H</tex>.
''Мощность критерия'' является числовой функцией от альтернативной гипотезы&nbsp;<tex>H</tex>.
'''Несмещённый критерий''':
'''Несмещённый критерий''':
-
<tex>\beta(H) > \alpha</tex> для всех альтернатив&nbsp;<tex>H</tex>.
+
<tex>1-\beta(H) \geq \alpha</tex>
 +
для всех альтернатив&nbsp;<tex>H</tex>
 +
или, что то же самое,
 +
<tex>\mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} \geq \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}</tex>
 +
для всех альтернатив&nbsp;<tex>H</tex>.
'''Состоятельный критерий''':
'''Состоятельный критерий''':
-
<tex>\beta(H) \to 1</tex> при <tex>m\to\infty</tex> для всех альтернатив&nbsp;<tex>H</tex>.
+
<tex>\beta(H) \to 0</tex> при <tex>m\to\infty</tex> для всех альтернатив&nbsp;<tex>H</tex>.
'''Равномерно более мощный критерий.'''
'''Равномерно более мощный критерий.'''
-
Говорят, что критерий с мощностью <tex>\beta(H)</tex> является равномерно более мощным, чем критерий с мощностью <tex>\beta'(H)</tex>, если выполняются два условия:
+
Говорят, что критерий с мощностью <tex>1-\beta(H)</tex> является равномерно более мощным, чем критерий с мощностью <tex>1-\beta'(H)</tex>, если выполняются два условия:
#<tex>\beta(H_0) = \beta'(H_0)</tex>;
#<tex>\beta(H_0) = \beta'(H_0)</tex>;
-
#<tex>\beta(H_1) \geq \beta'(H_1)</tex> для всех рассматриваемых альтернатив <tex>H_1\neq H_0</tex>, причём хотя бы для одной альтернативы неравенство строгое.
+
#<tex>\beta(H_1) \leq \beta'(H_1)</tex> для всех рассматриваемых альтернатив <tex>H_1\neq H_0</tex>, причём хотя бы для одной альтернативы неравенство строгое.
 +
 
 +
== Типы статистических гипотез ==
 +
 
 +
* '''Простая гипотеза''' однозначно определяет функцию распределения на множестве&nbsp;<tex>X</tex>. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см.&nbsp;ниже). Для простых гипотез известен общий вид равномерно более мощного критерия ([[Теорема Неймана-Пирсона]]).
 +
 
 +
* '''Сложная гипотеза''' утверждает принадлежность распределения к некоторому множеству распределений на&nbsp;<tex>X</tex>. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.
== Типы статистических критериев ==
== Типы статистических критериев ==
-
{{UnderConstruction|[[Участник:Vokov|К.В.Воронцов]] 23:20, 7 августа 2008 (MSD)}}
+
В зависимости от проверяемой ''нулевой гипотезы'' статистические критерии делятся на группы, перечисленные ниже по разделам.
 +
 
 +
Наряду с ''нулевой гипотезой'', которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на ''дополнительные предположения'', которые априори предпологаются выполненными.
 +
 
 +
* ''Параметрические критерии'' предполагают, что выборка порождена распределением из заданного параметрического семейства. В&nbsp;частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
 +
 
 +
* ''Непараметрические критерии'' не опираются на дополнительные предположения о распределении. В&nbsp;частности, к этому типу критериев относится большинство [[:Категория:Ранговые критерии|ранговых критериев]].
 +
 
 +
=== Критерии согласия ===
 +
Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.
 +
* [[Критерий Колмогорова-Смирнова]]
 +
* [[Критерий хи-квадрат]] (Пирсона)
 +
* [[Критерий омега-квадрат]] (фон Мизеса)
-
Критерии согласия
+
=== Критерии сдвига ===
 +
Специальный случай двухвыборочных критериев согласия.
 +
Проверяется [[гипотеза сдвига]], согласно которой распределения двух выборок имеют одинаковую форму и отличаются только сдвигом на константу.
 +
* [[Критерий Стьюдента]]
 +
* [[Критерий Уилкоксона-Манна-Уитни]]
-
Критерии нормальности
+
=== Критерии нормальности ===
 +
Критерии нормальности — это выделенный частный случай критериев согласия.
 +
Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел.
 +
Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии.
 +
Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические.
 +
В&nbsp;справочнике А.&nbsp;И.&nbsp;Кобзаря приведена сравнительная таблица мощности для 21&nbsp;критерия нормальности.
 +
* [[Критерий Шапиро-Уилка]]
 +
* [[Критерий асимметрии и эксцесса]]
-
Критерии равномерности
+
=== Критерии однородности ===
 +
Критерии однородности предназначены для проверки нулевой гипотезы о том, что
 +
две выборки (или несколько) взяты из одного распределения,
 +
либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.
-
Критерии симметрии
+
=== Критерии симметричности ===
 +
Критерии симметричности позволяют проверить симметричность распределения.
 +
* [[Одновыборочный критерий Уилкоксона]] и его модификации: критерий Антилла-Кёрстинга-Цуккини, критерий Бхаттачария-Гаствирса-Райта
 +
* [[Критерий знаков]]
 +
* [[Коэффициент асимметрии]]
-
Критерии однородности
+
=== Критерии тренда, стационарности и случайности ===
 +
Критерии тренда и случайности предназначены для проверки нулевой гипотезы об
 +
отсутствии зависимости между выборочными данными и номером наблюдения в выборке.
 +
Они часто применяются в анализе [[временной ряд|временных рядов]], в частности, при [[анализ регрессионных остатков|анализе регрессионных остатков]].
-
Критерии случайности
+
=== Критерии выбросов ===
-
Критерии стационарности
+
=== Критерии дисперсионного анализа ===
 +
=== Критерии корреляционного анализа ===
-
{{UnderConstruction|[[Участник:Vokov|К.В.Воронцов]] 20:52, 7 августа 2008 (MSD)}}
+
=== Критерии регрессионного анализа ===
== Литература ==
== Литература ==
# Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.:&nbsp;Большая российская энциклопедия, 2003. — 912&nbsp;с.
# Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.:&nbsp;Большая российская энциклопедия, 2003. — 912&nbsp;с.
-
# ''Кобзарь А. И.'' Прикладная математическая статистика. — М.:&nbsp;Физматлит, 2006.
+
# ''Кобзарь А. И.'' Прикладная математическая статистика. Справочник для инженеров и научных работников. — М.:&nbsp;Физматлит, 2006. — 816&nbsp;с.
== Ссылки ==
== Ссылки ==
* [http://en.wikipedia.org/wiki/Statistical_hypothesis_testing Statistical hypothesis testing] — статья в англоязычной Википедии.
* [http://en.wikipedia.org/wiki/Statistical_hypothesis_testing Statistical hypothesis testing] — статья в англоязычной Википедии.
 +
{{Stub}}
[[Категория:Математическая статистика]]
[[Категория:Математическая статистика]]
 +
[[Категория:Статистические тесты]]
[[Категория:Прикладная статистика]]
[[Категория:Прикладная статистика]]
[[Категория:Популярные и обзорные статьи]]
[[Категория:Популярные и обзорные статьи]]
 +
[[Категория:Энциклопедия анализа данных]]

Текущая версия

Содержание

Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.

Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой выборке данных.

Статистический тест или статистический критерий — строгое математическое правило, по которому принимается или отвергается статистическая гипотеза.

Методика проверки статистических гипотез

Пусть задана случайная выборка x^m = (x_1,\ldots,x_m) — последовательность m объектов из множества X. Предполагается, что на множестве X существует некоторая неизвестная вероятностная мера \mathbb{P}.

Методика состоит в следующем.

  1. Формулируется нулевая гипотеза H_0 о распределении вероятностей на множестве X. Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — основная или нулевая H_0 и альтернативная H_1. Иногда альтернатива не формулируется в явном виде; тогда предполагается, что H_1 означает «не H_0». Иногда рассматривается сразу несколько альтернатив. В математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
  2. Задаётся некоторая статистика (функция выборки) T:\: X^m \to \mathbb{R}, для которой в условиях справедливости гипотезы H_0 выводится функция распределения F(T) и/или плотность распределения p(T). Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика T. Вывод функции распределения F(T) при заданных H_0 и T является строгой математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы для F(T); в статистических пакетах имеются готовые вычислительные процедуры.
  3. Фиксируется уровень значимости — допустимая для данной задачи вероятность ошибки первого рода, то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число \alpha \in [0,1]. На практике часто полагают \alpha=0.05.
  4. На множестве допустимых значений статистики T выделяется критическое множество \Omega_\alpha наименее вероятных значений статистики T, такое, что \mathbb{P}\{T\in\Omega_\alpha\left|H_0\right.\} = \alpha. Вычисление границ критического множества как функции от уровня значимости \alpha является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
  5. Собственно статистический тест (статистический критерий) заключается в проверке условия:
    • если T(X^m)\in\Omega_\alpha, то делается вывод «данные противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза отвергается.
    • если T(X^m)\notin\Omega_\alpha, то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости \alpha». Гипотеза принимается.

Итак, статистический критерий определяется статистикой T и критическим множеством \Omega_\alpha, которое зависит от уровня значимости \alpha.

Замечание. Если данные не противоречат нулевой гипотезе, это ещё не значит, что гипотеза верна. Тому есть две причины.

  • По мере увеличения длины выборки нулевая гипотеза может сначала приниматься, но потом выявятся более тонкие несоответствия данных гипотезе, и она будет отвергнута. То есть многое зависит от объёма данных; если данных не хватает, можно принять даже самую неправдоподобную гипотезу.
  • Выбранная статистика T может отражать не всю информацию, содержащуюся в гипотезе H_0. В таком случае увеличивается вероятность ошибки второго рода — нулевая гипотеза может быть принята, хотя на самом деле она не верна. Допустим, например, что H_0 = «распределение нормально»; T(X^m) = «коэффициент асимметрии»; тогда выборка с любым симметричным распределением будет признана нормальной. Чтобы избегать таких ошибок, следует пользоваться более мощными критериями.

Альтернативная методика на основе достигаемого уровня значимости

Широкое распространение методики фиксированного уровня значимости было вызвано сложностью вычисления многих статистических критериев в докомпьютерную эпоху. Чаще всего использовались таблицы, в которых для некоторых априорных уровней значимости были выписаны критические значения. В настоящее время результаты проверки гипотез чаще представляют с помощью достигаемого уровня значимости.

Достигаемый уровень значимости (пи-величина, англ. p-value) — это наименьшая величина уровня значимости, при которой нулевая гипотеза отвергается для данного значения статистики критерия T:

p(T) = \min \{ \alpha:\: T\in\Omega_\alpha \},

где \Omega_\alpha — критическая область критерия.

Другая интерпретация: достигаемый уровень значимости p(T) — это вероятность при справедливости нулевой гипотезы получить значение статистики, такое же или ещё более экстремальное, чем T.

Если достигаемый уровень значимости достаточно мал (близок к нулю), то нулевая гипотеза отвергается. В частности, его можно сравнивать с фиксированным уровнем значимости; тогда альтернативная методика будет эквивалентна классической.

Типы критической области

Обозначим через t_\alpha значение, которое находится из уравнения F(t_\alpha) = \alpha, где F(t) = \mathbb{P}\left\{ T<t \right\} — функция распределения статистики T. Если функция распределения непрерывная строго монотонная, то t_\alpha есть обратная к ней функция:

t_\alpha = F^{-1}(\alpha).

Значение t_\alpha называется также \alpha-квантилем распределения F(t).

На практике, как правило, используются статистики T с унимодальной (имеющей форму пика) плотностью распределения. Критические области (наименее вероятные значения статистики) соответствуют «хвостам» этого распределения. Поэтому чаще всего возникают критические области одного из трёх типов:

  • Левосторонняя критическая область:
определяется интервалом \Omega_\alpha = (-\infty,\, t_\alpha).
пи-величина: p(T) = F(T).
  • Правосторонняя критическая область:
определяется интервалом \Omega_\alpha = (t_{1-\alpha},\,+\infty).
пи-величина: p(T) = 1-F(T).
  • Двусторонняя критическая область:
определяется двумя интервалами \Omega_\alpha = (-\infty,\, t_{\alpha/2}) \cup (t_{1-\alpha/2},\,+\infty);
пи-величина: p(T) = \min \left\{ 2F(T),\; 2(1-F(T)) \right\}.

Ошибки первого и второго рода

  • Ошибка первого рода или «ложная тревога» (англ. type I error, \alpha error, false positive) — когда нулевая гипотеза отвергается, хотя на самом деле она верна. Вероятность ошибки первого рода:
\alpha = \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\}.
  • Ошибка второго рода или «пропуск цели» (англ. type II error, \beta error, false negative) — когда нулевая гипотеза принимается, хотя на самом деле она не верна. Вероятность ошибки второго рода:
\beta(H_1) = \mathbb{P}\left\{ T\notin\Omega_\alpha | H_1 \right\}.
  Верная гипотеза
 H_0   H_1 
Результат
 применения 
критерия
 H_0  H_0 верно принята H_0 неверно принята 
(Ошибка второго рода)
 H_1  H_0 неверно отвергнута 
(Ошибка первого рода)
H_0 верно отвергнута

Свойства статистических критериев

Мощность критерия: 1 - \beta(H) = \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} — вероятность отклонить гипотезу H_0, если на самом деле верна альтернативная гипотеза H. Мощность критерия является числовой функцией от альтернативной гипотезы H.

Несмещённый критерий: 1-\beta(H) \geq \alpha для всех альтернатив H или, что то же самое, \mathbb{P}\left\{ T\in\Omega_\alpha | H \right\} \geq \mathbb{P}\left\{ T\in\Omega_\alpha | H_0 \right\} для всех альтернатив H.

Состоятельный критерий: \beta(H) \to 0 при m\to\infty для всех альтернатив H.

Равномерно более мощный критерий. Говорят, что критерий с мощностью 1-\beta(H) является равномерно более мощным, чем критерий с мощностью 1-\beta'(H), если выполняются два условия:

  1. \beta(H_0) = \beta'(H_0);
  2. \beta(H_1) \leq \beta'(H_1) для всех рассматриваемых альтернатив H_1\neq H_0, причём хотя бы для одной альтернативы неравенство строгое.

Типы статистических гипотез

  • Простая гипотеза однозначно определяет функцию распределения на множестве X. Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см. ниже). Для простых гипотез известен общий вид равномерно более мощного критерия (Теорема Неймана-Пирсона).
  • Сложная гипотеза утверждает принадлежность распределения к некоторому множеству распределений на X. Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.

Типы статистических критериев

В зависимости от проверяемой нулевой гипотезы статистические критерии делятся на группы, перечисленные ниже по разделам.

Наряду с нулевой гипотезой, которая принимается или отвергается по результату анализа выборки, статистические критерии могут опираться на дополнительные предположения, которые априори предпологаются выполненными.

  • Параметрические критерии предполагают, что выборка порождена распределением из заданного параметрического семейства. В частности, существует много критериев, предназначенных для анализа выборок из нормального распределения. Преимущество этих критериев в том, что они более мощные. Если выборка действительно удовлетворяет дополнительным предположениям, то параметрические критерии дают более точные результаты. Однако если выборка им не удовлетворяет, то вероятность ошибок (как I, так и II рода) может резко возрасти. Прежде чем применять такие критерии, необходимо убедиться, что выборка удовлетворяет дополнительным предположениям. Гипотезы о виде распределения проверяются с помощью критериев согласия.
  • Непараметрические критерии не опираются на дополнительные предположения о распределении. В частности, к этому типу критериев относится большинство ранговых критериев.

Критерии согласия

Критерии согласия проверяют, согласуется ли заданная выборка с заданным фиксированным распределением, с заданным параметрическим семейством распределений, или с другой выборкой.

Критерии сдвига

Специальный случай двухвыборочных критериев согласия. Проверяется гипотеза сдвига, согласно которой распределения двух выборок имеют одинаковую форму и отличаются только сдвигом на константу.

Критерии нормальности

Критерии нормальности — это выделенный частный случай критериев согласия. Нормально распределённые величины часто встречаются в прикладных задачах, что обусловлено действием закона больших чисел. Если про выборки заранее известно, что они подчиняются нормальному распределению, то к ним становится возможно применять более мощные параметрические критерии. Проверка нормальность часто выполняется на первом шаге анализа выборки, чтобы решить, использовать далее параметрические методы или непараметрические. В справочнике А. И. Кобзаря приведена сравнительная таблица мощности для 21 критерия нормальности.

Критерии однородности

Критерии однородности предназначены для проверки нулевой гипотезы о том, что две выборки (или несколько) взяты из одного распределения, либо их распределения имеют одинаковые значения математического ожидания, дисперсии, или других параметров.

Критерии симметричности

Критерии симметричности позволяют проверить симметричность распределения.

Критерии тренда, стационарности и случайности

Критерии тренда и случайности предназначены для проверки нулевой гипотезы об отсутствии зависимости между выборочными данными и номером наблюдения в выборке. Они часто применяются в анализе временных рядов, в частности, при анализе регрессионных остатков.

Критерии выбросов

Критерии дисперсионного анализа

Критерии корреляционного анализа

Критерии регрессионного анализа

Литература

  1. Вероятность и математическая статистика: Энциклопедия / Под ред. Ю.В.Прохорова. — М.: Большая российская энциклопедия, 2003. — 912 с.
  2. Кобзарь А. И. Прикладная математическая статистика. Справочник для инженеров и научных работников. — М.: Физматлит, 2006. — 816 с.

Ссылки

Личные инструменты