Участник:Чижик Григорий/Песочница

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
 
(1 промежуточная версия не показана)
Строка 31: Строка 31:
<tex>
<tex>
-
f(k;N,m,n)=\frac{\tbinom mk\binom {N-m}{n-k}}{\cbinom Nk}
+
f(k;N,m,n)=\frac{C_k^m C_{n-k}^{N-m}}{C_k^N}
 +
</tex>
 +
==Математическое ожидание==
 +
<tex>
 +
E(X)=\frac{nm}{N}
 +
</tex>
 +
==Дисперсия==
 +
<tex>
 +
D(X)=\frac{n(\frac{m}{N})(1-\frac{m}{N})(N-n)}{N-1}
</tex>
</tex>

Текущая версия

Гипергеометрическое распределение

В теории вероятности и статистике, гипергеометрическое распределение это дискретное вероятностное распределение, которое описывает количество успехов в выборке без возвращений длины n над конечной совокупностью объектов.

Попали в выборку Не попали в выборку Всего
С дефектом (успех) k m-k m
Без дефекта n-k N+k-n-m N-m
Всего n N-n N

Это выборка из N объектов в которых m дефективных. Гипергеометрическое распределение описывает вероятность того, что именно k дефективных в выборке из n конкретных объектов, взятых из совокупности.

Если случайная величина X распределена гипрегеометрически с параметрами N,m,n, тогда вероятность получить ровно k успехов (дефективных объектов в предыдущем примере) будет следующей:


f(k;N,m,n)=\frac{C_k^m C_{n-k}^{N-m}}{C_k^N}

Математическое ожидание


E(X)=\frac{nm}{N}

Дисперсия


D(X)=\frac{n(\frac{m}{N})(1-\frac{m}{N})(N-n)}{N-1}

Личные инструменты