Мультиномиальное распределение зависимых случайных величин

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Локальные максимумы и минимумы)
Текущая версия (08:34, 26 февраля 2017) (править) (отменить)
 
(36 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
{{notice|}}Мультиномиальное) распределение зависимых случайных величин — это обобщение биномиального распределения двух случайных величин на случай '''зависимых испытаний''' [[Случайный эксперимент|случайного эксперимента]] с несколькими возможными исходами (таблица 1).
+
{{stop|'''Уважаемые коллеги!'''
 +
Эта статья изобилует грубыми математическими ошибками (начиная с непонимания самой сути математического доказательства), как и другие статьи [[Участник:Vitsemgol|того же автора]]:
 +
*[[Мультиномиальное распределение зависимых случайных величин]]
 +
*[[Мультиномиальное распределение с равновероятными успехами испытаний Бернулли]]
 +
*[[Мультиномиальное распределение независимых случайных величин]]
 +
*[[Парадоксы мультиномиального распределения]]
 +
*[[Биномиальное распределение с равновероятными успехами испытаний Бернулли]]
 +
*[[Парадоксы биномиального распределения]]
 +
*[[Биномиальное распределение двух случайных величин]]
 +
Удалить это безобразие и забанить автора — самое простое решение.
 +
Есть и другой вариант — попробовать помочь всем миром и написать коллективную рецензию, объяснив автору его ошибки.
 +
Для этого есть страницы Обсуждений статей и [[Обсуждение участника:Vitsemgol]].
 +
Это большая работа, непосильная для одного человека, но для сообщества вполне осуществимая.
 +
Коллеги, давайте отнесёмся к проблеме как к исследованию.
 +
Есть несколько открытых вопросов, которые бросают нам вызов.
 +
Упрощает ли Вики задачу интегрирования «непризнанного гения» в профессиональное сообщество?
 +
Способен ли человек, ворвавшийся в чужой монастырь со своим уставом, покаяться и услышать, что ему скажут?
 +
Откликнется ли хоть кто-то из сообщества?
 +
Хватит ли нам всем терпимости?
 +
Это добрый эксперимент, дорогие коллеги!
 +
Как [[MachineLearning:Администраторы|Администратор]], предупреждаю: увижу «войну правок», эмоции и прочие проявления непрофессионализма — прекращу эксперимент как неудачный и удалю всё.
 +
— ''[[Участник:Vokov|К.В.Воронцов]] 02:52, 4 ноября 2013 (MSK)''
 +
}}
 +
 
 +
Уважаемый Константин Вячеславович и уважаемые Ваши единомышленники:
 +
 
 +
1. Это общий случай мультиномиального распределения.
 +
 
 +
2. Во всех вариантах данного распределения:
 +
 
 +
2.1.Только первая случайная величина является независимой и может принимать любое случайное значение, лежащее в пределах от нуля до <tex>n</tex> включительно.
 +
 
 +
2.2.Все остальные случайные величины зависимы от им предшествующих случайных величин;
 +
 
 +
2.3. Зависимость проявляется в том, что каждая предидующая случайная величина сокращает верхнюю границу пространства элементарных событий последующей случайной величины на своё числовое значение;
 +
 
 +
2.4. В результате последняя случайная величина в принципе зависима от всех предшествующих случайных величин мультиномиального распределения.
 +
 
 +
3. Пожалуйста, обратите внимание на сравнительную оценку характеристик мультиномиальных распределений зависимых (таблица 3) и независимых случайных величин (таблица 4), которые наглядно показывают, что распределения с зависимыми случайными величинами соответствуют, а распределения с независимыми случайными величинами не соответствуют современным требованиям аксиоматики Колмогорова. 15:43, 14 ноября 2013 (MSK)
 +
 +
 
 +
{{notice|}}
 +
 
 +
 
 +
Мультиномиальное) распределение зависимых случайных величин &mdash; это обобщение биномиального распределения двух случайных величин на случай '''зависимых испытаний''' [[Случайный эксперимент|случайного эксперимента]] с несколькими возможными исходами (таблица 1).
Строка 81: Строка 125:
:<tex>X_i=n_i \mid X_{i-1}=n_{i-1}</tex>.
:<tex>X_i=n_i \mid X_{i-1}=n_{i-1}</tex>.
-
=== Характеристики случайных величин полиномиального распределения: ===
+
=== Характеристики случайных величин мультиномиального распределения: ===
'''пространство элементарных событий'''
'''пространство элементарных событий'''
Строка 137: Строка 181:
== Технические задачи и технические результаты ==
== Технические задачи и технические результаты ==
-
Для получения мультиномиального распределения необходимо решить две технические задачи и получить технические результаты, относящиеся к математической физике [1,2].
+
Для получения мультиномиального распределения необходимо решить две технические задачи и получить технические результаты, относящиеся к математической физике <ref>''Голоборщенко В. С.'' Основы теории дискретных распределений. Часть 5: Как технические задачи и технические результаты математической физики. // Проблемы создания информационных технологий. М.: ООО Техполиграфцентр, 2010. Вып. 19, с. 31–36.</ref>
'''Первая и вторая технические задачи''' &mdash; соответственно получение вероятности и математического ожидания мультиномиального распределения.
'''Первая и вторая технические задачи''' &mdash; соответственно получение вероятности и математического ожидания мультиномиального распределения.
Строка 149: Строка 193:
При решении второй технической задачи минимально необходимый набор параметров аналогичен предыдущему набору. Исключен из-за ненадобности один параметр &mdash; произведение математических ожиданий случайных величин и дополнен двумя параметрами &mdash; максимальной вероятностью и максимальной дисперсией мультиномиального распределения.
При решении второй технической задачи минимально необходимый набор параметров аналогичен предыдущему набору. Исключен из-за ненадобности один параметр &mdash; произведение математических ожиданий случайных величин и дополнен двумя параметрами &mdash; максимальной вероятностью и максимальной дисперсией мультиномиального распределения.
-
=== Вероятностная схема полиномиального распределения===
+
=== Вероятностная схема мультиномиального распределения===
содержит циклы повторных зависимых экспериментов. Количество циклов не ограничено. В каждом цикле число экспериментов равно числу случайных величин распределения и в общем случае только первый эксперимент является независимым, а все последующие эксперименты в цикле зависимы от результатов предшествующих экспериментов. Все эксперименты осуществляют '''методом выбора без возвращения''' &mdash; изъятые элементы не возвращают на свое прежнее место до полного окончания данного цикла.
содержит циклы повторных зависимых экспериментов. Количество циклов не ограничено. В каждом цикле число экспериментов равно числу случайных величин распределения и в общем случае только первый эксперимент является независимым, а все последующие эксперименты в цикле зависимы от результатов предшествующих экспериментов. Все эксперименты осуществляют '''методом выбора без возвращения''' &mdash; изъятые элементы не возвращают на свое прежнее место до полного окончания данного цикла.
-
Случайные события &mdash; [[выборка | выборки]] случайного объема <tex>n_i</tex>, <tex>i=1,\ldots,k</tex>, <tex>\sum_{i=1}^kn_i=n</tex> из <tex>n</tex>-
+
Случайные события &mdash; [[выборка | выборки]] случайного объема <tex>n_i</tex>, <tex>i=1,\ldots,k</tex>, <tex>\sum_{i=1}^kn_i=n</tex> из <tex>n</tex>-[[множество | множества]] различимых (различающиеся между собой хотя бы одним признаком, например, порядковым номером) неупорядоченных (хаотично расположенных) [[элемент | элементов]], осуществляемые в последовательные моменты времени <tex>t_1,\ldots,t_k</tex>.
-
 
+
-
[[множество | множества]] различимых (различающиеся между собой хотя бы одним признаком, например, порядковым номером) неупорядоченных (хаотично расположенных) [[элемент | элементов]], осуществляемые в последовательные моменты времени <tex>t_1,\ldots,t_k</tex>.
+
Число выборок <tex>k, \quad 2\le k\le n<\infty</tex> равно числу случайных величин распределения.
Число выборок <tex>k, \quad 2\le k\le n<\infty</tex> равно числу случайных величин распределения.
-
Случайные величины <tex>X_i,\quad i=1,\ldots,k</tex> распределения &mdash; появления случайного числа элементов <tex>n</tex>-множества в <tex>n_i</tex>-
+
Случайные величины <tex>X_i,\quad i=1,\ldots,k</tex> распределения &mdash; появления случайного числа элементов <tex>n</tex>-множества в <tex>n_i</tex>-[[подмножество | подмножествах ]] (<tex>n_i,\quad i=1,\ldots,k</tex>) с вероятностями <tex>p_i</tex> каждого из них.
-
 
+
-
[[подмножество | подмножествах ]] (<tex>n_i,\quad i=1,\ldots,k</tex>) с вероятностями <tex>p_i</tex> каждого из них.
+
Попадание одного произвольного элемента <tex>n</tex>-множества в одно из <tex>n_i</tex>-подмножеств &mdash; независимое событие с положительным исходом
Попадание одного произвольного элемента <tex>n</tex>-множества в одно из <tex>n_i</tex>-подмножеств &mdash; независимое событие с положительным исходом
-
соответствующего [[ Бернулли распределение|Бернулли распределения]]; вероятности этих исходов нормированы <tex>\sum_{i=1}^kp_i=1</tex> согласно
+
соответствующего [[ Бернулли распределение|Бернулли распределения]]; вероятности этих исходов нормированы <tex>\sum_{i=1}^kp_i=1</tex> согласно [[аксиоматика Колмогорова|аксиоматике Колмогорова]] и неизменны в процессе проведения повторных зависимых экспериментов.
-
 
+
-
[[аксиоматика Колмогорова|аксиоматике Колмогорова]] и неизменны в процессе проведения повторных зависимых экспериментов.
+
-
 
+
-
Один цикл повторных зависимых экспериментов, осуществляемых '''методом выбора без возвращения''' &mdash; последовательность <tex>k</tex> выборок
+
-
случайных объёмов <tex>n_1,\ldots,n_k</tex>, обработка результатов разделения <tex>n</tex>-множества на <tex>n_i</tex>-подмножества, <tex>i=1,\ldots,k</tex>
+
Один цикл повторных зависимых экспериментов, осуществляемых '''методом выбора без возвращения''' &mdash; последовательность <tex>k</tex> выборок случайных объёмов <tex>n_1,\ldots,n_k</tex>, обработка результатов разделения <tex>n</tex>-множества на <tex>n_i</tex>-подмножества, <tex>i=1,\ldots,k</tex>
в последовательные моменты времени <tex>t_1, \ldots, t_k</tex> и возврат всех <tex>n</tex> изъятых элементов на прежнее место к началу следующего цикла.
в последовательные моменты времени <tex>t_1, \ldots, t_k</tex> и возврат всех <tex>n</tex> изъятых элементов на прежнее место к началу следующего цикла.
-
Совместное проявление вероятностей попадания <tex>k</tex> выборок случайных объёмов <tex>n_1,\ldots,n_k</tex> в <tex>k</tex> подмножеств в одном
+
Совместное проявление вероятностей попадания <tex>k</tex> выборок случайных объёмов <tex>n_1,\ldots,n_k</tex> в <tex>k</tex> подмножеств в одном цикле экспериментов &mdash; '''вероятность мультиномиального распределения'''.
-
цикле экспериментов &mdash; '''вероятность полиномиального распределения'''.
+
===Урновая модель мультиномиального распределения===
-
===Урновая модель полиномиального распределения===
+
содержит одну исходную урну и <tex>k</tex> приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.
-
 
+
-
содержит одну исходную урну и <tex>k</tex> приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин полиномиального распределения.
+
В начальный момент времени <tex>t_0</tex> исходная урна содержит <tex>n</tex> - множество различимых неупорядоченных элементов, а все приёмные урны пусты.
В начальный момент времени <tex>t_0</tex> исходная урна содержит <tex>n</tex> - множество различимых неупорядоченных элементов, а все приёмные урны пусты.
Строка 186: Строка 220:
В первый момент времени <tex>t_1</tex> из исходной урны осуществляют первую выборку <tex>n_1, \quad 0\le n_1\le n</tex> случайного объёма и направляют её в первую приёмную урну с вероятностью <tex>p_1</tex> каждого элемента.
В первый момент времени <tex>t_1</tex> из исходной урны осуществляют первую выборку <tex>n_1, \quad 0\le n_1\le n</tex> случайного объёма и направляют её в первую приёмную урну с вероятностью <tex>p_1</tex> каждого элемента.
-
Во второй момент времени <tex>t_2</tex> из оставшихся <tex>n-n_1</tex> различимых неупорядоченных элементов исходной урны осуществляют вторую выборку
+
Во второй момент времени <tex>t_2</tex> из оставшихся <tex>n-n_1</tex> различимых неупорядоченных элементов исходной урны осуществляют вторую выборку <tex>n_2, \quad0\le n_2\le{n-n_1}</tex> случайного объёма и направляют её во вторую приёмную урну с вероятностью <tex>p_2</tex> каждого элемента.
-
 
+
-
<tex>n_2, \quad0\le n_2\le{n-n_1}</tex> случайного объёма и направляют её во вторую приёмную урну с вероятностью <tex>p_2</tex> каждого элемента.
+
И так далее.
И так далее.
Строка 194: Строка 226:
Наконец, в <tex>k</tex>-ый момент времени все элементы <tex>n_k=n-\ldots-n_{k-1}</tex>, оставшиеся в исходной урне, направляют в <tex>k</tex>-ую приёмную урну с вероятностью <tex>p_k</tex> каждого.
Наконец, в <tex>k</tex>-ый момент времени все элементы <tex>n_k=n-\ldots-n_{k-1}</tex>, оставшиеся в исходной урне, направляют в <tex>k</tex>-ую приёмную урну с вероятностью <tex>p_k</tex> каждого.
-
В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного <tex>n</tex>-множества на
+
В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного <tex>n</tex>-множества на <tex>k</tex> подмножеств все элементы из приёмных урн возвращают в исходную урну.
-
 
+
-
<tex>k</tex> подмножеств все элементы из приёмных урн возвращают в исходную урну.
+
На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.
На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.
-
Произведение вероятностей попаданий <tex>n_1,n_2,\ldots,n_k</tex> элементов в приёмные урны есть '''вероятность полиномиального распределения'''.
+
Произведение вероятностей попаданий <tex>n_1,n_2,\ldots,n_k</tex> элементов в приёмные урны есть '''вероятность мультиномиального распределения'''.
===Способ получения вероятностей мультиномиального распределения===
===Способ получения вероятностей мультиномиального распределения===
Строка 254: Строка 284:
:<tex> \sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.</tex>
:<tex> \sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.</tex>
-
===Способ получения математического ожидания полиномиального распределения===
+
===Способ получения математического ожидания мультиномиального распределения===
-
 
+
-
Этот способ относится к техническим задачам разделения дискретного целого на составные части и отличается от способа получения вероятностей
+
-
 
+
-
полиномиального распределения интерпретации 21-го века тем, что число выборок <tex>k</tex> равно числу <tex>n</tex> элементов исходного множества
+
-
<tex>k=n</tex> и каждая выборка имеет единичный объём: <tex>n_i=1,\quad i=1, \ldots, n, \quad k=n </tex>.
+
Этот способ относится к техническим задачам разделения дискретного целого на составные части и отличается от способа получения вероятностей мультиномиального распределения интерпретации 21-го века тем, что число выборок <tex>k</tex> равно числу <tex>n</tex> элементов исходного множества <tex>k=n</tex> и каждая выборка имеет единичный объём: <tex>n_i=1,\quad i=1, \ldots, n, \quad k=n </tex>.
Целым является [[множество]] дискретных [[элемент|элементов]], различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): <tex>2\le n < \infty </tex>.
Целым является [[множество]] дискретных [[элемент|элементов]], различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): <tex>2\le n < \infty </tex>.
Строка 306: Строка 332:
:<tex>\sum_{i=1}^nn_i=n, \quad \sum_{i=1}^np_i=1.</tex>
:<tex>\sum_{i=1}^nn_i=n, \quad \sum_{i=1}^np_i=1.</tex>
-
'''В частном случае''', когда число случайных величин <tex>k=2</tex> равно двум и множество содержит два элемента <tex>n=2</tex>, имеет место
+
'''В частном случае''', когда число случайных величин <tex>k=2</tex> равно двум и множество содержит два элемента <tex>n=2</tex>, имеет место '''математическое ожидание биномиального распределения двух случайных величин (интерпретации 21-го века)'''
-
 
+
-
'''математическое ожидание биномиального распределения интерпретации 21-го века'''
+
:<tex>\prod_{i=1}^2P_i(t_i,X_i=n_i=1 \mid t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^2\frac{n-n_{i-1}}{n}=\frac{1}{2},</tex>
:<tex>\prod_{i=1}^2P_i(t_i,X_i=n_i=1 \mid t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^2\frac{n-n_{i-1}}{n}=\frac{1}{2},</tex>
Строка 314: Строка 338:
:<tex>\sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.</tex>
:<tex>\sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.</tex>
-
== Два варианта получения математического ожидания полиномиального распределения: ==
+
== Два варианта получения математического ожидания мультиномиального распределения: ==
-
или '''как максимум произведения математических ожиданий случайных величин''' полиномиального распределения,
+
или '''как максимум произведения математических ожиданий случайных величин''' мультиномиального распределения,
-
или '''как максимум вероятности полиномиального распределения'''.
+
или '''как максимум вероятности мультиномиального распределения'''.
'''Необходимые условия в обоих вариантах одни и те же:'''
'''Необходимые условия в обоих вариантах одни и те же:'''
Строка 346: Строка 370:
=== Первый вариант===
=== Первый вариант===
-
'''Математическое ожидание''' и '''максимальная вероятность''' полиномиального распределения соответственно
+
'''Математическое ожидание''' и '''максимальная вероятность''' мультиномиального распределения соответственно
:<tex>\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i)\right)_{max}=\frac{n!}{n^n},</tex>
:<tex>\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i)\right)_{max}=\frac{n!}{n^n},</tex>
Строка 358: Строка 382:
''' пространство элементарных событий'''
''' пространство элементарных событий'''
-
:<tex>\sum_{i=1}^n\Omega_i(t_i, X_i=n_i=1 \mid t_{i-1}, X_{i-1}=n_{i-1}=1),</tex>
+
:<tex>\sum_{i=1}^n\Omega_i(t_i, X_i=n_i=1 \mid t_{i-1}, X_{i-1}=n_{i-1}=1).</tex>
-
расположенное в точках <tex>t_1,\ldots,t_n</tex> временной последовательности.
 
-
 
Число случайных величин распределения равно <tex> n</tex> и каждая случайная величина принимает единичное значение: <tex>X_i=n_i=1, \quad i=1,\ldots,n</tex>.
Число случайных величин распределения равно <tex> n</tex> и каждая случайная величина принимает единичное значение: <tex>X_i=n_i=1, \quad i=1,\ldots,n</tex>.
Строка 384: Строка 406:
===Урновая модель первого варианта===
===Урновая модель первого варианта===
-
''' получения математического ожидания полиномиального распределения'''
+
''' получения математического ожидания мультиномиального распределения'''
содержит одну исходную урну и <tex>n</tex> приёмных урн единичных объемов. Нумерация приёмных урн соответствует нумерации случайных величин распределения.
содержит одну исходную урну и <tex>n</tex> приёмных урн единичных объемов. Нумерация приёмных урн соответствует нумерации случайных величин распределения.
Строка 427: Строка 449:
расположено в точках <tex>t_1,\ldots,t_k</tex> временной последовательности. Число испытаний <tex>K</tex> и число случайных величин распределения равно <tex>k</tex> и каждая случайная величина <tex>X_i</tex> принимает единичное значение <tex>X_i=K_i=1</tex> , <tex>i,\ldots k</tex>.
расположено в точках <tex>t_1,\ldots,t_k</tex> временной последовательности. Число испытаний <tex>K</tex> и число случайных величин распределения равно <tex>k</tex> и каждая случайная величина <tex>X_i</tex> принимает единичное значение <tex>X_i=K_i=1</tex> , <tex>i,\ldots k</tex>.
-
'''Характеристики случайных величин второго варианта получения математического ожидании полиномиального распределения:'''
+
'''Характеристики случайных величин второго варианта получения математического ожидании мультиномиального распределения:'''
'''пространство элементарных событий'''
'''пространство элементарных событий'''
Строка 447: Строка 469:
===Урновая модель второго варианта===
===Урновая модель второго варианта===
-
'''получения математического ожидания полиномиального распределения''' содержит одну исходную урну и <tex>k</tex> приёмных урн единичных объемов.
+
'''получения математического ожидания мультиномиального распределения''' содержит одну исходную урну и <tex>k</tex> приёмных урн единичных объемов.
-
Нумерация приёмных урн соответствует нумерации случайных величин полиномиального распределения.
+
Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.
В начальный момент времени <tex>t_0</tex> исходная урна содержит <tex>K</tex> - множество различимых неупорядоченных элементов, а все приёмные урны пусты.
В начальный момент времени <tex>t_0</tex> исходная урна содержит <tex>K</tex> - множество различимых неупорядоченных элементов, а все приёмные урны пусты.
Строка 473: Строка 495:
===Локальные экстремумы математического ожидания мультиномиального распределения ===
===Локальные экстремумы математического ожидания мультиномиального распределения ===
-
Полиномиальное распределение в окрестности своего математического ожидания (таблица 2, строка 2) имеет локальные экстремумы и вероятности, и дисперсии.
+
Мультиномиальное распределение в окрестности своего математического ожидания (таблица 2, строка 2) имеет локальные экстремумы и вероятности, и дисперсии.
{|border=1 align="center"
{|border=1 align="center"
Строка 733: Строка 755:
|0.596&times;10<sup>-7</sup>
|0.596&times;10<sup>-7</sup>
|0.875
|0.875
-
|+ Таблица 2 – Локальные экстремумы математического ожидания полиномиального распределения зависимых случайных величин
+
|+ Таблица 2 – Локальные экстремумы математического ожидания мультиномиального распределения зависимых случайных величин
|}
|}
=== Локальные максимумы и минимумы===
=== Локальные максимумы и минимумы===
-
Локальные максимумы ('''жирный шрифт''') соответствуют таким числовым значениям случайных величин, когда одна из них имеет значение, отличное от единичного, а остальные принимают единичные значения. При этом, чем меньшее значение, отличное от единичного, принимает одна случайная величина и чем больше единичных значений принимают остальные случайные величины распределения, тем ближе локальный максимум к математическому ожиданию мультиномиального распределения. В пределе, когда все случайные величины принимают единичные значения (при условии k=n), имеет место '''математическое ожидание''' полиномиального распределения. При математическом ожидании мультиномиального распределения максимальна и дисперсия мультиномиального распределения, а максимальная вероятность мультиномиального распределения численно равна математическому ожиданию мультиномиального распределения.
+
Локальные максимумы ('''жирный шрифт''') соответствуют таким числовым значениям случайных величин, когда одна из них имеет значение, отличное от единичного, а остальные принимают единичные значения. При этом, чем меньшее значение, отличное от единичного, принимает одна случайная величина и чем больше единичных значений принимают остальные случайные величины распределения, тем ближе локальный максимум к математическому ожиданию мультиномиального распределения. В пределе, когда все случайные величины принимают единичные значения (при условии k=n), имеет место '''математическое ожидание''' мультиномиального распределения. При математическом ожидании мультиномиального распределения максимальна и дисперсия мультиномиального распределения, а максимальная вероятность мультиномиального распределения численно равна математическому ожиданию мультиномиального распределения.
Локальные минимумы (''наклонный шрифт''), как правило, расположены между локальными максимумами и уменьшаются по мере удаления от математического ожидания мультиномиального распределения. Исключение составляют комбинации, предшествующие локальному максимуму и имеющие равные знаменатели мультиномиального коэффициента (строки 4 и 5 снизу: 5!3!=6!1!1! и 0!=1!=1).
Локальные минимумы (''наклонный шрифт''), как правило, расположены между локальными максимумами и уменьшаются по мере удаления от математического ожидания мультиномиального распределения. Исключение составляют комбинации, предшествующие локальному максимуму и имеющие равные знаменатели мультиномиального коэффициента (строки 4 и 5 снизу: 5!3!=6!1!1! и 0!=1!=1).
Строка 749: Строка 771:
Аналогично рассчитываются вероятности мультиномиального распределения для всех других комбинаций случайных величин.
Аналогично рассчитываются вероятности мультиномиального распределения для всех других комбинаций случайных величин.
-
== Свойства дисперсии полиномиального распределения==
+
== Свойства дисперсии мультиномиального распределения==
-
'''Дисперсия полиномиального распределения''':
+
'''Дисперсия мультиномиального распределения''':
1) это случайная величина;
1) это случайная величина;
-
2) равна сумме дисперсий случайных величин полиномиального распределения
+
2) равна сумме дисперсий случайных величин мультиномиального распределения
:<tex>D(X_1=n_1,\ldots, X_k=n_k)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i,</tex>
:<tex>D(X_1=n_1,\ldots, X_k=n_k)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i,</tex>
Строка 763: Строка 785:
:<tex>\sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1});</tex>
:<tex>\sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1});</tex>
-
3) увеличивается с ростом числа случайных величин полиномиального распределения, а дисперсии случайных величин полиномиального распределения убывают с
+
3) увеличивается с ростом числа случайных величин мультиномиального распределения, а дисперсии случайных величин мультиномиального распределения убывают с возрастанием своих порядковых номеров, причём дисперсия первой случайной величины мультиномиального распределения совпадает с дисперсией первой случайной величины соответствующего биномиального распределения <tex>D (X_1=n_1)=np_1q_1,\quad 0\le n_1\le n, \quad q_1=1-p;</tex>
-
 
+
-
возрастанием своих порядковых номеров,
+
-
 
+
-
причём дисперсия первой случайной величины полиномиального распределения совпадает с дисперсией первой случайной величины соответствующего биномиального
+
-
 
+
-
распределения <tex>D (X_1=n_1)=np_1q_1,\quad 0\le n_1\le n, \quad q_1=1-p;</tex>
+
4) имеет множество значений из-за неоднозначности определения произведений <tex>p_iq_i, \quad i=1,\ldots,k;</tex>
4) имеет множество значений из-за неоднозначности определения произведений <tex>p_iq_i, \quad i=1,\ldots,k;</tex>
Строка 777: Строка 793:
:<tex>X_1=n_1=1,\ldots, X_n=n_n=1, \quad k=n,</tex>
:<tex>X_1=n_1=1,\ldots, X_n=n_n=1, \quad k=n,</tex>
-
при которых максимальны одновременно и вероятность, и математическое ожидание полиномиального распределения.
+
при которых максимальны одновременно и вероятность, и математическое ожидание мультиномиального распределения.
-
'''Максимальная дисперсия полиномиального распределения'''
+
'''Максимальная дисперсия мультиномиального распределения'''
:<tex>D(X_1=n_1,\ldots, X_k=n_k)_{max}=D(X_1=n_1=1,\ldots, X_n=n_n=1)=\frac{n^2-1}{2n}:</tex>
:<tex>D(X_1=n_1,\ldots, X_k=n_k)_{max}=D(X_1=n_1=1,\ldots, X_n=n_n=1)=\frac{n^2-1}{2n}:</tex>
Строка 785: Строка 801:
1) с возрастанием числа случайных величин распределения стремится к бесконечности, приближаясь к линейной зависимости <tex> \frac{1}{2}n;</tex>
1) с возрастанием числа случайных величин распределения стремится к бесконечности, приближаясь к линейной зависимости <tex> \frac{1}{2}n;</tex>
-
2) в <tex> \frac{2(n^2-1)}{3n}</tex> раз превышает максимальную дисперсию соответствующего биномиального распределения <tex> D(X_1=n_1,X_2=n_2 )_{max}=\left
+
2) в <tex> \frac{2(n^2-1)}{3n}</tex> раз превышает максимальную дисперсию соответствующего биномиального распределения <tex> D(X_1=n_1,X_2=n_2 )_{max}=\left(\sum_{i=1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{3}{4}.</tex>
-
(\sum_{i=1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{3}{4}.</tex>
+
==Мультиномиальное распределение как процесс выполнения взаимосвязанных действий над объектами==
-
==Полиномиальное распределение как процесс выполнения взаимосвязанных действий над объектами==
+
[[Объект | Объекты]]: [[множество | множество]], его [[подмножество | подмножества]] и их [[элемент | элементы]] как объективная [[реальность | реальность]], существующая вне нас и независимо от нас.
-
 
+
-
[[Объект | Объекты]]: [[множество | множество]], его [[подмножество | подмножества]] и их [[элемент | элементы]] как объективная [[реальность |
+
-
 
+
-
реальность]], существующая вне нас и независимо от нас.
+
-
Полиномиальное распределение это:
+
Мультиномиальное распределение это:
* [[случайный процесс | случайный процесс ]] безвозвратного разделения во времени <tex> t_1,\ldots, t_k, \quad 2\le k\le n</tex> и в пространстве
* [[случайный процесс | случайный процесс ]] безвозвратного разделения во времени <tex> t_1,\ldots, t_k, \quad 2\le k\le n</tex> и в пространстве
Строка 801: Строка 813:
конечного <tex> n</tex>- множества различимых неупорядоченных элементов (<tex>2\le n<\infty</tex>),
конечного <tex> n</tex>- множества различимых неупорядоченных элементов (<tex>2\le n<\infty</tex>),
-
* разделение множества осуществляют [[выборка | выборками]] без возвращения (изъятые из множества элементы не возвращают обратно во множество до полного
+
* разделение множества осуществляют [[выборка | выборками]] без возвращения (изъятые из множества элементы не возвращают обратно во множество до полного окончания экспериментов),
-
окончания экспериментов),
+
*сумма объёмов всех выборок равна объёму исходного множества <tex> \sum _{i=1}^k n_i =n</tex>, при этом только одна из выборок может иметь случайный объём в пределах всего объёма исходного множества <tex> 0\le n_i\le n</tex>,
-
 
+
-
*сумма объёмов всех выборок равна объёму исходного множества <tex> \sum _{i=1}^k n_i =n</tex>, при этом только одна из выборок может иметь случайный
+
-
 
+
-
объём в пределах всего объёма исходного множества <tex> 0\le n_i\le n</tex>,
+
* попадание одного произвольного элемента множества в каждое из подмножеств принимают за событие успеха соответствующего [[Бернулли распределение | Бернулли
* попадание одного произвольного элемента множества в каждое из подмножеств принимают за событие успеха соответствующего [[Бернулли распределение | Бернулли
Строка 813: Строка 821:
распределения ]],
распределения ]],
-
* вероятности <tex> 0\le p_i<1, \quad i=1,\ldots,k\le n</tex> успехов Бернулли распределений нормируют <tex> \sum _{i=1}^k p_i =1</tex> согласно
+
* вероятности <tex> 0\le p_i<1, \quad i=1,\ldots,k\le n</tex> успехов Бернулли распределений нормируют <tex> \sum _{i=1}^k p_i =1</tex> согласно [[аксиоматика Колмогорова | аксиоматике Колмогорова]] и сохраняют неизменными в процессе разбиения множества,
-
 
+
-
[[аксиоматика Колмогорова | аксиоматике Колмогорова]] и сохраняют неизменными в процессе разбиения множества,
+
-
* очерёдность следования выборок принимают за нумерацию случайных величин <tex> X_1, \ldots, X_k </tex> полиномиального распределения,
+
* очерёдность следования выборок принимают за нумерацию случайных величин <tex> X_1,\ldots,X_k </tex> мультиномиального распределения,
*случайный объём каждой выборки <tex> n_i, \quad i=1,\ldots, k\le n</tex> в момент времени <tex> t_i</tex> принимают за числовое значение соответствующей
*случайный объём каждой выборки <tex> n_i, \quad i=1,\ldots, k\le n</tex> в момент времени <tex> t_i</tex> принимают за числовое значение соответствующей
-
случайной величины <tex> X_i=n_i \mid X_{i-1}=n_{i-1}</tex> полиномиального распределения при условии, что в предшествующий момент времени <tex> t_{i-1}
+
случайной величины <tex>X_i=n_i \mid X_{i-1}=n_{i-1}</tex> мультиномиального распределения при условии, что в предшествующий момент времени <tex> t_{i-1}</tex> предшествующая случайная величина <tex> X_{i-1}</tex> приняла числовое значение <tex> n_{i-1}</tex>,
-
</tex> предшествующая случайная величина <tex> X_{i-1}</tex> приняла числовое значение <tex> n_{i-1}</tex>,
+
* результаты каждого разбиения обрабатывают вероятностными методами, определяют технические характеристике всех выборок и принимают их за технические характеристики случайных величин мультиномиального распределения,
-
* результаты каждого разбиения обрабатывают вероятностными методами, определяют технические характеристике всех выборок и принимают их за технические
+
* минимально необходимый набор технических характеристик случайных величин и мультиномиального распределения в целом это: [[пространство элементарных событий |
-
 
+
-
характеристики случайных величин полиномиального распределения,
+
-
 
+
-
* минимально необходимый набор технических характеристик случайных величин и полиномиального распределения в целом это: [[пространство элементарных событий |
+
пространство элементарных событий]], [[ вероятность | вероятность]], [[математическое ожидание |математическое ожидание]] и [[дисперсия |дисперсия]],
пространство элементарных событий]], [[ вероятность | вероятность]], [[математическое ожидание |математическое ожидание]] и [[дисперсия |дисперсия]],
-
* математическое ожидание полиномиального распределения имеет место, когда число выборок <tex>k</tex> равно числу элементов <tex> n</tex>-множества <tex>
+
* математическое ожидание мультиномиального распределения имеет место, когда число выборок <tex>k</tex> равно числу элементов <tex> n</tex>-множества <tex>k=n</tex> и численно равно <tex>\frac{n!}{n^n}, \quad 2\le n, <\infty</tex>, откуда <tex> n=2, \quad \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2}</tex> -
-
 
+
-
k=n</tex> и численно равно <tex>\frac{n!}{n^n}, \quad 2\le n, <\infty</tex>, откуда <tex> n=2, \quad \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2}</tex> -
+
математическое ожидание биномиального распределения.
математическое ожидание биномиального распределения.
-
==Полиномиальное распределение и цепи Маркова: совпадения и отличия, частный случай==
+
==Мультиномиальное распределение и цепи Маркова: совпадения и отличия, частный случай==
-
Полиномиальное распределение появляется в последовательности зависимых случайных испытаний с конечным или счётным числом исходов. По сути &mdash; это [[цепи
+
Мультиномиальное распределение появляется в последовательности зависимых случайных испытаний с конечным или счётным числом исходов. По сути &mdash; это [[цепи Маркова| цепь Маркова]], где <tex>X_{i+1}</tex>-ая случайная величина зависима от предшествующей <tex>X_i</tex>-ой случайной величины
-
 
+
-
Маркова| цепь Маркова]], где <tex>X_{i+1}</tex>-ая случайная величина зависима от предшествующей <tex>X_i</tex>-ой случайной величины
+
:<tex>t_{i+1}>t_i,X_{i+1}=n_{i+1} | t_i<t_{i+1}, X_i=n_i,\quad i=1,\ldots,k \le n</tex>
:<tex>t_{i+1}>t_i,X_{i+1}=n_{i+1} | t_i<t_{i+1}, X_i=n_i,\quad i=1,\ldots,k \le n</tex>
-
следующим образом: <tex>X_{i+1}</tex>-ая случайная величина в <tex>t_{i+1}</tex>-ый момент времени принимает числовое значение, равное <tex>n_{i+1}</tex>,
+
следующим образом: <tex>X_{i+1}</tex>-ая случайная величина в <tex>t_{i+1}</tex>-ый момент времени принимает числовое значение, равное <tex>n_{i+1}</tex>,при условии, что в <tex>t_i</tex>-ый момент времени <tex>X_i</tex>-ая случайная величина приняла числовое значение, равное <tex>n_i</tex>.
-
 
+
-
при условии, что в <tex>t_i</tex>-ый момент времени <tex>X_i</tex>-ая случайная величина приняла числовое значение, равное <tex>n_i</tex>.
+
Случайные величины следуют одна за другой в порядке возрастания своих номеров.
Случайные величины следуют одна за другой в порядке возрастания своих номеров.
-
<tex>X_0</tex>, называемое начальным распределением цепи Маркова, для полиномиального распределения не имеет смысла <tex>t_0=0,
+
<tex>X_0</tex>, называемое начальным распределением цепи Маркова, для мультиномиального распределения не имеет смысла <tex>t_0=0,\quad X_0=0</tex>, поскольку нумерация случайных величин начинается с единицы:
-
\quad X_0=0</tex>, поскольку нумерация случайных величин начинается с единицы: <tex>t_1, X_1,\ldots, t_k, X_k</tex>.
+
<tex>t_1, X_1,\ldots, t_k, X_k</tex>.
-
Переходная вероятность полиномиального распределения
+
Переходная вероятность мультиномиального распределения
:<tex>P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),\quad 0\le n_i\le n< \infty</tex>
:<tex>P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),\quad 0\le n_i\le n< \infty</tex>
-
является дискретной функцией времени. Следовательно, и полиномиальное распределение
+
является дискретной функцией времени. Следовательно, и мультиномиальное распределение
:<tex>\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},</tex>
:<tex>\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},</tex>
Строка 870: Строка 866:
Сумма всех вероятностей полиномиального распределения равна единице. Следовательно, полиномиальное распределение как цепь Маркова, является стахостической.
Сумма всех вероятностей полиномиального распределения равна единице. Следовательно, полиномиальное распределение как цепь Маркова, является стахостической.
-
Однако в отличие от марковских цепей и марковских процессов полиномиальное распределение не обладает свойством отсутствия последействия, согласно которому
+
Однако в отличие от марковских цепей и марковских процессов полиномиальное распределение не обладает свойством отсутствия последействия, согласно которому для любого испытания допускается зависимость его от непосредственно предшествующего ему испытания (и только от него).
-
для любого испытания допускается зависимость его от непосредственно предшествующего ему испытания (и только от него).
+
Причина заключается в том, что в мультиномиальном распределении имеется ещё одна зависимость &mdash; каждая случайная величина (кроме первой) зависима от всех ей предшествующих случайных величин.
-
Причина заключается в том, что в полиномиальном распределении имеется ещё одна зависимость &mdash; каждая случайная величина (кроме первой) зависима от всех
+
Зависимость проявляется в том, что предшествующая случайная величина (<tex>X_i</tex>) мультиномиального распределения в соответствующий момент времени (<tex>t_i</tex>) сокращает на своё числовое значение (<tex>n_i</tex>) верхнюю границу пространства элементарных событий следующей за ней случайной величины <tex>X_{i+1}</tex>):
-
 
+
-
ей предшествующих случайных величин.
+
-
 
+
-
Зависимость проявляется в том, что предшествующая случайная величина (<tex>X_i</tex>) полиномиального распределения в соответствующий момент времени (
+
-
 
+
-
<tex>t_i</tex>) сокращает на своё числовое значение (<tex>n_i</tex>) верхнюю границу пространства элементарных событий следующей за ней случайной величины
+
-
 
+
-
(<tex>X_{i+1}</tex>):
+
:<tex>\Omega_{i+1}(t_{i+1}, X_{i+1}=n_{i+1} \mid t_i,X_i=n_i)=[0 \le n_{i+1} \le n-\ldots-n_i],\quad i=1,\ldots,k \le n.</tex>
:<tex>\Omega_{i+1}(t_{i+1}, X_{i+1}=n_{i+1} \mid t_i,X_i=n_i)=[0 \le n_{i+1} \le n-\ldots-n_i],\quad i=1,\ldots,k \le n.</tex>
Строка 899: Строка 887:
процесс стахостический, поскольку сумма вероятностей равна единице <tex>p1 + p2 = 1</tex>;
процесс стахостический, поскольку сумма вероятностей равна единице <tex>p1 + p2 = 1</tex>;
-
как и в полиномиальном распределении, начальное состояние цепи Маркова <tex>X_0</tex>, для биномиального распределения не имеет смысла <tex>t_0=0, \quad
+
как и в мультиномиальном распределении, начальное состояние цепи Маркова <tex>X_0</tex>, для биномиального распределения не имеет смысла <tex>t_0=0,\quad X_0=0</tex>, поскольку нумерация случайных величин начинается с единицы: <tex>t_1, X_1, \quad t_2, X_2</tex>.
-
X_0=0</tex>, поскольку нумерация случайных величин начинается с единицы: <tex>t_1, X_1, \quad t_2, X_2</tex>.
+
== Сравнительная оценка характеристик мультиномиальных распределений зависимых и независимых случайных величин ==
-
== Сравнительная оценка характеристик полиномиальных распределений зависимых и независимых случайных величин ==
+
Цель сравнительной оценки показать, что мультиномиальное распределение зависимых случайных величин (таблица 3) соответствует, а мультиномиальное распределение независимых случайных величин (таблица 4) не соответствует современным требованиям аксиоматики Колмогорова. Сравнение выполнено на основе минимально необходимого набора параметров, который для каждого распределения и каждой его случайной величины включает в себя четыре параметра: пространство элементарных событий, вероятность, математическое ожидание и дисперсию.
-
 
+
-
Цель сравнительной оценки показать, что полиномиальное распределение зависимых случайных величин (таблица 3)соответствует, а полиномиальное распределение
+
-
 
+
-
независимых случайных величин (таблица 4) не соответствует современным требованиям аксиоматики Колмогорова. Сравнение выполнено на основе минимально
+
-
 
+
-
необходимого набора параметров, который для каждого распределения и каждой его случайной величины включает в себя четыре параметра: пространство элементарных
+
-
 
+
-
событий, вероятность, математическое ожидание и дисперсию.
+
Строка 951: Строка 931:
|<tex>D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i </tex>
|<tex>D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i </tex>
|-
|-
-
|+ Таблица 3 – Характеристики минимально необходимого набора параметров полиномиального распределения зависимых случайных величин (настоящей интерпретации
+
|+ Таблица 3 – Характеристики минимально необходимого набора параметров мультиномиального распределения зависимых случайных величин (настоящей интерпретации
21-го века)
21-го века)
Строка 992: Строка 972:
|<tex>np_iq_i</tex>
|<tex>np_iq_i</tex>
|-
|-
-
|+ Таблица 4 – Характеристики минимально необходимого набора параметров полиномиального распределения независимых случайных величин (традиционной
+
|+ Таблица 4 – Характеристики минимально необходимого набора параметров мультиномиального распределения независимых случайных величин (традиционной интерпретации 20-го века)
-
 
+
-
интерпретации 20-го века)
+
|}
|}
-
'''Полиномиальное распределение зависимых случайных величин (настоящей интерпретации 21-го века)'''
+
'''Мультиномиальное распределение зависимых случайных величин (настоящей интерпретации 21-го века)'''
-
Пространство элементарных событий распределения это совокупность пространств элементарных событий его случайных величин, представленных в виде дискретной
+
Пространство элементарных событий распределения это совокупность пространств элементарных событий его случайных величин, представленных в виде дискретной временной последовательности <tex>i=1,\ldots,k</tex> точек, нумерация по возрастанию которых соответствует нумерации случайных величин распределения <tex>X_1,\ldots,X_k</tex>.
-
временной последовательности <tex>i=1,\ldots,k</tex> точек, нумерация по возрастанию которых соответствует нумерации случайных величин распределения
+
Вероятность распределения это произведение вероятностей зависимых его случайных величин. Зависимость заключается в том, что каждая предшествующая случайная величина распределения сокращает пространство элементарных событий последующей случайной величины на своё числовое значение.
-
<tex>X_1,\ldots,X_k</tex>.
+
Математическое ожидание распределения с ростом числа испытаний и числа случайных величин стремительно убывает к нулю от максимального значения, равного <tex>0,5,\quad k=n=2</tex> (случай биномиального распределения настоящей интерпретации).
-
Вероятность распределения это произведение вероятностей зависимых его случайных величин. Зависимость заключается в том, что каждая предшествующая случайная
+
Дисперсия распределения равна сумме дисперсий случайных величин на том основании, что все случайные величины распределения определены на не пересекающихся пространствах элементарных событий.
-
величина распределения сокращает пространство элементарных событий последующей случайной величины на своё числовое значение.
+
Все характеристики мультиномиального распределения интерпретации соответствуют требованиям аксиоматики Колмогорова.
-
Математическое ожидание распределения с ростом числа испытаний и числа случайных величин стремительно убывает к нулю от максимального значения, равного
+
'''Мультиномиальное распределение независимых случайных величин (традиционной интерпретации 20-го века)'''
-
<tex>0,5,\quad k=n=2</tex> (случай биномиального распределения настоящей интерпретации).
+
Пространство элементарных событий едино и для распределения и для каждой его случайных величин. Это произвольная последовательность <tex>n</tex> независимых испытаний с <tex>k</tex> взаимоисключающими исходами каждый,
-
 
+
<tex> k\le n<\infty</tex>.
-
Дисперсия распределения равна сумме дисперсий случайных величин на том основании, что все случайные величины распределения определены на не пересекающихся
+
-
 
+
-
пространствах элементарных событий.
+
-
 
+
-
Все характеристики полиномиального распределения интерпретации соответствуют требованиям аксиоматики Колмогорова.
+
-
 
+
-
'''Полиномиальное распределение независимых случайных величин (традиционной интерпретации 20-го века)'''
+
-
 
+
-
Пространство элементарных событий едино и для распределения и для каждой его случайных величин. Это произвольная последовательность <tex>n</tex>
+
-
 
+
-
независимых испытаний с <tex>k</tex> взаимоисключающими исходами каждый, <tex> k\le n<\infty</tex>.
+
Вероятность распределения – произведение вероятностей независимых случайных величин.
Вероятность распределения – произведение вероятностей независимых случайных величин.
-
Математическое ожидание распределения до сих пор не определено и в принципе не будет определено, если принимать случайные величины распределения за
+
Математическое ожидание распределения до сих пор не определено и в принципе не будет определено, если принимать случайные величины распределения за независимые. По этим причинам математические ожидания и дисперсии случайных величин определены не верно.
-
независимые (см. доказательство теоремы 1). По этим причинам математические ожидания и дисперсии случайных величин определены не верно.
+
Дисперсия распределения до сих пор тоже не определена, но по неизвестным причинам. Но если бы и была определена, то была бы ложной из-за принятия независимости случайных величин.
-
Дисперсия распределения до сих пор тоже не определена, но по неизвестным причинам. Но если бы и была определена, то была бы ложной из-за принятия
+
Таким образом, в мультиномиальном распределении традиционной интерпретации:
-
 
+
-
независимости случайных величин.
+
-
 
+
-
Таким образом, в полиномиальном распределении традиционной интерпретации:
+
ни одна характеристика из минимально необходимого набора за исключением вероятности распределения (и то верен лишь конечный результат) определена не верно;
ни одна характеристика из минимально необходимого набора за исключением вероятности распределения (и то верен лишь конечный результат) определена не верно;
-
математическое ожидание <tex>np_i</tex> каждой случайной величины <tex>X_i</tex> при условии <tex>n>p_i^{-1}</tex> оказывается больше единицы, что
+
математическое ожидание <tex>np_i</tex> каждой случайной величины <tex>X_i</tex> при условии
-
 
+
<tex>n>p_i^{-1}</tex> оказывается больше единицы, что противоречит аксиоматики Колмогорова;
-
противоречит аксиоматики Колмогорова;
+
-
 
+
-
математическое ожидание распределения <tex>E(X_1=n_1\cdots X_k=n_k)=np_1\cdots np_k=n^kp_1\cdots p_k</tex> при неограниченном возрастании числа
+
-
 
+
-
<tex>n</tex> независимых экспериментов стремится к бесконечности, что недопустимо, поскольку сумма всех вероятностей распределения, включая и его
+
-
математическое ожидание, согласно аксиоматике Колмогорова обязана быть равной единице.
+
математическое ожидание распределения <tex>E(X_1=n_1\cdots X_k=n_k)=np_1\cdots np_k=n^kp_1\cdots p_k</tex> при неограниченном возрастании числа <tex>n</tex> независимых экспериментов стремится к бесконечности, что недопустимо, поскольку сумма всех вероятностей распределения, включая и его математическое ожидание, согласно аксиоматике Колмогорова обязана быть равной единице.
== Погрешности традиционной интерпретации ==
== Погрешности традиционной интерпретации ==
Строка 1054: Строка 1012:
'''Относительные погрешности''' ''традиционной интерпретации'' параметров полиномиального распределения по сравнению с ''настоящей интерпретацией''
'''Относительные погрешности''' ''традиционной интерпретации'' параметров полиномиального распределения по сравнению с ''настоящей интерпретацией''
-
содержат три уровня [3,4]:
+
содержат три уровня:
''низший (элементный) уровень'' &mdash; погрешности случайных величин полиномиального распределения (вероятности, математические ожидания и дисперсии);
''низший (элементный) уровень'' &mdash; погрешности случайных величин полиномиального распределения (вероятности, математические ожидания и дисперсии);
Строка 1068: Строка 1026:
=== Низший (элементный) уровень===
=== Низший (элементный) уровень===
-
Погрешность <tex>\Delta</tex> вероятности <tex>P(X_i)</tex> <tex>i</tex> - ой случайной величины <tex>X_i</tex> мультиномиального распределения
+
Погрешность <tex>\Delta</tex> вероятности <tex>P(X_i)</tex> <tex>i</tex> - ой случайной величины <tex>X_i</tex> мультиномиального распределения ''традиционной интерпретации'' относительно её ''настоящей интерпретации''
 +
:<tex>\Delta{P(X_i)}= \frac{P(X_i=n_i)-P(X_i=n_i \mid X_{i-1}=n_{i-1})}{ P(X_i=n_i \mid X_{i-1}=n_{i-1})}=\frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}q_i^{n-n_i}-1</tex>
 +
 +
предельно отрицательная при достоверном событии (<tex>p_i=1, q_i=0</tex>)
-
''традиционной интерпретации'' относительно её ''настоящей интерпретации''
+
:<tex>\Delta{P(X_i)}=-1</tex>
-
:<tex>\Delta{P(X_i)}= \frac{P(X_i=n_i)-P(X_i=n_i \mid X_{i-1}=n_{i-1})}{ P(X_i=n_i \mid X_{i-1}=n_{i-1})}=\frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-
+
 +
и положительная при недостоверном событии (<tex>p_i=0, q_i=1</tex>)
 +
:<tex>\Delta{P(X_i)}= \frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}-1.</tex>
 +
 +
Точка перехода от отрицательных значений к положительным значениям погрешностей определяется равенством
 +
:<tex>q_i(\Delta{P=0})=\sqrt[n-n_i]\frac{(n-n_i)!}{ n_in!}.</tex>
-
1})!}q_i^{n-n_i}-1</tex>
+
Отрицательные погрешности не могут превышать 100%, а положительные &mdash; могут принимать сотни и тысячи процентов. Исключение составляет погрешность первой случайной величины. Её погрешность монотонно убывает от максимального отрицательного значения (-98%) при <tex>n_i=0</tex> до нуля при <tex>n_i=n</tex>. Каждая последующая случайная величина имеет больше возможностей для изменения знака и числового значения своей погрешности.
 +
Погрешность последней случайной величины не зависит от очередности принятия конкретных значений всеми предшествующими ей случайными величинами. Если одна из случайных величин примет максимальное значение <tex>n_i=n</tex>, то у нее погрешность отсутствует, а у всех остальных случайных величин будут нулевые числовые значения и максимально отрицательные погрешности (см. таблицу 5).
 +
 
 +
{|border=1 align=”centr”
 +
|colspan=3 | Первая случайная величина <tex>X_1=n_1</tex>
 +
|colspan=3 | Вторая случайная величина <tex>X_2=n_2</tex>
 +
|colspan=3 | Третья случайная величина <tex>X_3=n_3</tex>
 +
|colspan=2 | <tex>\chi^2</tex> критерий
 +
|-
 +
|<tex>n_1</tex>
 +
|<tex>\Delta(P_1)</tex>
 +
|Точка перехода
 +
|<tex>n_2</tex>
 +
|<tex>\Delta(P_2)</tex>
 +
|Точка перехода
 +
|<tex>n_3</tex>
 +
|<tex>\Delta(P_3)</tex>
 +
|Точка перехода
 +
|<tex>\Delta(H_0)</tex>
 +
|<tex>\Delta(\alpha)</tex>
 +
|-
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>1</tex>
 +
|<tex>-97,40</tex>
 +
|<tex>1,00</tex>
 +
|<tex>9</tex>
 +
|<tex>+233,33</tex>
 +
|<tex>0,10</tex>
 +
|<tex>-27,95</tex>
 +
|<tex>-15,61</tex>
 +
|-
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>9</tex>
 +
|<tex>-33,33</tex>
 +
|<tex>1,00</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,98</tex>
 +
|<tex>1,00</tex>
 +
|<tex>+22,50</tex>
 +
|<tex>-15,61</tex>
 +
|-
 +
|<tex>9</tex>
 +
|<tex>-33,33</tex>
 +
|<tex>1,00</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,99</tex>
 +
|<tex>0,77</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex> (0/0)-1</tex>
 +
|<tex>-15,61</tex>
 +
|-
 +
|<tex>1</tex>
 +
|<tex>-97,40</tex>
 +
|<tex>1,00</tex>
 +
|<tex>4</tex>
 +
|<tex>-85,37</tex>
 +
|<tex>0,92</tex>
 +
|<tex>5</tex>
 +
|<tex>+3218,52</tex>
 +
|<tex>0,33</tex>
 +
|<tex>-147,50</tex>
 +
|<tex>-75,54</tex>
 +
|-
 +
|<tex>5</tex>
 +
|<tex>-86,83</tex>
 +
|<tex>1,00</tex>
 +
|<tex>4</tex>
 +
|<tex>+267,24</tex>
 +
|<tex>0,54</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,99</tex>
 +
|<tex>0,77</tex>
 +
|<tex>-73,42</tex>
 +
|<tex>-74,26</tex>
 +
|-
 +
|<tex>4</tex>
 +
|<tex>-91,22</tex>
 +
|<tex>1,00</tex>
 +
|<tex>5</tex>
 +
|<tex>+453,09</tex>
 +
|<tex>0,47</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,99</tex>
 +
|<tex>0,77</tex>
 +
|<tex>-58,98</tex>
 +
|<tex>-56,52</tex>
 +
|-
 +
|<tex>2</tex>
 +
|<tex>-96,09</tex>
 +
|<tex>1,00</tex>
 +
|<tex>2</tex>
 +
|<tex>-93,73</tex>
 +
|<tex>0,94</tex>
 +
|<tex>6</tex>
 +
|<tex>+4048,15</tex>
 +
|<tex>0,26</tex>
 +
|<tex>+146,67</tex>
 +
|<tex>-70,09</tex>
 +
|-
 +
|<tex>2</tex>
 +
|<tex>-96,09</tex>
 +
|<tex>1,00</tex>
 +
|<tex>6</tex>
 +
|<tex>+48,15</tex>
 +
|<tex>0,60</tex>
 +
|<tex>2</tex>
 +
|<tex>+75,58</tex>
 +
|<tex>0,62</tex>
 +
|<tex>-128,80</tex>
 +
|<tex>-68,32</tex>
 +
|-
 +
|<tex>6</tex>
 +
|<tex>-80,25</tex>
 +
|<tex>1,00</tex>
 +
|<tex>2</tex>
 +
|<tex>-70,74</tex>
 +
|<tex>0,77</tex>
 +
|<tex>2</tex>
 +
|<tex>+75,58</tex>
 +
|<tex>0,62</tex>
 +
|<tex>-20,00</tex>
 +
|<tex>-67,35</tex>
 +
|-
 +
|<tex>3</tex>
 +
|<tex>-94,17</tex>
 +
|<tex>1,00</tex>
 +
|<tex>3</tex>
 +
|<tex>-79,33</tex>
 +
|<tex>0,84</tex>
 +
|<tex>4</tex>
 +
|<tex>+1743,62</tex>
 +
|<tex>0,41</tex>
 +
|<tex>-180,00</tex>
 +
|<tex>-59,79</tex>
 +
|-
 +
|<tex>3</tex>
 +
|<tex>-94,17</tex>
 +
|<tex>1,00</tex>
 +
|<tex>4</tex>
 +
|<tex>-47,32</tex>
 +
|<tex>0,74</tex>
 +
|<tex>3</tex>
 +
|<tex>+602,33</tex>
 +
|<tex>0,50</tex>
 +
|<tex>-187,97</tex>
 +
|<tex>-97,66</tex>
 +
|-
 +
|<tex>4</tex>
 +
|<tex>-91,22</tex>
 +
|<tex>1,00</tex>
 +
|<tex>3</tex>
 +
|<tex>-94,48</tex>
 +
|<tex>0,77</tex>
 +
|<tex>3</tex>
 +
|<tex>+603,33</tex>
 +
|<tex>0,50</tex>
 +
|<tex>-190,00</tex>
 +
|<tex>-94,97</tex>
 +
|-
 +
|<tex>7</tex>
 +
|<tex>-70,37</tex>
 +
|<tex>1,00</tex>
 +
|<tex>3</tex>
 +
|<tex>+602,23</tex>
 +
|<tex>0,50</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex> (0/0)-1</tex>
 +
|<tex>-52,55</tex>
 +
|-
 +
|<tex>7</tex>
 +
|<tex>-70,37</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>3</tex>
 +
|<tex>+602,23</tex>
 +
|<tex>0,50</tex>
 +
|<tex>+134,17</tex>
 +
|<tex>-52,55</tex>
 +
|-
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>3</tex>
 +
|<tex>-94,15</tex>
 +
|<tex>1,00</tex>
 +
|<tex>7</tex>
 +
|<tex>+3455,55</tex>
 +
|<tex>0,20</tex>
 +
|<tex>-56,79</tex>
 +
|<tex>-52,55</tex>
 +
|-
 +
|<tex>8</tex>
 +
|<tex>-55,56</tex>
 +
|<tex>1,00</tex>
 +
|<tex>1</tex>
 +
|<tex>-86,99</tex>
 +
|<tex>0,84</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,99</tex>
 +
|<tex>0,77</tex>
 +
|<tex>+902,50</tex>
 +
|<tex>-34,31</tex>
 +
|-
 +
|<tex>1</tex>
 +
|<tex>-97,40</tex>
 +
|<tex>1,00</tex>
 +
|<tex>8</tex>
 +
|<tex>+122,22</tex>
 +
|<tex>0,45</tex>
 +
|<tex>1</tex>
 +
|<tex>-73,99</tex>
 +
|<tex>0,77</tex>
 +
|<tex>+0,90</tex>
 +
|<tex>-38,50</tex>
 +
|-
 +
|<tex>1</tex>
 +
|<tex>-97,40</tex>
 +
|<tex>1,00</tex>
 +
|<tex>1</tex>
 +
|<tex>-97,11</tex>
 +
|<tex>0,99</tex>
 +
|<tex>8</tex>
 +
|<tex>+1900,00</tex>
 +
|<tex>0,15</tex>
 +
|<tex>-16,25</tex>
 +
|<tex>-38,50</tex>
 +
|-
 +
|<tex>10</tex>
 +
|<tex>0,00</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex> (0/0)-1</tex>
 +
|<tex>0,00</tex>
 +
|-
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>10</tex>
 +
|<tex>0,00</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>(0/0)-1</tex>
 +
|<tex>0,00</tex>
 +
|-
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0</tex>
 +
|<tex>-98,27</tex>
 +
|<tex>1,00</tex>
 +
|<tex>10</tex>
 +
|<tex>0,00</tex>
 +
|<tex>1,00</tex>
 +
|<tex>0,00</tex>
 +
|<tex>0,00</tex>
 +
|+ Таблица 5 - Погрешности вероятностей случайных величин <tex>\Delta(P_i)</tex> (в процентах), гипотезы <tex>\Delta(H_0)</tex> и уровня значимости <tex>\Delta(\alpha)\quad\chi^2</tex> критерия мультиномиального распределения традиционной интерпретации
 +
|}
 +
 
 +
В точке математического ожидания мультиномиального распределения вероятности первой и <tex>i</tex>-ой случайных имеют вид
 +
 
 +
:<tex>P(X_1=n_1=1)={n\choose1}n^{-1}, \quad P(X_i=n_i=1 \mid X_{i-1}=1)={n-i+1\choose1}n^{-1}, \quad i=1,\ldots, n.</tex>
 +
 +
Погрешность вероятности <tex>i</tex>-ой случайной величины в точке математического ожидания распределения
 +
 +
:<tex>\Delta P(X_i)=\frac{n!(n-i)!}{(n-1)!(n-i+1)!}, \quad i=1,\ldots,n</tex>
 +
 +
увеличивается с возрастанием её номера, достигая максимума у последней случайной величины
 +
 
 +
:<tex>\Delta P(X_i)_{max}=\Delta P(X_n=n_n=1 \mid X_{n-1}=n_{n-1}=1)=\frac{n!0!}{(n-1)!1!}=n-1, \quad i=1,\ldots,n.</tex>
 +
 +
Аналогично определяются погрешности математического ожидания <tex>\Delta(EX_i)</tex> и дисперсии <tex>\Delta(DX_i)</tex> <tex>i</tex>-ой случайной величины <tex>X_i, \quad i=1,\ldots,k\le n</tex>
 +
 
 +
:<tex>\Delta(EX_i)=\Delta(DX_i)=\frac{n}{n-\ldots-n_{i-1}}-1.</tex>
 +
 +
Погрешности математического ожидания и дисперсии отсутствуют только у первой случайной величины и достигают максимального значения у последней
 +
<tex>\Delta(EX_k)=\Delta(DX_k)=n-1</tex>.
=== Средний (функциональный) уровень===
=== Средний (функциональный) уровень===
Строка 1093: Строка 1351:
Расчёты погрешностей (таблица 6) для числа <tex>k</tex>, равного <tex>n</tex>, случайных величин мультиномиального распределения: 2 (<tex>k=n=2</tex> -случай биномиального распределения), 5, 10 и 20.
Расчёты погрешностей (таблица 6) для числа <tex>k</tex>, равного <tex>n</tex>, случайных величин мультиномиального распределения: 2 (<tex>k=n=2</tex> -случай биномиального распределения), 5, 10 и 20.
-
{|border=1 align="center" width=60%
+
{|border=1 align="center" width=70%
|Погрешности математических ожиданий и дисперсий
|Погрешности математических ожиданий и дисперсий
|colspan=4 | Число случайных величин
|colspan=4 | Число случайных величин
Строка 1120: Строка 1378:
|9.0&times;10<sup>10</sup>
|9.0&times;10<sup>10</sup>
|4.9&times;10<sup>26</sup>
|4.9&times;10<sup>26</sup>
-
|+ Таблица 6 - Относительные погрешности (в процентах) математических ожиданий и дисперсий случайных величин (первая строка формул и результатов) и математического ожидания и дисперсии полиномиального распределения (вторая и третья строки)
+
|+ Таблица 6 - Относительные погрешности (в процентах) математических ожиданий и дисперсий случайных величин (первая строка формул и результатов) и математического ожидания и дисперсии мультиномиального распределения (вторая и третья строки)
|}
|}
Строка 1127: Строка 1385:
<tex>\chi^2</tex> - критерий относится к непараметрическим критериям математической статистики и был предложен К. [[Пирсон| Пирсоном]] в 1903 г. для проверки гипотезы, согласно которой случайный вектор частот имеет независимые компоненты со средними значениями <tex>np_i^{(0)}</tex> и заданное мультиномиальное распределение ''традиционной интерпретации''.
<tex>\chi^2</tex> - критерий относится к непараметрическим критериям математической статистики и был предложен К. [[Пирсон| Пирсоном]] в 1903 г. для проверки гипотезы, согласно которой случайный вектор частот имеет независимые компоненты со средними значениями <tex>np_i^{(0)}</tex> и заданное мультиномиальное распределение ''традиционной интерпретации''.
-
Замена опытных данных <tex>np_i^{(0)}</tex> мультиномиального распределения ''традиционной интерпретации'' средними значениями <tex>(n-\ldots-n_{i-1})p_i^{(0)}</tex> мультиномиального распределения ''настоящей интерпретации'' позволяет непосредственно использовать критерий для оценки погрешностей принятия
+
Замена опытных данных <tex>np_i^{(0)}</tex> мультиномиального распределения ''традиционной интерпретации'' средними значениями <tex>(n-\ldots-n_{i-1})p_i^{(0)}</tex> мультиномиального распределения ''настоящей интерпретации'' позволяет непосредственно использовать критерий для оценки погрешностей принятия мультиномиального распределения ''традиционной интерпретации'' за распределение независимых случайных величин.
-
мультиномиального распределения ''традиционной интерпретации'' за распределение независимых случайных величин.
+
В результате возникли две погрешности: погрешность гипотезы <tex>\Delta (H_0)</tex> и погрешность уровня значимости <tex>\Delta (\alpha)</tex>, причем уровень значимости должен быть в пределах <tex>0<\alpha<0,5</tex>
-
 
+
<ref> '' Голоборщенко В. С.'' Столетие ошибочного применения Хи-квадрат критерия в полиномиальном распределении: причины, последствия и пути устранения. // Проблемы создания информационных технологий. Сборник научных трудов. Минск: МАИТ, 2005. Вып.11. Том 1, с. 13-19.</ref>
-
В результате возникли две погрешности: погрешность гипотезы <tex>\Delta (H_0)</tex> и погрешность уровня значимости <tex>\Delta (\alpha)</tex>, причем уровень значимости должен быть в пределах <tex>0<\alpha<0,5</tex>.
+
В <tex>\chi^2</tex> - критерии отсутствуют погрешности, когда погрешность гипотезы и погрешность уровня значимости одновременно равны нулю. Теоретически это возможно в двух случаях: когда значения всех случайных величин за исключением последней равны нулю (последняя строка таблицы 5); в биномиальных распределениях с независимыми характеристиками случайных величин. Однако такие распределения не соответствуют требованиям аксиоматики Колмогорова.
В <tex>\chi^2</tex> - критерии отсутствуют погрешности, когда погрешность гипотезы и погрешность уровня значимости одновременно равны нулю. Теоретически это возможно в двух случаях: когда значения всех случайных величин за исключением последней равны нулю (последняя строка таблицы 5); в биномиальных распределениях с независимыми характеристиками случайных величин. Однако такие распределения не соответствуют требованиям аксиоматики Колмогорова.
-
Погрешности гипотезы и уровня значимости возрастают по мере уменьшения различия числовых значений случайных величин. При этом каждый раз, когда последняя
+
Погрешности гипотезы и уровня значимости возрастают по мере уменьшения различия числовых значений случайных величин. При этом каждый раз, когда последняя случайная величина распределения принимает нулевое значение, у погрешности гипотезы возникает неопределённость типа <tex>(0/0)-1</tex>. Погрешность уровня значимости, оставаясь отрицательной, почти вдвое может превышать допустимый уровень значимости.
-
 
+
-
случайная величина распределения принимает нулевое значение, у погрешности гипотезы возникает неопределённость типа <tex>(0/0)-1</tex>. Погрешность уровня значимости, оставаясь отрицательной, почти вдвое может превышать допустимый уровень значимости.
+
== Причины возникновения погрешностей ==
== Причины возникновения погрешностей ==
-
'''Причины возникновения погрешностей ''' &mdash; три объективные и четыре субъективные [6].
+
изложены в соответствующем разделе статьи http://www.wikiznanie.ru/ru-wz/index.php?title=Полиномиальное_распределение_зависимых_случайных_величин
-
 
+
-
'''Первая объективная причина.'''
+
-
До первой половины 20-го века отсутствовал требуемый математический аппарат.
+
-
 
+
-
Биномиальное распределение стало зарождаться во второй половине 17-го века, а мультиномиальное распределение &mdash; в первой половине 19-го века, когда
+
-
 
+
-
руководящей философской идеей развития теории вероятностей было убеждение во всеобщности понятия независимости. Авторы того времени, вплоть до конца 19-го
+
-
 
+
-
века, как правило, не оговаривали это предположение [7, с. 208].
+
-
 
+
-
Известны были только условно независимые (неравновозможные) события. Если “…встречались не все равновозможны, - пояснял В. Я. [[Буняковский]] - то чрез
+
-
 
+
-
дробление на другие, оне могут быть приведены к равновозможным…” [8, c.6-8].
+
-
 
+
-
'''Вторая объективная причина.'''
+
-
С появлением цепей [[Марков| Маркова]] (1907 год) казалось бы, можно было исключить объективные причины. Однако цепи Маркова, интенсивно развиваясь, в первой
+
-
 
+
-
половине 20-го века находились в начальной стадии своего развития, и еще не были определены их области применения.
+
-
 
+
-
'''Третья объективная причина.'''
+
-
Теория вероятностей не являлась строгой математической дисциплиной [9] до создания аксиоматики Колмогорова, впервые опубликованной в 1933 году на немецком
+
-
 
+
-
языке и переизданной в 1974 году на русском языке [10].
+
-
 
+
-
Первая монография по теории вероятностей, которая по существу начинается с изложения аксиоматики Колмогорова, принадлежит А. А. Боровкову [11] и появилась
+
-
 
+
-
только через 70 лет после первой публикации и через 29 лет после повторной публикации аксиоматики Колмогорова.
+
-
 
+
-
'''Результат трех объективных причин''' &mdash; биномиальное и полиномиальное распределения эволюционно стали развиваться как распределения независимых
+
-
 
+
-
случайных величин.
+
-
 
+
-
'''Первая субъективная причина''' &mdash; очевидное невероятное. Очевидно, что в разложении полинома <tex>1=(p_1+\ldots+p_k)^n</tex> его правая часть
+
-
 
+
-
совпадает с вероятностью полиномиального распределения
+
-
:<tex>\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}.</tex>
+
-
 
+
-
Следовательно, остается только найти наибольший по величине член разложения этого полинома и принять его за математическое ожидание полиномиального
+
-
 
+
-
распределения. Однако был избран иной путь, до конца так и не приведший к определению математического ожидания полиномиального распределения.
+
-
 
+
-
'''Вторая субъективная причина''' &mdash; методическая &mdash; заключается в том, что биномиальное, а затем и полиномиальное распределение, стали относить
+
-
 
+
-
к распределениям, полученным '''методом выбора с возвращением''' [12, с. 184]. Видимо на это повлиял процесс извлечения из урны и возвращения обратно в урну
+
-
 
+
-
одного произвольного шара в урновой модели Лапласа [13]. Лаплас им иллюстрировал одно испытание Бернулли &mdash; независимое повторное испытание с двумя
+
-
 
+
-
взаимоисключающими исходами каждый (вынут белый или чёрный шар) с вероятностями <tex>p</tex> и <tex>q</tex> соответственно, а этот процесс был принят за
+
-
 
+
-
метод выбора с возвращением (шара в урну). Однако, как было доказано выше, полиномиальному распределению и биномиальному распределению, как частному случаю
+
-
 
+
-
полиномиального, свойственен '''метод выбора без возвращения.'''
+
-
 
+
-
'''Третья субъективная причина''' &mdash; логическая &mdash; заключается в неправильном обобщении биномиального распределения на полиномиальное распределение
+
-
 
+
-
[12, с. 184] и биномиальных коэффициентов на полиномиальные коэффициенты [14]: “Биноминальные коэффициенты допускают ряд обобщений. Среди них &mdash;
+
-
 
+
-
полиномиальные коэффициенты…”. Логически правильно [18] обобщение понятия общего (полиномиального) на частное (биномиальное).
+
-
 
+
-
'''Четвёртая субъективная причина''' &mdash; гносеологическая &mdash; заключается в недооценки роли философии в познании проблем математики. Почти абсолютно
+
-
 
+
-
прав был английский философ 13-го века [[Роджер Бэкон | Роджер Бэкон]] (около 1214-1292), утверждавший, что “…ни одна наука не может быть познана без
+
-
 
+
-
математики” [16, с. 875]. Но если теория вероятностей как один из разделов математической науки познает саму себя, то, по всей видимости, одной математики
+
-
 
+
-
недостаточно. Не будем осуждать немецкого писателя [[Новалис | Новалиса]] (1772-1801годы) за столь же категоричное, но противоположное утверждение: “В конце
+
-
 
+
-
концов, математика &mdash; это лишь элементарная философия, а философия &mdash; это высшая математика вообще” [17, с. 10]. Согласно [[аксиоматика
+
-
 
+
-
Колмогорова|аксиоматике Колмогорова]] каждое из этих высказываний имеет свою вероятность достоверности. Ближе к истине как к математическому ожиданию и
+
-
 
+
-
золотой середине был французский философ [[Ж. Б. Бордас-Дамулен|Ж. Б. Бордас-Дамулен]] (1778-1859 годы): “Без математики &mdash; не постичь глубин философии,
+
-
 
+
-
без философии &mdash; не постичь глубин математики, без обеих не постичь ничего” [17, с. 33]. Опыт философии теории вероятностей [[Лаплас | Лапласа]] тому
+
-
 
+
-
подтверждение [13]. Французский писатель [[Ф. Журден |Ф. Журден]] (1876-1958 годы) уточнил: “…во второй половине 19-го века математики сами начали развивать
+
-
 
+
-
философию или скорее логику” [17, с. 80]. Оказалось далеко не все.
+
-
 
+
-
[[Цицерон]] (106-43 до н.э.), вопрошая, пророчески утверждал: “Вероятностные знания? вот предел человеческого разумения” [18].
+
-
 
+
-
Таким образом, погрешности существующих парадигм распределений составляют сотню (для биномиального распределения ''традиционной интерпретации''), тысячи и
+
-
 
+
-
миллионы процентов (для полиномиального распределения ''традиционной интерпретации'').
+
==Литература==
==Литература==
 +
<references />
 +
==См.также==
 +
*[[Парадоксы биномиального распределения]]
 +
*[[Биномиальное распределение]] одной случайной величины
 +
*[[Биномиальное распределение двух случайных величин]]
 +
*[[Биномиальное распределение с равновероятными успехами испытаний Бернулли]]
 +
*[[Парадоксы мультиномиального распределения]]
 +
*[[Мультиномиальное распределение независимых случайных величин]]
 +
*[[Мультиномиальное распределение с равновероятными успехами испытаний Бернулли]]
 +
*[[Эволюция биномиального и мультиномиального (полиномиального) распределений]]
-
1. http://ru.wikipedia.org/wiki/ Математическая физика
 
-
 
-
2.''Голоборщенко В. С.'' Основы теории дискретных распределений. Часть 5: Как технические задачи и технические результаты математической физики. // Проблемы
 
-
 
-
создания информационных технологий. М.: ООО Техполиграфцентр, 2010. Вып. 19, с. 31–36.
 
-
 
-
3. ''Голоборщенко В. С.'' Парадоксы в современной теории вероятностей. Часть 3: Погрешности существующих парадигм. Сборник научных трудов МАИТ // М.: ООО
 
-
 
-
Техполиграфцентр, 2007. Вып.15, с. 5-11.
 
-
 
-
4. ''Никулин М. С.'' Хи-квадрат критерий // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999, с. 787-789.
 
-
 
-
ISBN 585270265X
 
-
 
-
5. '' Голоборщенко В. С.'' Столетие ошибочного применения Хи-квадрат критерия в полиномиальном распределении: причины, последствия и пути устранения. //
 
-
 
-
Проблемы создания информационных технологий. Сборник научных трудов. Минск: МАИТ, 2005. Вып.11. Том 1, с. 13-19.
 
-
 
-
6. ''Голоборщенко В. С.'' Парадоксы в современной теории вероятностей. Часть 4: Причины возникновения и пути устранения // Проблемы создания информационных
 
-
 
-
технологий. Сборник научных трудов МАИТ. М.: ООО Техполиграфцентр, 2007. Вып. 16, с. 9-15.
 
-
 
-
7. Математика X1X века. М.: Наука, 1978, 255с.
 
-
 
-
8. ''Буняковский В.Я.'' Основания математической теории вероятностей. Сочинение Императорской Академии Наук ординарного академика, профессора
 
-
 
-
С.Петербургского университета и доктора математических наук Парижской Академии. САНКТПЕТЕРБУРГ, Типография Императорской Академии Наук. 1846, 477с.
 
-
 
-
9. ''Крамер Г.'' Полвека с теорией вероятностей… Современные проблемы математики. М.: Знание, 1979. 60 с.
 
-
 
-
10. ''Колмогоров А. Н.'' Основные понятия теории вероятностей. 2-е издание. М.: Наука, 1974. 120 с.
 
-
 
-
11. ''Боровков А. А.'' Теория вероятностей. М., Эдиториал УРСС, 2003, 472 с. ISBN 5354004128
 
-
 
-
12. ''Феллер В.'' Введение в теорию вероятностей и ее приложения, т. 1. М.: Мир, 1984. 527 с.
 
-
13. ''Лаплас П.'' Опыт философии теории вероятностей. // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999, с.
 
-
834-863. ISBN 585270265X
 
-
14. ''Ватутин В. А.'' Биномиальный коэффициент. // Вероятность и математическая статистика: Энциклопедия. М.: Большая Российская энциклопедия, 1999, с. 50.
 
-
ISBN 585270265X
 
-
15. ''Горский Д. П.'' Обобщение и познание. М.: Мысль, 1985. 208 с.
+
[[Категория:Вероятностные распределения]]

Текущая версия

Уважаемые коллеги!

Эта статья изобилует грубыми математическими ошибками (начиная с непонимания самой сути математического доказательства), как и другие статьи того же автора:

Удалить это безобразие и забанить автора — самое простое решение. Есть и другой вариант — попробовать помочь всем миром и написать коллективную рецензию, объяснив автору его ошибки. Для этого есть страницы Обсуждений статей и Обсуждение участника:Vitsemgol. Это большая работа, непосильная для одного человека, но для сообщества вполне осуществимая. Коллеги, давайте отнесёмся к проблеме как к исследованию. Есть несколько открытых вопросов, которые бросают нам вызов. Упрощает ли Вики задачу интегрирования «непризнанного гения» в профессиональное сообщество? Способен ли человек, ворвавшийся в чужой монастырь со своим уставом, покаяться и услышать, что ему скажут? Откликнется ли хоть кто-то из сообщества? Хватит ли нам всем терпимости? Это добрый эксперимент, дорогие коллеги! Как Администратор, предупреждаю: увижу «войну правок», эмоции и прочие проявления непрофессионализма — прекращу эксперимент как неудачный и удалю всё. — К.В.Воронцов 02:52, 4 ноября 2013 (MSK)


Уважаемый Константин Вячеславович и уважаемые Ваши единомышленники:

1. Это общий случай мультиномиального распределения.

2. Во всех вариантах данного распределения:

2.1.Только первая случайная величина является независимой и может принимать любое случайное значение, лежащее в пределах от нуля до n включительно.

2.2.Все остальные случайные величины зависимы от им предшествующих случайных величин;

2.3. Зависимость проявляется в том, что каждая предидующая случайная величина сокращает верхнюю границу пространства элементарных событий последующей случайной величины на своё числовое значение;

2.4. В результате последняя случайная величина в принципе зависима от всех предшествующих случайных величин мультиномиального распределения.

3. Пожалуйста, обратите внимание на сравнительную оценку характеристик мультиномиальных распределений зависимых (таблица 3) и независимых случайных величин (таблица 4), которые наглядно показывают, что распределения с зависимыми случайными величинами соответствуют, а распределения с независимыми случайными величинами не соответствуют современным требованиям аксиоматики Колмогорова. 15:43, 14 ноября 2013 (MSK)




Мультиномиальное) распределение зависимых случайных величин — это обобщение биномиального распределения двух случайных величин на случай зависимых испытаний случайного эксперимента с несколькими возможными исходами (таблица 1).


Таблица 1 – Характеристики мультиномиального распределения зависимых случайных величин (настоящей интерпретации 21-го века)
Пространство элементарных событий \sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})
Вероятность \prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}

Максимальная вероятность

(при математическом ожидании распределения)

\left(\prod_{i=1}^nP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}) \right)_{max}=

=\left(\frac{n!}{n_1! \cdots n_n!} p_1^{n_1}\cdots p_n^{n_n}\right)_{max}=\frac{n!}{n^n}

Математическое ожидание

(как максимальное произведение математических ожиданий

случайных величин)

\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=

=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i)\right)_{max}=\frac{n!}{n^n}

Дисперсия \sum_{i=1}^kD(t_i,X_i=n_i)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i
Максимальная дисперсия

(при математическом ожидании распределения)

\left(\sum_{i=1}^nD(t_i,X_i =n_i)\right)_{max}=

=\left(\sum_{i=1}^n(n-\ldots-n_{i-1})p_iq_i\right)_{max}=\frac{n^2-1}{2n}

Ковариационная матрица B=\| b_{ij} \|,

где b_{ij} = \begin{cases} (n-\ldots-n_{i-1})p_iq_i, & i=j,\\
0, & i \not= j
\end{cases}

Корреляционная матрица P=\| \rho_{ij} \|,

где \rho _{ij} = \begin{cases} 1, & i=j,\\
0, & i \not= j
\end{cases}

\chi^2 - критерий \chi^2=\sum_{i=1}^k [X_i-(n-\ldots-n_{i-1})p_i^{(0)}]^2/( n-\ldots-n_{i-1})p_i^{(0)}=

=-n+\sum_{i=1}^kX_i^2 /( n-\ldots-n_{i-1})p_i^{(0)}

Мультиномиальное распределение (полиномиальное распределение) — совместное распределение вероятностей зависимых (кроме первой, в

общем случае) случайных величин

\prod_{i=1}^kP(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},
2\le k \le n <\infty,

определённых на точечных пространствах элементарных событий

\Omega_1, \ldots, \Omega _k

и принимающих в дискретные последовательные моменты времени

t_1, \ldots, t_k, \quad  t_i<t_{i+1}

целые неотрицательные значения

n_1, \ldots, n_k,

взаимосвязанные условием

n_1+\ldots+n_k=n,

согласно которому

X_i=n_i \mid X_{i-1}=n_{i-1}.

Содержание

Характеристики случайных величин мультиномиального распределения:

пространство элементарных событий

\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=[0 \le n_i \le n-\ldots-n_{i-1}],

вероятность

P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-\ldots-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание

E(t_i,X_i=n_i \mid t_{i-1},X_{i-1})=(n-\ldots-n_{i-1})p_i,

дисперсия

D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i, \quad q_i=1-p_i,

производящая

A(s_i)=(1+p_is_i)^{ n-\ldots-n_{i-1}}


и характеристическая

f(t_i)=(1+p_ie^{jt_i})^{ n-\ldots-n_{i-1}}

функции .

Схема повторных циклов случайных зависимых экспериментов

Мультиномиальное распределение появляется в так называемой полиномиальной схеме повторных циклов случайных зависимых экспериментов. Каждый цикл экспериментов осуществляют методом выбора без возвращения в дискретной временной последовательности t_1,\ldots,t_k , номера точек которой соответствуют номерам случайных величин.

Каждая из случайных величин распределения X_i=n_i \mid X_{i-1}=n_{i-1} — это число n_i наступлений одного соответствующего события

x_i,\quad i=1,\ldots,k

в  i - ый момент времени при условии, что в (i-1) - ый момент произошло n_{i-1} наступлений предшествующего события x_{i-1} с положительным исходом, все вероятности которых p_i, \quad i=1,\ldots,k нормированы p_1+\ldots+p_k=1 и неизменны во время проведения экспериментов.

Если в каждом цикле экспериментов вероятность наступления события x_i равна p_i, то полиномиальная вероятность равна вероятности того, что при n экспериментах события x_1,\ldots,x_k наступят n_1,\ldots,n_k раз соответственно.

Случайная величина мультиномиального распределения в соответствующей точке дискретной временной последовательности t_1,\ldots,t_k имеет:

пространство элементарных событий

\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=[0\le n_i \le n-\ldots-n_{i-1}],

вероятность

P(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})={n-\ldots-n_{i-1}\choose n_i}p_i^{n_i},

математическое ожидание

E(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=(n-\ldots-n_{i-1})p_i

и дисперсию

D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i, \quad q_i=1-p_i.

Пространство элементарных событий мультиномиального распределения есть сумма точечных пространств элементарных событий его случайных величин, образующих дискретную последовательность точек  t_1,\ldots,t_k, цикла, а вероятность мультиномиального распределения — произведение вероятностей его случайных величин.

Технические задачи и технические результаты

Для получения мультиномиального распределения необходимо решить две технические задачи и получить технические результаты, относящиеся к математической физике [1]

Первая и вторая технические задачи — соответственно получение вероятности и математического ожидания мультиномиального распределения.

Технические результаты — набор технических параметров, с одной стороны, минимально необходимый для описания мультиномиального распределения и его случайных величин, с другой стороны, позволяющий при необходимости расширить число параметров с целью получения дополнительных сведений о распределении, например, таких как корреляционная матрица, ковариационная матрица , \chi^2 критерий и другие.

Минимально необходимый набор параметров при решении первой технической задачи: пространство элементарных событий,

вероятность, математическое ожидание и дисперсия каждой случайной величины распределения, дисперсия распределения и произведение математических ожиданий его случайных величин как исходное выражение для решения второй технической задачи.

При решении второй технической задачи минимально необходимый набор параметров аналогичен предыдущему набору. Исключен из-за ненадобности один параметр — произведение математических ожиданий случайных величин и дополнен двумя параметрами — максимальной вероятностью и максимальной дисперсией мультиномиального распределения.

Вероятностная схема мультиномиального распределения

содержит циклы повторных зависимых экспериментов. Количество циклов не ограничено. В каждом цикле число экспериментов равно числу случайных величин распределения и в общем случае только первый эксперимент является независимым, а все последующие эксперименты в цикле зависимы от результатов предшествующих экспериментов. Все эксперименты осуществляют методом выбора без возвращения — изъятые элементы не возвращают на свое прежнее место до полного окончания данного цикла.

Случайные события — выборки случайного объема n_i, i=1,\ldots,k, \sum_{i=1}^kn_i=n из n- множества различимых (различающиеся между собой хотя бы одним признаком, например, порядковым номером) неупорядоченных (хаотично расположенных) элементов, осуществляемые в последовательные моменты времени t_1,\ldots,t_k.

Число выборок k, \quad 2\le k\le n<\infty равно числу случайных величин распределения.

Случайные величины X_i,\quad i=1,\ldots,k распределения — появления случайного числа элементов n-множества в n_i- подмножествах (n_i,\quad i=1,\ldots,k) с вероятностями p_i каждого из них.

Попадание одного произвольного элемента n-множества в одно из n_i-подмножеств — независимое событие с положительным исходом

соответствующего Бернулли распределения; вероятности этих исходов нормированы \sum_{i=1}^kp_i=1 согласно аксиоматике Колмогорова и неизменны в процессе проведения повторных зависимых экспериментов.

Один цикл повторных зависимых экспериментов, осуществляемых методом выбора без возвращения — последовательность k выборок случайных объёмов n_1,\ldots,n_k, обработка результатов разделения n-множества на n_i-подмножества, i=1,\ldots,k

в последовательные моменты времени t_1, \ldots, t_k и возврат всех n изъятых элементов на прежнее место к началу следующего цикла.

Совместное проявление вероятностей попадания k выборок случайных объёмов n_1,\ldots,n_k в k подмножеств в одном цикле экспериментов — вероятность мультиномиального распределения.

Урновая модель мультиномиального распределения

содержит одну исходную урну и k приёмных урн. Объем каждой из них не менее объёма исходной урны. Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.

В начальный момент времени t_0 исходная урна содержит n - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны осуществляют первую выборку n_1, \quad 0\le n_1\le n случайного объёма и направляют её в первую приёмную урну с вероятностью p_1 каждого элемента.

Во второй момент времени t_2 из оставшихся n-n_1 различимых неупорядоченных элементов исходной урны осуществляют вторую выборку n_2, \quad0\le n_2\le{n-n_1} случайного объёма и направляют её во вторую приёмную урну с вероятностью p_2 каждого элемента.

И так далее.

Наконец, в k-ый момент времени все элементы n_k=n-\ldots-n_{k-1}, оставшиеся в исходной урне, направляют в k-ую приёмную урну с вероятностью p_k каждого.

В результате исходная урна пуста, а все её элементы размещены в приёмных урнах. После обработки результатов разбиения исходного n-множества на k подмножеств все элементы из приёмных урн возвращают в исходную урну.

На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.

Произведение вероятностей попаданий n_1,n_2,\ldots,n_k элементов в приёмные урны есть вероятность мультиномиального распределения.

Способ получения вероятностей мультиномиального распределения

Этот способ относится к техническим задачам разделения дискретного целого на составные части случайных объёмов.

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): 2\le n < \infty .

Составные части — дискретные подмножества 2\le k \le n < \infty , в сумме равные объёму множества.

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит n, 2\le n < \infty различимых неупорядоченных элементов.

В первый момент времени t_1 из n-множества осуществляют первую выборку случайного объёма n_1, 0 \le n_1 \le n с вероятностью p_1 каждого её элемента.

Вероятность первой случайной величины P_1(t_1,\quad X_1=n_1) мультиномиального распределения определяется числом сочетаний {n \choose n_1}
</p><p> из n по n_1, умноженным на вероятность p_1 выбора одного элемента, возведённую в степень числа n_1 выбранных элементов:

P_1(t_1, X_1=n_1)={n \choose n_1}p_1^{n_1}.

Во второй момент времени t_2 из оставшихся n-n_1 элементов исходного множества осуществляют вторую выборку случайного объёма

n_2,0 \le n_2 \le n-n_1 с вероятностью p_2 каждого её элемента.

Вероятность второй случайной величины P_2(t_2,\quad X_2=n_2) при условии, что в первый момент времени вероятность первой случайной величины

мультиномиального распределения приняла значение P(t_1,\quad X_1=n_1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2, умноженным на вероятность p_2 выбора одного её элемента, возведённую в степень числа n_2 выбранных элементов:

P_2(t_2, X_2=n_2 \mid t_1,X_1=n_1)={n-n_1 \choose n_2}p_2^{n_2}.

И так далее.

В i-ый момент времени из оставшихся n-n_{i-1} элементов исходного множества осуществляют i-ую выборку случайного объёма n_i, 0 \le n_i \le n-n_{i-1} с вероятностью p_i каждого её элемента. Вероятность i-ой случайной величины P_i(t_i,\quad X_i=n_i) при условии, что в i-1-ый момент времени вероятность i-1-ой случайной величины полиномиального распределения приняла значение P_{i-1}(t_{i-1},\quad X_{i-1}=n_{i-1}), определяется числом сочетаний  {n-n_{i-1}\choose n_i} из n-n_{i-1} по n_i=1, умноженным на вероятность p_i выбора одного её элемента, возведённую в степень числа n_i выбранных элементов:

P_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1})={n-n_{i-1}\choosen_i}p_i^{n_i}.

Произведение всех вероятностей есть вероятности полиномиального распределения интерпретации 21-го века — совместное распределение вероятностей

зависимых (кроме первой) случайных величин

\prod_{i=1}^kP_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k},
\sum_{i=1}^kn_i=n, \quad \sum_{i=1}^kp_i=1.

В частном случае, когда число случайных величин k=2 равно двум и множество содержит два элемента n=2, имеют место вероятности биномиального распределения интерпретации 21-го века

\prod_{i=1}^2P_i(t_i,X_i=n_i \mid  t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1!n_2!}p_1^{n_1}p_2^{n_2},
 \sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Способ получения математического ожидания мультиномиального распределения

Этот способ относится к техническим задачам разделения дискретного целого на составные части и отличается от способа получения вероятностей мультиномиального распределения интерпретации 21-го века тем, что число выборок k равно числу n элементов исходного множества k=n и каждая выборка имеет единичный объём: n_i=1,\quad i=1, \ldots, n, \quad k=n .

Целым является множество дискретных элементов, различимых (хотя бы одним признаком, например, порядковыми номерами) и не упорядоченных (хаотично расположенных): 2\le n < \infty .

Составные части — дискретные подмножества 2\le k \le n < \infty , в сумме равные объёму множества.

Разделение множества на подмножества осуществляют выборками без возвращения.

Выборки следуют во времени одна за другой.

В начальный момент времени t_0 , не обязательно равный нулю t_0 \ne 0, множество содержит n, 2\le n < \infty различимых неупорядоченных элементов.

В первый момент времени t_1 из n-множества осуществляют первую выборку n_1=1 единичного объёма с вероятностью p_1=n^{-1}.

Вероятность первой случайной величины P_1(t_1, X_1=n_1=1) мультиномиального распределения определяется числом сочетаний  {n \choose n_1}

из n по n_1=1, умноженным на вероятность p_1=n^{-1} выбора одного элемента:

P_1(t_1, X_1=n_1=1)={n \choose n_1}p_1={n \choose 1}n^{-1}=\frac{n}{n}.

Во второй момент времени t_2 из оставшихся n-n_1 элементов исходного множества осуществляют вторую выборку n_2=1 единичного объёма с вероятностью p_2=n^{-1}.

Вероятность второй случайной величины P_2(t_2, X_2=n_2=1) при условии, что в первый момент времени вероятность первая случайная величина

полиномиального распределения приняла значение P_1(t_1, X_1=n_1=1), определяется числом сочетаний {n-n_1 \choose n_2} из n-n_1 по n_2=1, умноженным на вероятность p_2=n^{-1} выбора одного элемента:

P_2(t_2, X_2=n_2=1 \mid t_1,X_1=n_1=1)={n-n_1 \choose n_2}p_2={n-n_1 \choose 1}n^{-1}=\frac{n-1}{n}.

И так далее.

В i-ый момент времени из оставшихся n-n_{i-1} элементов исходного множества осуществляют i-ую выборку n_i=1 единичного объёма с вероятностью p_i=n^{-1}.

Вероятность i-ой случайной величины P_i(t_i, X_i=n_i=1) при условии, что в i-1-ый момент времени вероятность i-1-ой случайной величины полиномиального распределения приняла значение P_{i-1}(t_{i-1}, X_{i-1}=n_{i-1}=1), определяется числом сочетаний

 {n-n_{i-1} \choose n_i} из n-n_{i-1} по n_i=1, умноженным на вероятность p_i=n^{-1} выбора одного элемента:

P_i(t_i, X_i=n_i=1 \mid t_{i-1},X_{i-1}=1)={n-n_{i-1}\choose n_i}p_i={n-n_{i-1}\choose 1}n^{-1}=\frac{n-n_{i-1}}{n}.

Произведение всех вероятностей есть математическое ожидание полиномиального распределения интерпретации 21-го века

\prod_{i=1}^nP_i(t_i,X_i=n_i=1 \mid  t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^n\frac{n-n_{i-1}}{n}=\frac {n!}{n^n},
\sum_{i=1}^nn_i=n, \quad \sum_{i=1}^np_i=1.

В частном случае, когда число случайных величин k=2 равно двум и множество содержит два элемента n=2, имеет место математическое ожидание биномиального распределения двух случайных величин (интерпретации 21-го века)

\prod_{i=1}^2P_i(t_i,X_i=n_i=1 \mid  t_{i-1},X_{i-1}=n_{i-1}=1)=\prod_{i=1}^2\frac{n-n_{i-1}}{n}=\frac{1}{2},
\sum_{i=1}^2n_i=n, \quad \sum_{i=1}^2p_i=1.

Два варианта получения математического ожидания мультиномиального распределения:

или как максимум произведения математических ожиданий случайных величин мультиномиального распределения,

или как максимум вероятности мультиномиального распределения.

Необходимые условия в обоих вариантах одни и те же:

n=k, \qquad n_i=1, \qquad 0<p_i<1, \qquad i=1,\ldots,n,

но выполняются двояко:

либо увеличением числа k случайных величин в цикле до числа n экспериментов (k=n),

либо сокращением числа n экспериментов в цикле до числа k случайных величин (n=k).

Достаточные условия:

в первом варианте

p_1=\ldots=p_n=n^{-1},


во втором варианте

p_1=\ldots=p_k=K^{-1},


где K — сокращенное число n экспериментов в цикле до числа k случайных величин: ( K=n=k).

Первый вариант

Математическое ожидание и максимальная вероятность мультиномиального распределения соответственно

\left(\prod_{i=1}^nE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^n(n-\ldots-n_{i-1})p_i)\right)_{max}=\frac{n!}{n^n},
\left(\prod_{i=1}^nP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}) \right)_{max}=\left(\frac{n!}{n_1! \cdots n_n!} p_1^{n_1}\cdots p_n^{n_n}\right)_{max}=\frac{n!}{n^n},

максимальная дисперсия

\left(\sum_{i=1}^nD(t_i,X_i=n_i)\right)_{max}=\left(\sum_{i=1}^n(n-\ldots-n_{i-)p_iq_i\right)_{max}=\frac{n^2-1}{2n},

пространство элементарных событий

\sum_{i=1}^n\Omega_i(t_i, X_i=n_i=1 \mid t_{i-1}, X_{i-1}=n_{i-1}=1).

Число случайных величин распределения равно  n и каждая случайная величина принимает единичное значение: X_i=n_i=1, \quad i=1,\ldots,n.

Характеристики случайных величин первого варианта получения математического ожидании мультиномиального распределения:

пространство элементарных событий

\Omega_i(t_i,  X_i=n_i=1)=[n_j=1, j=1,\ldots,n-i+1], \qquad i=1,\ldots,n,

вероятность

P(t_i, X_i=n_i=1 \mid t_{i-1},X_{i-1}=n_{i-1}=1)= {n-i+1\choose n_i}{p_i^{n_i}}=\frac{n-i+1}{n},

математическое ожидание

E(t_i,X_i=n_i=1 \mid t_{i-1},X_{i-1}=n_{i-1}=1)=\frac{n-i+1}{n},

дисперсия

D(t_i,X_i=n_i)=(n-i+1)p_iq_i=(n-i+1)\frac{n-i}{n^2}.

Урновая модель первого варианта

получения математического ожидания мультиномиального распределения

содержит одну исходную урну и n приёмных урн единичных объемов. Нумерация приёмных урн соответствует нумерации случайных величин распределения.

В начальный момент времени t_0 исходная урна содержит n - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны осуществляют первую выборку единичного объёма n_1=1 и направляют её в первую приёмную урну с вероятностью p_1=n^{-1}.

Во второй момент времени t_2 из исходной урны, содержащей n-1 элементов осуществляют вторую выборку единичного объёма n_2=1 и направляют её во вторую приёмную урну с вероятностью p_2=n^{-1}.

И так далее.

Наконец, в последний, n - ый момент времени из исходной урны, содержащей один элемент n-\ldots-n_{n-1}=1, направляют его в n - ую приемную урну с вероятностью p_n=n^{-1}.

В результате исходная урна пуста, а все её n элементов по одному размещены в приёмных урнах.

После обработки результатов разбиения исходного n - множества на n - подмножеств все элементы из приёмных урн возвращают в исходную урну.

На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего аналогичного цикла.

Произведение вероятностей попадания по одному произвольному элементу исходного n - множества в n приёмных урн есть математическое ожидание мультиномиального распределения.

Второй вариант

Математическое ожидание и максимальная вероятность соответственно

\left(\prod_{i=1}^kE(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})\right)_{max}=\left(\prod_{i=1}^k(n-\ldots-n_{i-1})p_i)\right)_{max}=\frac{K!}{K^k},


\left(\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}) \right)_{max}=\left(\frac{K!}{K_1! \cdots K_k!} p_1^{K_1}\cdots p_k^{K_k}\right)_{max}=\frac{K!}{K^k},

максимальная дисперсия

\left(\sum_{i=1}^kD(t_i,X_i=n_i)\right)_{max}=\left(\sum_{i=1}^k(K-\ldots-K_{i-1})p_iq_i\right)_{max}=\frac{K^2-1}{2K},

пространство элементарных событий

\sum_{i=1}^k\Omega_i(t_i, X_i=K_i=1\mid t_{i-1},X_{i-1}=K_{i-1}=1)


расположено в точках t_1,\ldots,t_k временной последовательности. Число испытаний K и число случайных величин распределения равно k и каждая случайная величина X_i принимает единичное значение X_i=K_i=1 , i,\ldots k.

Характеристики случайных величин второго варианта получения математического ожидании мультиномиального распределения:

пространство элементарных событий

\Omega_i(t_i, X_i=K_i=1)=[K_j=1, j=1,\ldots,K-i+1], \quad i=1,\ldots,k,

вероятность

P(t_i,X_i=K_i=1\mid t_{i-1},X_{i-1}=K_{i-1}=1)={K-i +1\choose K_i}p_i^{K_i}=\frac{K-i+1}{K},

математическое ожидание

E(t_i,X_i=K_i=1\mid t_{i-1},X_{i-1}=K_{i-1}=1)=\frac{K-i+1}{K},

дисперсия

D(t_i,X_i=n_i)=(K-i+1)p_iq_i=(K-i+1)\frac{K-1}{K^2}.

Урновая модель второго варианта

получения математического ожидания мультиномиального распределения содержит одну исходную урну и k приёмных урн единичных объемов.

Нумерация приёмных урн соответствует нумерации случайных величин мультиномиального распределения.

В начальный момент времени t_0 исходная урна содержит K - множество различимых неупорядоченных элементов, а все приёмные урны пусты.

В первый момент времени t_1 из исходной урны, содержащей K различимых неупорядоченных элементов, осуществляют первую выборку единичного объёма K_1=1 и направляют её в первую приёмную урну с вероятностью p_1=K^{-1}.

Во второй момент времени t_2 из исходной урны, содержащей K-1 различимых неупорядоченных элементов, осуществляют вторую выборку

единичного объёма K_2=1 и направляют во вторую приёмную урну с вероятностью p_2=K^{-1}.

И так далее.

Наконец, в последний, k - ый момент времени из исходной урны, содержащей K-\ldots-K_{k-1}=1 один элемент, направляют его в

k - ую приемную урну с вероятностью p_k=K^{-1}.

В результате исходная урна пуста, а все её K элементов по одному размещены в приёмных урнах. После обработки результатов разбиения исходного

K - множества на k - подмножеств выборками единичных объёмов все элементы из приёмных урн возвращают в исходную урну. На этом один цикл повторных зависимых экспериментов закончен, и урновая модель готова к проведению следующего цикла экспериментов.

Произведение вероятностей попаданий k выборок единичных объёмов (по одному произвольному элементу исходного K - множества) в k приёмных урн — математическое ожидание мультиномиального распределения.

Локальные экстремумы математического ожидания мультиномиального распределения

Мультиномиальное распределение в окрестности своего математического ожидания (таблица 2, строка 2) имеет локальные экстремумы и вероятности, и дисперсии.

Значения восьми случайных величин Вероятность Дисперсия Экстремумы
1 1 1 1 1 1 1 1 0.240×10-2 3.937 Математическое ожидание
2 1 1 1 1 1 1 0 0.120×10-2 3.172
2 2 1 1 1 1 0 0 0.600×10-3 2.625
2 2 2 1 1 0 0 0 0.300×10-3 2.297
2 2 2 2 0 0 0 0 0.150×10-3 2.187 1-й локальный минимум
3 1 1 1 1 1 0 0 0.400×10-3 2,516 1-й локальный максимум
3 2 1 1 1 0 0 0 0.200×10-3 2.078
3 2 2 1 0 0 0 0 0.100×10-3 1.859
3 3 2 1 0 0 0 0 0.334×10-4 1.641 2-й локальный минимум
4 1 1 1 1 0 0 0 0.100×10-3 1.969 2-й локальный максимум
4 2 1 1 0 0 0 0 0.500×10-4 1.641
4 2 2 0 0 0 0 0 0.250×10-4 1.531
4 2 2 0 0 0 0 0 0.250×10-4 1.531
4 3 1 0 0 0 0 0 0.167×10-5 1.422
4 4 0 0 0 0 0 0 0.417×10-5 1.312 3-й локальный минимум
5 1 1 1 0 0 0 0 0.200×10-4 1.531 3-й локальный максимум
5 2 1 0 0 0 0 0 0.100×10-4 1.312
5 3 0 0 0 0 0 0 0.334×10-5 1.203
6 1 1 0 0 0 0 0 0.334×10-5 1.203
6 2 0 0 0 0 0 0 0.167×10-5 1.094
7 1 0 0 0 0 0 0 0.477×10-6 0.984
8 0 0 0 0 0 0 0 0.596×10-7 0.875
Таблица 2 – Локальные экстремумы математического ожидания мультиномиального распределения зависимых случайных величин

Локальные максимумы и минимумы

Локальные максимумы (жирный шрифт) соответствуют таким числовым значениям случайных величин, когда одна из них имеет значение, отличное от единичного, а остальные принимают единичные значения. При этом, чем меньшее значение, отличное от единичного, принимает одна случайная величина и чем больше единичных значений принимают остальные случайные величины распределения, тем ближе локальный максимум к математическому ожиданию мультиномиального распределения. В пределе, когда все случайные величины принимают единичные значения (при условии k=n), имеет место математическое ожидание мультиномиального распределения. При математическом ожидании мультиномиального распределения максимальна и дисперсия мультиномиального распределения, а максимальная вероятность мультиномиального распределения численно равна математическому ожиданию мультиномиального распределения.

Локальные минимумы (наклонный шрифт), как правило, расположены между локальными максимумами и уменьшаются по мере удаления от математического ожидания мультиномиального распределения. Исключение составляют комбинации, предшествующие локальному максимуму и имеющие равные знаменатели мультиномиального коэффициента (строки 4 и 5 снизу: 5!3!=6!1!1! и 0!=1!=1).

Определение локальных экстремумов основано на вычислении вероятностей мультиномиального распределения. При этом все комбинации значений случайных величин равно возможны и вероятность каждой из них равна n^{-n}. В частности, в таблице 1 n=k=8,  n^{-n}=8^{-8}. Вероятность мультиномиального распределения, у которого, например, (таблица 1, 3-я строка сверху: 22111100) две случайные величины имеют числовые значения 2, четыре случайные величины имеют числовые значения 1 и две случайные величины имеют числовые значения 0 и которые могут быть расположены в произвольном порядке, определяется по формуле

\frac{n!}{n_1!\cdots n_n!} n^{-n}=\frac{8!}{2!2!1!1!1!1!0!}8^{-8}=\frac{8!}{2!2!}8^{-8}=0,600x10^{-3}, \qquad n_1+\ldots+n_n=n.

Аналогично рассчитываются вероятности мультиномиального распределения для всех других комбинаций случайных величин.

Свойства дисперсии мультиномиального распределения

Дисперсия мультиномиального распределения:

1) это случайная величина;

2) равна сумме дисперсий случайных величин мультиномиального распределения

D(X_1=n_1,\ldots, X_k=n_k)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i,

поскольку случайные величины распределения определены на непересекающихся пространствах элементарных событий

\sum_{i=1}^k\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1});

3) увеличивается с ростом числа случайных величин мультиномиального распределения, а дисперсии случайных величин мультиномиального распределения убывают с возрастанием своих порядковых номеров, причём дисперсия первой случайной величины мультиномиального распределения совпадает с дисперсией первой случайной величины соответствующего биномиального распределения D (X_1=n_1)=np_1q_1,\quad 0\le n_1\le n, \quad q_1=1-p;

4) имеет множество значений из-за неоднозначности определения произведений p_iq_i, \quad i=1,\ldots,k;

5) максимальна при тех же условиях

X_1=n_1=1,\ldots, X_n=n_n=1, \quad k=n,

при которых максимальны одновременно и вероятность, и математическое ожидание мультиномиального распределения.

Максимальная дисперсия мультиномиального распределения

D(X_1=n_1,\ldots, X_k=n_k)_{max}=D(X_1=n_1=1,\ldots, X_n=n_n=1)=\frac{n^2-1}{2n}:

1) с возрастанием числа случайных величин распределения стремится к бесконечности, приближаясь к линейной зависимости  \frac{1}{2}n;

2) в  \frac{2(n^2-1)}{3n} раз превышает максимальную дисперсию соответствующего биномиального распределения  D(X_1=n_1,X_2=n_2 )_{max}=\left(\sum_{i=1}^2(n-n_{i-1})p_iq_i \right)_{max}=\frac{3}{4}.

Мультиномиальное распределение как процесс выполнения взаимосвязанных действий над объектами

Объекты: множество, его подмножества и их элементы как объективная реальность, существующая вне нас и независимо от нас.

Мультиномиальное распределение это:

конечного  n- множества различимых неупорядоченных элементов (2\le n<\infty),

  • разделение множества осуществляют выборками без возвращения (изъятые из множества элементы не возвращают обратно во множество до полного окончания экспериментов),
  • сумма объёмов всех выборок равна объёму исходного множества  \sum _{i=1}^k n_i =n, при этом только одна из выборок может иметь случайный объём в пределах всего объёма исходного множества  0\le n_i\le n,
  • попадание одного произвольного элемента множества в каждое из подмножеств принимают за событие успеха соответствующего Бернулли распределения ,
  • вероятности  0\le p_i<1, \quad i=1,\ldots,k\le n успехов Бернулли распределений нормируют  \sum _{i=1}^k p_i =1 согласно аксиоматике Колмогорова и сохраняют неизменными в процессе разбиения множества,
  • очерёдность следования выборок принимают за нумерацию случайных величин  X_1,\ldots,X_k мультиномиального распределения,
  • случайный объём каждой выборки  n_i, \quad i=1,\ldots, k\le n в момент времени  t_i принимают за числовое значение соответствующей

случайной величины X_i=n_i \mid X_{i-1}=n_{i-1} мультиномиального распределения при условии, что в предшествующий момент времени  t_{i-1} предшествующая случайная величина  X_{i-1} приняла числовое значение  n_{i-1},

  • результаты каждого разбиения обрабатывают вероятностными методами, определяют технические характеристике всех выборок и принимают их за технические характеристики случайных величин мультиномиального распределения,
  • математическое ожидание мультиномиального распределения имеет место, когда число выборок k равно числу элементов  n-множества k=n и численно равно \frac{n!}{n^n}, \quad 2\le n, <\infty, откуда  n=2, \quad \frac{n!}{n^n}=\frac{2!}{2^2}=\frac{1}{2} -

математическое ожидание биномиального распределения.

Мультиномиальное распределение и цепи Маркова: совпадения и отличия, частный случай

Мультиномиальное распределение появляется в последовательности зависимых случайных испытаний с конечным или счётным числом исходов. По сути — это цепь Маркова, где X_{i+1}-ая случайная величина зависима от предшествующей X_i-ой случайной величины

t_{i+1}>t_i,X_{i+1}=n_{i+1} | t_i<t_{i+1}, X_i=n_i,\quad i=1,\ldots,k \le n

следующим образом: X_{i+1}-ая случайная величина в t_{i+1}-ый момент времени принимает числовое значение, равное n_{i+1},при условии, что в t_i-ый момент времени X_i-ая случайная величина приняла числовое значение, равное n_i.

Случайные величины следуют одна за другой в порядке возрастания своих номеров.

X_0, называемое начальным распределением цепи Маркова, для мультиномиального распределения не имеет смысла t_0=0,\quad X_0=0, поскольку нумерация случайных величин начинается с единицы: t_1, X_1,\ldots, t_k, X_k.

Переходная вероятность мультиномиального распределения

P(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),\quad 0\le n_i\le n< \infty

является дискретной функцией времени. Следовательно, и мультиномиальное распределение

\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k},

как произведение его случайных величин, является дискретной функцией времени, иными словами, полиномиальное распределение является марковским процессом с дискретным временем.

Сумма всех вероятностей полиномиального распределения равна единице. Следовательно, полиномиальное распределение как цепь Маркова, является стахостической.

Однако в отличие от марковских цепей и марковских процессов полиномиальное распределение не обладает свойством отсутствия последействия, согласно которому для любого испытания допускается зависимость его от непосредственно предшествующего ему испытания (и только от него).

Причина заключается в том, что в мультиномиальном распределении имеется ещё одна зависимость — каждая случайная величина (кроме первой) зависима от всех ей предшествующих случайных величин.

Зависимость проявляется в том, что предшествующая случайная величина (X_i) мультиномиального распределения в соответствующий момент времени (t_i) сокращает на своё числовое значение (n_i) верхнюю границу пространства элементарных событий следующей за ней случайной величины X_{i+1}):

\Omega_{i+1}(t_{i+1}, X_{i+1}=n_{i+1} \mid t_i,X_i=n_i)=[0 \le n_{i+1} \le n-\ldots-n_i],\quad i=1,\ldots,k \le n.

В частном случае, когда k= 2, имеет место биномиального распределения интерпретации 21-го века. С точки зрения цепей Маркова — биномиальное распределение интерпретации 21-го века — это простейший марковский процесс с дискретным временем, в котором:

вторая случайная величина зависима от первой (и только от неё)

t_2>t_i,X_2=n_2   \mid   t_i<t_2, X_1=n_1, \quad n_1+n_2=1;

всего лишь одна переходная вероятность

P(t_2,X_2=n_2  \mid  t_1,X_1=n_1);

процесс стахостический, поскольку сумма вероятностей равна единице p1 + p2 = 1;

как и в мультиномиальном распределении, начальное состояние цепи Маркова X_0, для биномиального распределения не имеет смысла t_0=0,\quad X_0=0, поскольку нумерация случайных величин начинается с единицы: t_1, X_1, \quad t_2, X_2.

Сравнительная оценка характеристик мультиномиальных распределений зависимых и независимых случайных величин

Цель сравнительной оценки показать, что мультиномиальное распределение зависимых случайных величин (таблица 3) соответствует, а мультиномиальное распределение независимых случайных величин (таблица 4) не соответствует современным требованиям аксиоматики Колмогорова. Сравнение выполнено на основе минимально необходимого набора параметров, который для каждого распределения и каждой его случайной величины включает в себя четыре параметра: пространство элементарных событий, вероятность, математическое ожидание и дисперсию.


Характеристики распределения X_i-ой случайной величины распределения
Пространство

элементарных

событий

\sum_{i=1}^k\Omega_i(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1}),

 2\le k\le n<\infty

\Omega_i(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

=[0\le n_i \le n-\ldots-n_{i-1}]

Вероятность \prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}

\prod_{i=1}^kP(t_i,X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

=\frac{n!}{n_1! \cdots n_k!} p_1^{n_1}\cdots p_k^{n_k}

Математическое

ожидание

\frac{n!}{n^n}, \quad k=n, \quad X_1=\ldots =X_n=1 E(t_i, X_i=n_i \mid t_{i-1},X_{i-1}=n_{i-1})=

 =(n-\ldots-n_{i-1})p_i

Дисперсия \sum_{i=1}^kD(t_i,X_i=n_i)=\sum_{i=1}^k(n-\ldots-n_{i-1})p_iq_i D(t_i,X_i=n_i)=( n-\ldots-n_{i-1})p_iq_i
Таблица 3 – Характеристики минимально необходимого набора параметров мультиномиального распределения зависимых случайных величин (настоящей интерпретации 21-го века)


Характеристики распределения X_i-ой случайной величины распределения
Пространство

элементарных событий

Произвольная последовательность

n независимых испытаний с несколькими

k взаимоисключающими исходами каждый

Произвольная последовательность

n независимых испытаний с несколькими

k взаимоисключающими исходами каждый

Вероятность P(X_1=n_1,\ldots,X_k=n_k)=

=\frac{n!}{n_1! \cdots n_k!}p_1^{n_1}\cdots p_k^{n_k}

P(X_i=n_i)= {n\choose n_i} p_i^{n_i}q_i^{n-n_i}
Математическое

ожидание

не определено np_i, \quad q_i=1-p_i
Дисперсия не определена np_iq_i
Таблица 4 – Характеристики минимально необходимого набора параметров мультиномиального распределения независимых случайных величин (традиционной интерпретации 20-го века)


Мультиномиальное распределение зависимых случайных величин (настоящей интерпретации 21-го века)

Пространство элементарных событий распределения это совокупность пространств элементарных событий его случайных величин, представленных в виде дискретной временной последовательности i=1,\ldots,k точек, нумерация по возрастанию которых соответствует нумерации случайных величин распределения X_1,\ldots,X_k.

Вероятность распределения это произведение вероятностей зависимых его случайных величин. Зависимость заключается в том, что каждая предшествующая случайная величина распределения сокращает пространство элементарных событий последующей случайной величины на своё числовое значение.

Математическое ожидание распределения с ростом числа испытаний и числа случайных величин стремительно убывает к нулю от максимального значения, равного 0,5,\quad k=n=2 (случай биномиального распределения настоящей интерпретации).

Дисперсия распределения равна сумме дисперсий случайных величин на том основании, что все случайные величины распределения определены на не пересекающихся пространствах элементарных событий.

Все характеристики мультиномиального распределения интерпретации соответствуют требованиям аксиоматики Колмогорова.

Мультиномиальное распределение независимых случайных величин (традиционной интерпретации 20-го века)

Пространство элементарных событий едино и для распределения и для каждой его случайных величин. Это произвольная последовательность n независимых испытаний с k взаимоисключающими исходами каждый,  k\le n<\infty.

Вероятность распределения – произведение вероятностей независимых случайных величин.

Математическое ожидание распределения до сих пор не определено и в принципе не будет определено, если принимать случайные величины распределения за независимые. По этим причинам математические ожидания и дисперсии случайных величин определены не верно.

Дисперсия распределения до сих пор тоже не определена, но по неизвестным причинам. Но если бы и была определена, то была бы ложной из-за принятия независимости случайных величин.

Таким образом, в мультиномиальном распределении традиционной интерпретации:

ни одна характеристика из минимально необходимого набора за исключением вероятности распределения (и то верен лишь конечный результат) определена не верно;

математическое ожидание np_i каждой случайной величины X_i при условии n>p_i^{-1} оказывается больше единицы, что противоречит аксиоматики Колмогорова;

математическое ожидание распределения E(X_1=n_1\cdots X_k=n_k)=np_1\cdots np_k=n^kp_1\cdots p_k при неограниченном возрастании числа n независимых экспериментов стремится к бесконечности, что недопустимо, поскольку сумма всех вероятностей распределения, включая и его математическое ожидание, согласно аксиоматике Колмогорова обязана быть равной единице.

Погрешности традиционной интерпретации

Относительные погрешности традиционной интерпретации параметров полиномиального распределения по сравнению с настоящей интерпретацией

содержат три уровня:

низший (элементный) уровень — погрешности случайных величин полиномиального распределения (вероятности, математические ожидания и дисперсии);

средний (функциональный) уровень — погрешности самого полиномиального распределения (математические ожидания и дисперсии. Погрешность

вероятности полиномиального распределения отсутствует, поскольку в обеих его интерпретациях правые части формул полностью совпадают).

На этих двух уровнях погрешности вычисляются аналогично;

высший (системный или пользовательский) уровень — погрешности, связанные с использованием мультиномиального распределения в прикладных задачах (в частности, \chi^2 - критерий).

Низший (элементный) уровень

Погрешность \Delta вероятности P(X_i) i - ой случайной величины X_i мультиномиального распределения традиционной интерпретации относительно её настоящей интерпретации

\Delta{P(X_i)}= \frac{P(X_i=n_i)-P(X_i=n_i \mid X_{i-1}=n_{i-1})}{ P(X_i=n_i \mid X_{i-1}=n_{i-1})}=\frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}q_i^{n-n_i}-1

предельно отрицательная при достоверном событии (p_i=1, q_i=0)

\Delta{P(X_i)}=-1

и положительная при недостоверном событии (p_i=0, q_i=1)

\Delta{P(X_i)}= \frac{n!(n-\ldots-n_i)!}{(n-n_i)!(n-\ldots-n_{i-1})!}-1.

Точка перехода от отрицательных значений к положительным значениям погрешностей определяется равенством

q_i(\Delta{P=0})=\sqrt[n-n_i]\frac{(n-n_i)!}{ n_in!}.

Отрицательные погрешности не могут превышать 100%, а положительные — могут принимать сотни и тысячи процентов. Исключение составляет погрешность первой случайной величины. Её погрешность монотонно убывает от максимального отрицательного значения (-98%) при n_i=0 до нуля при n_i=n. Каждая последующая случайная величина имеет больше возможностей для изменения знака и числового значения своей погрешности. Погрешность последней случайной величины не зависит от очередности принятия конкретных значений всеми предшествующими ей случайными величинами. Если одна из случайных величин примет максимальное значение n_i=n, то у нее погрешность отсутствует, а у всех остальных случайных величин будут нулевые числовые значения и максимально отрицательные погрешности (см. таблицу 5).

Первая случайная величина X_1=n_1 Вторая случайная величина X_2=n_2 Третья случайная величина X_3=n_3 \chi^2 критерий
n_1 \Delta(P_1) Точка перехода n_2 \Delta(P_2) Точка перехода n_3 \Delta(P_3) Точка перехода \Delta(H_0) \Delta(\alpha)
0 -98,27 1,00 1 -97,40 1,00 9 +233,33 0,10 -27,95 -15,61
0 -98,27 1,00 9 -33,33 1,00 1 -73,98 1,00 +22,50 -15,61
9 -33,33 1,00 1 -73,99 0,77 0 -98,27 1,00  (0/0)-1 -15,61
1 -97,40 1,00 4 -85,37 0,92 5 +3218,52 0,33 -147,50 -75,54
5 -86,83 1,00 4 +267,24 0,54 1 -73,99 0,77 -73,42 -74,26
4 -91,22 1,00 5 +453,09 0,47 1 -73,99 0,77 -58,98 -56,52
2 -96,09 1,00 2 -93,73 0,94 6 +4048,15 0,26 +146,67 -70,09
2 -96,09 1,00 6 +48,15 0,60 2 +75,58 0,62 -128,80 -68,32
6 -80,25 1,00 2 -70,74 0,77 2 +75,58 0,62 -20,00 -67,35
3 -94,17 1,00 3 -79,33 0,84 4 +1743,62 0,41 -180,00 -59,79
3 -94,17 1,00 4 -47,32 0,74 3 +602,33 0,50 -187,97 -97,66
4 -91,22 1,00 3 -94,48 0,77 3 +603,33 0,50 -190,00 -94,97
7 -70,37 1,00 3 +602,23 0,50 0 -98,27 1,00  (0/0)-1 -52,55
7 -70,37 1,00 0 -98,27 1,00 3 +602,23 0,50 +134,17 -52,55
0 -98,27 1,00 3 -94,15 1,00 7 +3455,55 0,20 -56,79 -52,55
8 -55,56 1,00 1 -86,99 0,84 1 -73,99 0,77 +902,50 -34,31
1 -97,40 1,00 8 +122,22 0,45 1 -73,99 0,77 +0,90 -38,50
1 -97,40 1,00 1 -97,11 0,99 8 +1900,00 0,15 -16,25 -38,50
10 0,00 1,00 0 -98,27 1,00 0 -98,27 1,00  (0/0)-1 0,00
0 -98,27 1,00 10 0,00 1,00 0 -98,27 1,00 (0/0)-1 0,00
0 -98,27 1,00 0 -98,27 1,00 10 0,00 1,00 0,00 0,00
Таблица 5 - Погрешности вероятностей случайных величин \Delta(P_i) (в процентах), гипотезы \Delta(H_0) и уровня значимости \Delta(\alpha)\quad\chi^2 критерия мультиномиального распределения традиционной интерпретации

В точке математического ожидания мультиномиального распределения вероятности первой и i-ой случайных имеют вид

P(X_1=n_1=1)={n\choose1}n^{-1}, \quad P(X_i=n_i=1 \mid X_{i-1}=1)={n-i+1\choose1}n^{-1}, \quad i=1,\ldots, n.

Погрешность вероятности i-ой случайной величины в точке математического ожидания распределения

\Delta P(X_i)=\frac{n!(n-i)!}{(n-1)!(n-i+1)!}, \quad i=1,\ldots,n

увеличивается с возрастанием её номера, достигая максимума у последней случайной величины

\Delta P(X_i)_{max}=\Delta P(X_n=n_n=1 \mid X_{n-1}=n_{n-1}=1)=\frac{n!0!}{(n-1)!1!}=n-1, \quad  i=1,\ldots,n.

Аналогично определяются погрешности математического ожидания \Delta(EX_i) и дисперсии \Delta(DX_i) i-ой случайной величины X_i, \quad i=1,\ldots,k\le n

\Delta(EX_i)=\Delta(DX_i)=\frac{n}{n-\ldots-n_{i-1}}-1.

Погрешности математического ожидания и дисперсии отсутствуют только у первой случайной величины и достигают максимального значения у последней \Delta(EX_k)=\Delta(DX_k)=n-1.

Средний (функциональный) уровень

В традиционной интерпретации мультиномиального распределения его математическое ожидание и дисперсия имеют независимые составляющие, на основании чего за математическое ожидание и дисперсию распределения соответственно примем произведение этих составляющих

E(X_1\cdots X_k)=n^kp_1\cdots p_k,
D(X_1,\ldots, X_k)=n^k(p_1q_1+\ldots+p_kq_k).

Относительные погрешности математического ожидания \Delta E(X_1\cdots X_k) и дисперсии \Delta D(X_1,\ldots,X_k) распределения на

функциональном уровне будут

\Delta E(X_1\cdots X_k)=\frac{n^n}{n!}-1,
\Delta D(X_1\ldots X_k)=\frac{2^n}{n=1}-1.

Расчёты погрешностей (таблица 6) для числа k, равного n, случайных величин мультиномиального распределения: 2 (k=n=2 -случай биномиального распределения), 5, 10 и 20.

Погрешности математических ожиданий и дисперсий Число случайных величин
k=n - число случайных величин равно числу испытаний 2 5 10 20
\Delta_{M.O.}E(X_i)=\Delta_{M.O.}D(X_i)=\frac{i-1}{n-i+1}, \qquad i=1,\ldots,n 10 2 4.0×102 9.0×102 1.9×103
\Delta E(X_1\cdots X_k)=\frac{n^n}{n!}-1, \qquad 2\le k=n<\infty 10 2 2.5×102 2.7 ×105 4.3×1010
\Delta D(X_1\ldots X_k)=\frac{2^n}{n+1}-1 10 2 10 5 9.0×1010 4.9×1026
Таблица 6 - Относительные погрешности (в процентах) математических ожиданий и дисперсий случайных величин (первая строка формул и результатов) и математического ожидания и дисперсии мультиномиального распределения (вторая и третья строки)

Высший (системный или пользовательский) уровень

\chi^2 - критерий относится к непараметрическим критериям математической статистики и был предложен К. Пирсоном в 1903 г. для проверки гипотезы, согласно которой случайный вектор частот имеет независимые компоненты со средними значениями np_i^{(0)} и заданное мультиномиальное распределение традиционной интерпретации.

Замена опытных данных np_i^{(0)} мультиномиального распределения традиционной интерпретации средними значениями (n-\ldots-n_{i-1})p_i^{(0)} мультиномиального распределения настоящей интерпретации позволяет непосредственно использовать критерий для оценки погрешностей принятия мультиномиального распределения традиционной интерпретации за распределение независимых случайных величин.

В результате возникли две погрешности: погрешность гипотезы \Delta (H_0) и погрешность уровня значимости \Delta (\alpha), причем уровень значимости должен быть в пределах 0<\alpha<0,5 [1]

В \chi^2 - критерии отсутствуют погрешности, когда погрешность гипотезы и погрешность уровня значимости одновременно равны нулю. Теоретически это возможно в двух случаях: когда значения всех случайных величин за исключением последней равны нулю (последняя строка таблицы 5); в биномиальных распределениях с независимыми характеристиками случайных величин. Однако такие распределения не соответствуют требованиям аксиоматики Колмогорова.

Погрешности гипотезы и уровня значимости возрастают по мере уменьшения различия числовых значений случайных величин. При этом каждый раз, когда последняя случайная величина распределения принимает нулевое значение, у погрешности гипотезы возникает неопределённость типа (0/0)-1. Погрешность уровня значимости, оставаясь отрицательной, почти вдвое может превышать допустимый уровень значимости.

Причины возникновения погрешностей

изложены в соответствующем разделе статьи http://www.wikiznanie.ru/ru-wz/index.php?title=Полиномиальное_распределение_зависимых_случайных_величин

Литература


См.также