Пропорциональный выбор

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Пропорциональный выбор)
(Пропорциональный выбор)
Строка 22: Строка 22:
::<tex>\overline{\eps_p}=\sum \limits_{i=1}^{k}p_i\overline{\eps}^{(i)},</tex>
::<tex>\overline{\eps_p}=\sum \limits_{i=1}^{k}p_i\overline{\eps}^{(i)},</tex>
-
где <tex>\overline{\eps}^{(i)}</tex> определены согласно <tex>\overline{\eps}^{(i)}=\sum\limits_{j=1}^{n_j}\eps_j^{(i)}/n_i, \; 1\le i \le k,</tex> а <tex>n_i, \; 1 \le i \le k</tex>, задаются соотношением (1).
+
где <tex>\overline{\eps}^{(i)}</tex> определены согласно <tex>\overline{\eps}^{(i)}=\sum\limits_{j=1}^{n_j}\eps_j^{(i)}/n_i, \; 1\le i \le k,</tex> а <tex>n_i, \; 1 \le i \le k</tex>, задаются соотношением (1). В силу <tex>E(\overline{\eps_r})=a</tex>:
-
 
+
 +
::<tex>E(\overline{\eps_p})=a,</tex> и согласно <tex>E[(\eps_r-a)^2]=\sum\limits_{i=1}^{k}p_i^2\frac {\sigma_i^2}{n_i}</tex>:
 +
::<tex>E[(\eps_p-a)^2]=\sum\limits_{i=1}^k p_i^2 \frac {\sigma_i^2}{n_i}</tex>.
Во многих практически важных случаях выбор чисел <tex>n_i</tex>, удовлетворяющих соотношению <tex>\sum\limits_{i=1}^k n_i=n</tex>, в значительной степени произволен. Представляется естественным пытаться выбрать <tex>n_i</tex> таким образом, чтобы минимизировать соотношение <tex>E[(\eps_r-a)^2]=\sum\limits_{i=1}^k p_i^2 \frac {\sigma_i^2}{n_i}</tex>.
Во многих практически важных случаях выбор чисел <tex>n_i</tex>, удовлетворяющих соотношению <tex>\sum\limits_{i=1}^k n_i=n</tex>, в значительной степени произволен. Представляется естественным пытаться выбрать <tex>n_i</tex> таким образом, чтобы минимизировать соотношение <tex>E[(\eps_r-a)^2]=\sum\limits_{i=1}^k p_i^2 \frac {\sigma_i^2}{n_i}</tex>.
{{Задание|Коликова Катя|Vokov|31 декабря 2009}}
{{Задание|Коликова Катя|Vokov|31 декабря 2009}}

Версия 18:21, 3 января 2010

Введение. Выборочный метод

Задана совокупность наблюдений, объединенных некоторым общим признаком. Предположим, что эта совокупность бесконечна в том смысле, что в принципе наблюдения можно продолжить в любой момент времени, как, например, в серии бросаний монеты. Из этой совокупности "случайным образом" извлекается последовательность наблюдений. Если число этих наблюдений достаточно велико, то частота появления событий, обладающих указанным признаком, незначительно отклоняется от некоторой постоянной, называемой эмпирической вероятностью. На практике ответить на вопрос о том, может ли выбор из нашей совокупности рассматриваться как случайный, нелегко. Чаще всего этой несколько расплывчатой формулировкой о случайном выборе пользуются тогда, когда нет оснований предполагать наличие "привилегированных" наблюдений. В этой связи часто говорят об "урновой" модели. Содержимое урны, например шары, неразличимые на ощупь, представляет совокупность, а извлечение шаров, которые мы предполагаем хорошо перемешанными, - случайный выбор.

Целью такого случайного выбора из совокупности является выяснение ее структуры, в частности определение эмпирической вероятности. Здесь отчасти используется то эвристическое соображение, что при бесконечно большом числе наблюдений можно точно определить значение эмпирической вероятности. Практически же проведение произвольно большого числа опытов или наблюдений связано с трудностями различных характеров. Так, проведение большого числа опытов наталкивается на техническую невыполнимость или на экономические затруднения, что приводит к ограничению числа наблюдений. Приближение к идеальным условиям, которое имеет место в случае игр на разорение, в большинстве практически важных ситуаций не имеет места.

Установилась следующая терминология. Бесконечная (гипотетическая) совокупность возможных наблюдений называется генеральной совокупностью, и результаты наблюдений, из нее извлеченных, называются выборкой из этой совокупности. Число наблюдений в выборке называют ее объемом. Понятие бесконечной совокупности представляет идеализацию действительного положения вещей, даже когда под этим понимается потенциальная возможность неограниченного повторения опытов. Практик рассматривает всякую совокупность, "достаточно большую" по сравнению с объемом имеющейся выборки, как бесконечную.

Итак, например, существуют выборки из конечной совокупности. Пусть задана конечная совокупность из N различных элементов x_1, ..., x_N. Из нее извлекается выборка объема n без возвращения, т. е. однажды выбранный элемент x_i удаляется из совокупности. В этом случае мы будем говорить, что задана выборка из конечной совокупности. Эта выборка является реализацией случайной величины (\eps_1, ..., \eps_n). Каждой выборке приписывается одинаковая вероятность. Величина, являющаяся средним арифметическим выборочных случайных величин, имеет математическое ожидание, совпадающее со средним совокупности. При N \to \infty "конечная совокупность превращается в бесконечную". Дисперсии выборочного среднего соответствует тогда дисперсия выборочного среднего для бесконечной совокупности.

Пропорциональный выбор

Пусть (\eps, \nu) обозначает двумерную случайную величину, причем распределение величины \nu дискретно:

W(\nu=i)=p_i, \; p_i\ne 0,\; 1 \le i \le k, \; \sum \limits_{i=1}^{k}p_i=1, \; k \ge 2.

Предположим для простоты, что np_i, \; i = 1, ..., k , - целые числа, и положим

n_i=np_i, \; i=1, ... , k. \; \; (1)

Термин пропорциональный выбор объясняется частотным соотношением, согласно которому числа p_i приближенно равны отношению числа элементов в U_i к числу элементов в совокупности; так же соотносятся объем выборки, извлеченной из U_i, и объем всей выборки. Возьмем в определении \eps_r значения n_i из (1) и обозначим полученную величину через \overline{\eps_p}. Тогда

\overline{\eps_p}=\sum \limits_{i=1}^{k}p_i\overline{\eps}^{(i)},

где \overline{\eps}^{(i)} определены согласно \overline{\eps}^{(i)}=\sum\limits_{j=1}^{n_j}\eps_j^{(i)}/n_i, \; 1\le i \le k, а n_i, \; 1 \le i \le k, задаются соотношением (1). В силу E(\overline{\eps_r})=a:

E(\overline{\eps_p})=a, и согласно E[(\eps_r-a)^2]=\sum\limits_{i=1}^{k}p_i^2\frac {\sigma_i^2}{n_i}:
E[(\eps_p-a)^2]=\sum\limits_{i=1}^k p_i^2 \frac {\sigma_i^2}{n_i}.

Во многих практически важных случаях выбор чисел n_i, удовлетворяющих соотношению \sum\limits_{i=1}^k n_i=n, в значительной степени произволен. Представляется естественным пытаться выбрать n_i таким образом, чтобы минимизировать соотношение E[(\eps_r-a)^2]=\sum\limits_{i=1}^k p_i^2 \frac {\sigma_i^2}{n_i}.


Данная статья является непроверенным учебным заданием.
Студент: Участник:Коликова Катя
Преподаватель: Участник:Vokov
Срок: 31 декабря 2009

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты