| 
				     | 
			
		| Строка 1: | 
Строка 1: | 
| - | '''Сравнение работы ЕМ-алгоритма и k-means для смесей с экспоненциальным распределением компонент.''' (будет в заголовке)
  |   | 
|   |  |   |  | 
| - | В статье приведены примеры классификации ЕМ-алгоритмом и методом k ближайших соседей двумерной смеси, компоненты которой имеют экспоненциальное распределение.
  |   | 
| - | 
  |   | 
| - | ='''Краткое описание исследуемых алгоритмов'''=
  |   | 
| - | ==ЕМ алгоритм==
  |   | 
| - | Основа EM-алгоритма - предположение, что исследуемое множество данных может быть представлено с помощью линейной комбинации распределений, а цель - оценка параметров распределения, которые максимизируют логарифмическую функцию правдоподобия, используемую в качестве меры качества модели.
  |   | 
| - | Пусть рассматривается смесь из <tex>k</tex> распределений, каждое описывается функцией правдоподобия <tex>p_j(x)</tex>
  |   | 
| - | 
  |   | 
| - | <center><tex>p(x) = \sum_{i=1}^k w_jp_j(x)</tex></center>
  |   | 
| - | 
  |   | 
| - | <tex>w_j</tex> - априорная вероятность <tex>j</tex>-й компоненты. Функции правдоподобия принадлежат параметрическому семейству распределений <tex>\varphi(x; \theta)</tex> и отличаются только значениями параметра <tex>p_j(x) = \varphi(x; \theta_j)</tex>
  |   | 
| - | 
  |   | 
| - | 
  |   | 
| - | 
  |   | 
| - | '''Вывод формул для алгоритма'''
  |   | 
| - | ----
  |   | 
| - | '''Вход''': 
  |   | 
| - | 
  |   | 
| - | <tex> R, M, Delta, L</tex> – общая длина выборки
  |   | 
| - | 
  |   | 
| - | '''Выход''': 
  |   | 
| - | 
  |   | 
| - | <tex>\theta = (\omega_1, \omega_2, ..., \omega_k, \theta_1, \theta_2, ..., \theta_k)</tex> параметры распределения и весы компонент.
  |   | 
| - | 
  |   | 
| - | '''Оценка максимального правдоподобия (ОМП) θ'''
  |   | 
| - |  
  |   | 
| - | для одно- и двумерного случая экспоненциального распределения.
  |   | 
| - | 
  |   | 
| - | Необходимо максимизировать 
  |   | 
| - | 
  |   | 
| - | <center><tex>Q(\Theta) = ln\prod_{i=1}^m p(x_i)=\sum_{i=1}^mln\sum_{j=1}^k\omega_jp_j(x_i) \rightarrow ma\limits_{\Theta}x</tex></center>
  |   | 
| - | 
  |   | 
| - | Из Лагранжиана следует:
  |   | 
| - | 
  |   | 
| - | <tex>
  |   | 
| - | \omega_j=\frac{1}m \sum_{i=1}^mg_{ij} </tex>    j=1,...,k 
  |   | 
| - | 
  |   | 
| - | <tex>\frac{\partial L}{\partial\theta_j}=\frac{\partial}{\partial\theta_j}\sum_{i=1}^mg_{ij}lnp_j(x_i)=0,</tex>     j=1,...,k.
  |   | 
| - | 
  |   | 
| - | С учетом <tex>p_j(x)\equiv \varphi(x, \theta_j) = \theta_j \cdot exp{-\theta_j \cdot x}</tex> получаем ОМП <tex>\theta </tex> для экспоненциального закона:
  |   | 
| - | 
  |   | 
| - | <center><tex>\frac{\partial}{\partial \theta_j}\sum_{i=1}^mg_{ij}(ln \theta_j - \theta_jx_i)=0</tex></center>
  |   | 
| - | 
  |   | 
| - | ''В одномерном случае'':
  |   | 
| - | 
  |   | 
| - | <tex>\theta_j=\frac{\sum_{i=1}^mg_{ij}}{\sum_{i=1}^mx_ig_{ij}}</tex>
  |   | 
| - | 
  |   | 
| - | ''В двумерном случае'':
  |   | 
| - | 
  |   | 
| - | <tex>\theta_{jx}=\frac{\sum_{i=1}^mg_{ij}}{\sum_{i=1}^mx_ig_{ij}}\\\theta_{jy}=\frac{\sum_{i=1}^mg_{ij}}{\sum_{i=1}^my_ig_{ij}}</tex>
  |   | 
| - | 
  |   | 
| - | ==k-means (k ближайших соседей)==
  |   | 
| - | 
  |   | 
| - | Метод <tex>K</tex> ближайших соседей - это [[Метрический классификатор|метрический алгоритм классификации]], основанный на оценивании сходства объектов. Классифицируемый объект относится к тому классу, которому принадлежат ближайшие к нему объекты [[выборка|обучающей выборки]].
  |   | 
| - | 
  |   | 
| - | '''Постановка задачи'''
  |   | 
| - | 
  |   | 
| - | ----
  |   | 
| - | 
  |   | 
| - | Пусть <tex>X \in \mathbb{R}^n\</tex> - множество объектов; <tex>Y</tex> - множество допустимых ответов. Задана обучающая выборка <tex>\{(x_i,y_i)\}_{i=1}^\ell</tex>. Задано множество объектов <tex>\ X^m =\{x_i\}_{i=1}^m</tex>.
  |   | 
| - | Требуется найти множество ответов <tex>\{y_i\}_{i=1}^m</tex> для объектов <tex>\{x_i\}_{i=1}^m</tex>.
  |   | 
| - | 
  |   | 
| - | На множестве объектов задается некоторая функция расстояния, в данном случае  <tex>\rho(x,x')</tex> - максимум модулей
  |   | 
| - | <center><tex>\rho(x,x') = \max_{i} |x_i-x'_i|;</tex></center>
  |   | 
| - | 
  |   | 
| - | Для произвольного объекта <tex>x\in X</tex> расположим
  |   | 
| - | объекты обучающей выборки <tex>x_i</tex> в порядке возрастания расстояний до <tex>x</tex>:
  |   | 
| - | ::<tex>\rho(x,x_{1; x}) \leq  \rho(x,x_{2; x}) \leq \cdots \leq \rho(x,x_{m; x}),</tex>
  |   | 
| - | где через <tex>x_{i; x}</tex> обозначается 
  |   | 
| - | тот объект обучающей выборки, который является <tex>i</tex>-м соседом объекта <tex>x</tex>.
  |   | 
| - | Аналогично для ответа на <tex>i</tex>-м соседе:
  |   | 
| - | <tex>y_{i; x}</tex>.
  |   | 
| - | 
  |   | 
| - | Таким образом, произвольный объект <tex>x</tex> порождает свою перенумерацию выборки.
  |   | 
| - | В наиболее общем виде [[алгоритм]] ближайших соседей есть
  |   | 
| - | ::<tex>a(x) = \mathrm{arg}\max_{y\in Y} \sum_{i=1}^m \bigl[ x_{i; x}=y \bigr] w(i,x),</tex>
  |   | 
| - | где <tex>w(i,x)</tex> — заданная ''весовая функция'',
  |   | 
| - | которая оценивает степень важности <tex>i</tex>-го соседа для классификации объекта <tex>u</tex>.
  |   | 
| - | 
  |   | 
| - | В рассматриваемом примере <tex>w(i,x) = [i\leq k] ,</tex> что соответствует методу <tex>k</tex> ближайших соседей.
  |   | 
| - | 
  |   | 
| - | =Примеры работы=
  |   | 
| - | На графиках, отображающих компоненты, показано по одной из-за большого разброса предельных значений классифицируемых объектов. Следует обратить внимание на интервал, содержащий всю выборку.
  |   | 
| - | 
  |   | 
| - | ==Пример №1 (две компоненты)==
  |   | 
| - | Смесь из двух компонент по 500 элементов.
  |   | 
| - | 
  |   | 
| - | <tex>\theta_x=1, \theta_y=0,01</tex>
  |   | 
| - | 
  |   | 
| - | <tex>\theta_x=0,01, \theta_y=1</tex>
  |   | 
| - | 
  |   | 
| - | [[Изображение:1,_001.png|300px|Распределение theta_x=1 theta_y=0,01]]
  |   | 
| - | [[Изображение:Rev1,_001.png|300px|Распределение theta_x=0,01 theta_y=1]]
  |   | 
| - | 
  |   | 
| - | В результате работы ЕМ-алгоритма с последовательным добавлением компонент с параметрами R = 30, M = 20, Delta = 0,001 восстанавливается <tex>\theta_1 = (1.01831, 0.0101044)</tex>, <tex>\theta_2=(0.0104461, 0.917726)</tex>
  |   | 
| - | 
  |   | 
| - | '''Количество ошибок при классификации:'''
  |   | 
| - | 
  |   | 
| - | ''ЕМ'' 1 из 500 (0.2%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=1)'' 0 из 500
  |   | 
| - | 
  |   | 
| - | ''k-means (k=5)'' 1 из 500 (0.2%)
  |   | 
| - | 
  |   | 
| - | ==Пример №2 (три компоненты)==
  |   | 
| - | Смесь из трех компонент по 500 элементов
  |   | 
| - | 
  |   | 
| - | [[Изображение:Image006.gif|550px|Распределение theta_x=0,03 theta_y=2]]
  |   | 
| - | 
  |   | 
| - | [[Изображение:Image007.gif|550px|Распределение theta_x=1 theta_y=0,04]]
  |   | 
| - | 
  |   | 
| - | [[Изображение:Image008.gif|550px|Распределение theta_x=7 theta_y=7]]
  |   | 
| - | 
  |   | 
| - | В результате работы ЕМ-алгоритма с последовательным добавлением компонент с параметрами R = 30, M = 40, Delta = 0,001 восстанавливается 
  |   | 
| - | 
  |   | 
| - | <tex>\theta_1 = (0.0309435, 2.05189)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_2=(1.05747, 0.0394895)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_3=(6.56629, 6.79212)</tex>
  |   | 
| - | 
  |   | 
| - | '''Количество ошибок при классификации:'''
  |   | 
| - | 
  |   | 
| - | ''ЕМ'' 6 из 500 (1.2%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=1)'' 12 из 500 (2.2%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=5)'' 18 из 500 (3.6%)
  |   | 
| - | 
  |   | 
| - | ==Пример №3 (четыре компоненты)==
  |   | 
| - | Смесь из четырех компонент по 500 элементов. Добавлена компонента с <tex>\theta_x=15,\theta_y=15</tex>
  |   | 
| - | 
  |   | 
| - | [[Изображение:Image012.gif|550px|Распределение theta_x=15 theta_y=15]]
  |   | 
| - | 
  |   | 
| - | В результате работы ЕМ-алгоритма с последовательным добавлением компонент с параметрами R = 15, M = 30, Delta = 0,001 восстанавливается 
  |   | 
| - | 
  |   | 
| - | <tex>\theta_1 = (0.0300939,    1.96699)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_2=(1.02279,    0.041855)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_3=(6.1976,    6.23407)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_4=(14.8266,    12.9193)</tex>
  |   | 
| - | 
  |   | 
| - | '''Количество ошибок при классификации:'''
  |   | 
| - | 
  |   | 
| - | ''ЕМ'' 37 из 500 (7.4%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=1)'' 9 из 500 (1.8%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=5)'' 26 из 500 (5.2%)
  |   | 
| - | 
  |   | 
| - | ==Пример №4 (пять компонент)==
  |   | 
| - | Смесь из пяти компонент по 500 элементов. Добавили компоненту с <tex>\theta_x=75,\theta_y=3</tex>
  |   | 
| - | 
  |   | 
| - | [[Изображение:Image026.gif|550px|Распределение theta_x=75 theta_y=3]]
  |   | 
| - | 
  |   | 
| - | В результате работы ЕМ-алгоритма с последовательным добавлением компонент с параметрами R = 7, M = 20, Delta = 0,001 восстанавливается 
  |   | 
| - | 
  |   | 
| - | <tex>\theta_1 = (0.0311774, 1.88446)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_2=(1.00218, 0.0372523)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_3=(5.9531, 6.10164)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_4=(14.6564, 13.2964)</tex>,
  |   | 
| - | 
  |   | 
| - | <tex>\theta_5 = (81.433, 3.10389)</tex>,
  |   | 
| - | 
  |   | 
| - | '''Количество ошибок при классификации:'''
  |   | 
| - | 
  |   | 
| - | ''ЕМ'' 243 из 500 (48.6%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=1)'' 35 из 500 (7%)
  |   | 
| - | 
  |   | 
| - | ''k-means (k=5)'' 22 из 500 (4.2%)
  |   | 
| - | 
  |   | 
| - | = Смотри также =
  |   | 
| - | 
  |   | 
| - | =Литература=
  |   | 
| - | *К. В. Воронцов, Лекции по статистическим (байесовским) алгоритмам классификации
  |   | 
| - | 
  |   | 
| - | 
  |   | 
| - | 
  |   | 
| - | {{Задание|Platonova.Elena|Константин Воронцов|6 января 2010}}
  |   |