Метод Парзеновского окна (пример)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Алгоритм отыскания оптимальных параметров)
Строка 12: Строка 12:
{| class="wikitable" style="text-align: center;"
{| class="wikitable" style="text-align: center;"
|- bgcolor="#cccccc"
|- bgcolor="#cccccc"
-
! width=10 % |#
+
! width=20 % |Название алгоритма
-
! width=40 % |ядро <tex>K(r)</tex>
+
! width=15 % |Стоимость ошибкок при обучении
-
! width=50 % |формула
+
! width=15 % |Стоимость ошибкок на контроле
 +
 
|-
|-
-
| '''1''' || Епанечникова || <tex>K_1(r)=E(r)=\frac{3}{4}(1-r^2){[}{|}r{|}<=1{]}</tex>
+
| Discrim || 0.509 || 0.535
|-
|-
-
| '''2''' || Квартическое || <tex>K_2(r)=Q(r)=\frac{15}{16}(1-r^2)^2{[}{|}r{|}<=1{]}</tex>
+
| Quadisc || 0.431 || 0.619
|-
|-
-
| '''3''' || Треугольное || <tex>K_3(r)=T(r)=(1-{|}r{|}){[}{|}r{|}<=1{]}</tex>
+
| Logdisc || 0.499 || 0.538
|-
|-
-
| '''4''' || Гауссовское || <tex>K_4(r)=G(r)=(2\pi)^{(-\frac{1}{2})}exp(-\frac{1}{2}r^2)</tex>
+
| SMART || 0.389 || 0.601
|-
|-
-
| '''5''' || Прямоугольное || <tex>K_5(r)=\Pi(r)=\frac{1}{2}{[}{|}r{|}<=1{]}</tex>
+
| ALLOC80 || 0.597 || 0.584
|-
|-
-
|}
+
| k-NN || 0.000 ||0.694
-
Получившееся выражение имеет достаточно понятный вид:
+
|-
-
<center><tex>(h^{*},K^{*}_s(r))=\arg{ } \max_{\small s\in\{1,2,3,4,5\}} \max_{h\in\delta{}H} \sum_{i=1}^l \log \hat{p}_h (x_i;X^{m}{/}x_i). </tex></center>
+
|k-NN,k=17, eucl,std || - || 0.411
 +
|-
 +
| CASTLE || 0.582 || 0.583
 +
|-
 +
| CART || 0.581 || 0.613
 +
|-
 +
| IndCART || 0.069 || 0.761
 +
|-
 +
| NewID || 0.000 || 0.925
 +
|-
 +
| AC2 || 0.000 || 0.878
 +
|-
 +
| Baytree || 0.126 || 0.778
 +
|-
 +
| NaiveBay || 0.600 ||0.703
 +
|-
 +
| CN2 || 0.000 ||0.856
 +
|-
 +
| C4.5 || 0.640 || 0.985
 +
|-
 +
| ITrule || * || 0.879
 +
|-
 +
| Cal5 || 0.600 || 0.603
 +
|-
 +
| Kohonen || 0.689 || 1.160
 +
|-
 +
| DIPOL92 || 0.574 ||0.599
 +
|-
 +
| Backprop || 0.446 || 0.772
 +
|-
 +
| RBF || 0.848 || 0.971
 +
|-
 +
| LVQ || 0.229 || 0.963
 +
|-
 +
| Default || 0.700 || 0.700
 +
|-
 +
| WKNN, std, Add || 0.523 || 0.836
 +
|-
 +
|}
== Вычислительный эксперимент ==
== Вычислительный эксперимент ==

Версия 19:26, 25 июня 2009

Метод Парзеновского окна принадлежит к непараметрическим методам классификации и представляет собой одну из возможных реализаций байесовского подхода к решению задачи классификации. Он естественным образом возникает при предположении о байесовости вероятностных распределений объектов. В методе производится классификация объекта по находящимся на некотором расстоянии от него объектах с весом, зависящим от расстояния. Алгоритм имеет ряд параметров, которые будут более детально рассмотрены в последующих разделах.

Содержание

Постановка задачи разделения классов методом парзеновского окна

Пусть у нас задана выборка \{(\mathbf{x}_i,y_i)\}_{i=1}^m, где X^m = \{\mathbf{x}_i\}_{i=1}^m - множество объектов, а Y^m = \{\mathbf{y}_i\}_{i=1}^m - множество ответов на этих объектах. Кроме того, задан объект x_0, который небоходимо классифицировать с помощью алгоритма a(x;X^{l},h). Тогда если задана парзеновская оценка плотности
\hat{p}_{y,h}=\frac{1}{l_y V(h)}\sum_{i=1}^l {[}y_i = y{]} K\left(\frac{\ro{}(x,x_i)}{h}\right),
где V(h) - некоторая функция от ширины окна, а l_y - дополнительный параметр, зависящий от класса, то задача состоит в том, что бы подобрать параметр h, ширину окна, и K, ядерную функцию, таким образом, что бы при классификации с помощью метода парзеновского окна функционал качества достигал бы своего максимума при работе алгоритма с заданными параметрами:
a(x;X^{l},h)=\arg \max_{y\in Y} \lambda_{y} \sum_{i=1}^l {[}y_i = y{]} K\left(\frac{\ro{}(x,x_i)}{h}\right).

В этой формуле \lambda_{y} - цена правильного ответа для каждого класса из Y

Алгоритм отыскания оптимальных параметров

Чтобы найти ширину окна и наиболее подходящий нам тип ядра, мы воспользуемся принципом максимального правдоподобия и исключением объектов по одному leave-one-out:

h^{*}=\arg{ } \max_{h} \sum_{i=1}^l \log \hat{p}_h (x_i;X^{m}{/}x_i).

То есть, мы будем восстанавливать значение класса для одного объекта из нашей выборки и максимизировать логарифм количества правильных ответов при исключении по очереди всех объектов выборки. Максимизация этого значения происходит по двум параметрам - ширине окна h и типу ядерной функции. Ширину окна мы можем подобрать из некоторого диапазона \delta{}H, полученного из эмпирических предположений. Ядро выбирается из нижеприведенного набора ядер:

Название алгоритма Стоимость ошибкок при обучении Стоимость ошибкок на контроле
Discrim 0.509 0.535
Quadisc 0.431 0.619
Logdisc 0.499 0.538
SMART 0.389 0.601
ALLOC80 0.597 0.584
k-NN 0.000 0.694
k-NN,k=17, eucl,std - 0.411
CASTLE 0.582 0.583
CART 0.581 0.613
IndCART 0.069 0.761
NewID 0.000 0.925
AC2 0.000 0.878
Baytree 0.126 0.778
NaiveBay 0.600 0.703
CN2 0.000 0.856
C4.5 0.640 0.985
ITrule * 0.879
Cal5 0.600 0.603
Kohonen 0.689 1.160
DIPOL92 0.574 0.599
Backprop 0.446 0.772
RBF 0.848 0.971
LVQ 0.229 0.963
Default 0.700 0.700
WKNN, std, Add 0.523 0.836

Вычислительный эксперимент

Вычислительный эксперимент был проведен на реальных и модельных данных. В качестве модельных данных были взяты точки из двух двумерных нормальных распределений с разными математическими ожиданиями и дисперсиями (соответственно, были получены два класса объектов). После запуска алгоритма порядка 30 раз были получены следующие результаты:

Код получения данных:

%NORMGENERATION generation of normal data in 2 classes with different
%parameteres to be described in V: V(1,1) V(1,2) parameters of normal
%distribution for first class; V(2,1) V(2,2) parameters of normal
%distribution for first class; V(1,3) - number of properties; V(1,4),
%V(2,4) - number of objects in first and second class
X1=random('normal',V(1,1),V(1,2),V(1,3),V(1,4));
X2=random('normal',V(2,1),V(2,2),V(1,3),V(2,4));
X=[X1 , X2];
Y=[ones(1,V(1,4)) , zeros(1,V(2,4))];

Для каждой ядерной функции был проведен отдельный эксперимент, но из-за небольшого различия в результатах, мы их здесь не приводим. В каждом случае была использована своя матрица параметров двухмерного распределения V=\{M_1,\sigma_1^2,m,n_1{;}M_2,\sigma_2^2,m,n_2\}, где M_i - математическое ожидание для i-го класса, \sigma_i^2 -дисперсия, m=2 - размерность пространства признаков, n_i - количество элемнтов каждого класса

# M_1 \sigma_1^2 n_1 M_2 \sigma_2^2 n_2
1 0 4 60 20 4 50
2 0 4 60 5 4 50
3 0 4 60 0 12 50

Мы видим, что при хорошо разделимых классах, наш алгоритм работает замечательно при правильно подобранном значение k и любом ядре.

Во втором случае классы были сближены, что привело к некоторому неустранимому числу ошибок.

В третьем случае были взяты два класса с одинаковыми математическими ожиданиями, но разными дисперсиями. Алгоритм достаточно хорошо разделил и их.

Работа алгоритма на реальных данных

В качестве реальной задачи была выбрана задача классификации происхождения вина (3 класса) по трем признакам: общее содержание фенолов (Total phenols), содержание флавоноидных (Flavanoids) и нефлавоноидных (Nonflavanoid phenols) фенолов. Данные хорошо разделимы по этим трем признакам.


Мы видим, что наш алгоритм достаточно хорошо разделил объекты на три класса, сделав очень небольшое число ошибок.

Исходный код

Скачать листинги алгоритмов можно здесь parzenclassification.m, crossvalidation.m, fqual.m, kgenerate.m

Смотри также

Литература

  1. Воронцов К. В. Лекции по линейным алгоритмам классификации.
  2. Christopher M. Bishop Pattern Recognition and Machine Learning. — Hardcover. — 2006. — 740 с.
  3. Pascal Vincent, Yoshua Bengio Manifold Parzen Windows. — 2002.
  4. Erik Mcdermott, Shigeru Katagiri A Parzen Window Based Derivation Of Minimum Classification Error From The Theoretical Bayes Classification Risk. — 2002.


Данная статья является непроверенным учебным заданием.
Студент: Участник:Зайцев Алексей
Преподаватель: Участник:В.В. Стрижов
Срок: 28 мая 2009

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.

Замечания

Личные инструменты