Кривая ошибок
Материал из MachineLearning.
м  (→Описание алгоритма)  | 
				 (ссылки, дополнение)  | 
			||
| Строка 22: | Строка 22: | ||
<tex>TPR(a,X^l)=\frac{\sum_{i=1}^l [a(x_i) = +1][y_i = +1]}{\sum_{i=1}^l [y_i = +1]}</tex>   | <tex>TPR(a,X^l)=\frac{\sum_{i=1}^l [a(x_i) = +1][y_i = +1]}{\sum_{i=1}^l [y_i = +1]}</tex>   | ||
| + | |||
| + | Подробнее об этих функционалах можно прочесть [http://en.wikipedia.org/wiki/ROC_curve#Basic_concept здесь].  | ||
ROC-кривая показывает зависимость количества верно классифицированных положительных объектов из <tex>X^l</tex> (по оси Y) от количества неверно классифицированных отрицательных объектов из <tex>X^l</tex> (по оси X).  | ROC-кривая показывает зависимость количества верно классифицированных положительных объектов из <tex>X^l</tex> (по оси Y) от количества неверно классифицированных отрицательных объектов из <tex>X^l</tex> (по оси X).  | ||
| Строка 55: | Строка 57: | ||
В качестве функционала качества, инвариантного относительно выбора цен ошибок, используют площадь под RoC-кривой. Эту величину также называют AUC (Area Under Curve). Чем больше AUC, тем «лучше» алгоритм.  | В качестве функционала качества, инвариантного относительно выбора цен ошибок, используют площадь под RoC-кривой. Эту величину также называют AUC (Area Under Curve). Чем больше AUC, тем «лучше» алгоритм.  | ||
| + | |||
| + | == См. также ==  | ||
| + | |||
| + | * [[Линейный классификатор]]  | ||
| + | * [[Логистическая регрессия]]  | ||
| + | |||
| + | == Ссылки ==  | ||
| + | |||
| + | * [http://www.basegroup.ru/library/analysis/regression/logistic/ Логистическая регрессия и RoC-анализ]  | ||
| + | * [http://en.wikipedia.org/wiki/ROC_curve RoC-curve (english wikipedia)]  | ||
| + | |||
| + | [[Категория:Линейные классификаторы]]  | ||
| + | [[Категория:Машинное обучение]]  | ||
| + | [[Категория:Классификация]]  | ||
Версия 12:11, 7 января 2010
|   |  Данная статья является непроверенным учебным заданием.
 До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.  | 
Кривая ошибок или ROC-кривая – часто применяемый способ представления характеристик качества бинарного классификатора.
Содержание | 
Кривая ошибок в задаче классификации
Рассмотрим задачу логистической регрессии в случае двух классов. Традиционно, один из этих классов будем называть классом «с положительными исходами», другой - «с отрицательными исходами» и обозначим множество классов через . Рассмотрим линейный классификатор для указанной задачи: 
. 
Параметр  полагается равным 
, где 
 – штраф за ошибку на объекте класса 
, 
. Эти параметры выбираются из эмперических соображений и зависят от задачи.
Нетрудно заметить, что в задаче существенны не сами параметры , а их отношение: 
. Поэтому при решении задач используются функционалы, инвариантный, относительно этого отношения.
TPR и FPR
Рассмотрим два следующих функционала:
1. False Positive Rate доля объектов выборки  ошибочно отнесённых алгоритмом 
 к классу {+1}:
2. True Positive Rate доля объектов выборки  правильно отнесённых алгоритмом 
 к классу {+1}:
 
Подробнее об этих функционалах можно прочесть здесь.
ROC-кривая показывает зависимость количества верно классифицированных положительных объектов из  (по оси Y) от количества неверно классифицированных отрицательных объектов из 
 (по оси X).
Алгоритм построения RoC-кривой
На основе обучающей выборки  можно очень эффективно аппроксимировать RoC-кривую для заданного классификатора. Ниже приведён алгоритм, строящий эту зависимость.
Вход
-  Обучающая выборка 
 -  
— вероятность того, что
принадлежит классу {+1}.
 
Результат работы
 — последовательность из 
 точек на координатной плоскости из области 
, аппроксимирующая RoC-кривую по обучающей выборке 
.
Описание алгоритма
1. Вычислим количество представителей классов {+1} и {-1} в обучающей выборке:
   
;
2. Упорядочим выборку 
 по убыванию значения 
;
3. Начальная точка кривой — 
;
4. Цикл для всех 
:
     Если 
, то сместиться вправо:
        
;
     иначе сместиться вверх:
        
;
Функционал качества
В качестве функционала качества, инвариантного относительно выбора цен ошибок, используют площадь под RoC-кривой. Эту величину также называют AUC (Area Under Curve). Чем больше AUC, тем «лучше» алгоритм.

