Алгоритм СТОЛП

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Строка 1: Строка 1:
-
'''Алгоритм СТОЛП''' (STOLP) - алгоритм отбора эталонных объектов для [[Метрический классификатор|метрического классификатора]]; алгоритм минимизации набора эталонов.
+
'''Алгоритм СТОЛП''' (STOLP) - [[Алгоритм|алгоритм]] отбора эталонных объектов для [[Метрический классификатор|метрического классификатора]]; алгоритм минимизации набора эталонов.
==Задача==
==Задача==
-
Дана выборка <tex>X^l</tex>. Необходимо оставить в качестве обучающей выборки только ее часть, не ухудшая качества классификации, то есть построить множество эталонов, не менее чем по одному эталону на класс.
+
Дана выборка <tex>X^l</tex>. Необходимо оставить в качестве [[Обучающая выборка|обучающей выборки]] только ее часть, не ухудшая качества [[Классификация|классификации]], то есть построить множество эталонов, не менее чем по одному эталону на класс.
==Эталоны==
==Эталоны==
-
*Эталонами для i-го класса могут служить такие объекты этого класса, что расстояние от любого принадлежащего ему объекта из обучающей выборки расстояние до ближайшего "своего" эталона больше, чем расстояние до ближайшего "чужого" эталона, то есть все объекты обучающей выборки классифицируются правильно по набору эталонов.
+
*Эталонами для i-го класса могут служить такие объекты этого класса, что [[Метрика|расстояние]] от любого принадлежащего ему объекта из [[Обучающая выборка|обучающей выборки]] расстояние до ближайшего "своего" эталона больше, чем расстояние до ближайшего "чужого" эталона, то есть все объекты [[Обучающая выборка|обучающей выборки]] [[Классификация|классифицируются]] правильно по набору эталонов.
*Кроме того, эталон можно определить как объект с большим положительным [[Отступ|отступом]].
*Кроме того, эталон можно определить как объект с большим положительным [[Отступ|отступом]].
Простой перебор для отбора эталонов не подходит, так как число способов выбора по t эталонов для каждого класса (число классов k) составляет <tex>\prod_{j=1}^k C_{m_j}^t</tex>. Но перебор вариантов можно сократить при помощи алгоритма STOLP
Простой перебор для отбора эталонов не подходит, так как число способов выбора по t эталонов для каждого класса (число классов k) составляет <tex>\prod_{j=1}^k C_{m_j}^t</tex>. Но перебор вариантов можно сократить при помощи алгоритма STOLP
Строка 14: Строка 14:
*Допустимая доля ошибок <tex>l_0</tex>
*Допустимая доля ошибок <tex>l_0</tex>
*Порог отсечения выбросов δ
*Порог отсечения выбросов δ
-
Кроме того, известны алгоритм классификации и формула вычисления величины риска (W) для объекта быть распознанным как объект чужого класса.
+
Кроме того, известны [[Алгоритм|алгоритм]] [[Классификация|классификации]] и формула вычисления величины риска (W) для объекта быть распознанным как объект чужого класса.
===Выход===
===Выход===
Строка 25: Строка 25:
**либо максимальной величиной риска<ref>{{книга |автор= Загоруйко Н. Г. |заглавие = Прикладные методы анализа данных и знаний. |место = Новосибирск |издательство = ИМ СО РАН |год = 1999}}</ref>
**либо максимальной величиной риска<ref>{{книга |автор= Загоруйко Н. Г. |заглавие = Прикладные методы анализа данных и знаний. |место = Новосибирск |издательство = ИМ СО РАН |год = 1999}}</ref>
* наращивание множества эталонов (пока число объектов, распознанных неправильно, не станет меньше <tex>l_0</tex>):
* наращивание множества эталонов (пока число объектов, распознанных неправильно, не станет меньше <tex>l_0</tex>):
-
** классифицировать объекты <tex>X^l</tex>, используя в качестве обучающей выборки Ω
+
** [[Классификация|классифицировать]] объекты <tex>X^l</tex>, используя в качестве обучающей выборки Ω
** пересчитать величины риска
** пересчитать величины риска
** среди объектов каждого класса, распознанных неправильно, выбрать объекты с максимальным W, добавляемые к Ω
** среди объектов каждого класса, распознанных неправильно, выбрать объекты с максимальным W, добавляемые к Ω
===Примечания===
===Примечания===
-
* возможен вариант, при котором в обучающей выборки все объекты выборки имеют W, большую порога отсечения выбросов. Тогда они окажутся отброшены на первом шаге алгоритма. В таком случае имеет смысл сначала сформировать начальное приближение Ω, а потом отбросить объекты с W, большей δ, кроме объектов, входящих в Ω
+
* возможен вариант, при котором в [[Обучающая выборка|обучающей выборке]] все объекты, принадлежащие одному из классов, имеют W, большую порога отсечения выбросов. Тогда они окажутся отброшены на первом шаге алгоритма. В таком случае имеет смысл сначала сформировать начальное приближение Ω, а потом отбросить объекты с W, большей δ, кроме объектов, входящих в Ω
* если для классификации объектов <tex>X^l</tex> при построении множества эталонов используется метод ближайшего соседа, то W можно вычислять как отношение расстояния от данного объекта до ближайшего объекта "своего" класса к расстоянию до ближайшего объекта "чужого" класса
* если для классификации объектов <tex>X^l</tex> при построении множества эталонов используется метод ближайшего соседа, то W можно вычислять как отношение расстояния от данного объекта до ближайшего объекта "своего" класса к расстоянию до ближайшего объекта "чужого" класса
* независимо от алгоритма, используемого для классификации <tex>X^l</tex>, в качестве W можно взять <tex>-M(x_i, \Omega)</tex>, где <tex>M(x_i, \Omega)</tex> - [[Отступ|отступ]] на объекте <tex>x_i</tex> при текущем наборе эталонов Ω
* независимо от алгоритма, используемого для классификации <tex>X^l</tex>, в качестве W можно взять <tex>-M(x_i, \Omega)</tex>, где <tex>M(x_i, \Omega)</tex> - [[Отступ|отступ]] на объекте <tex>x_i</tex> при текущем наборе эталонов Ω
 +
==Особенности алгоритма==
 +
* Результат работы алгоритма - разбиение всего множества объектов <tex>X^l</tex> на эталонные, шумовые (выбросы) и неинформативные.
 +
* Алгоритм STOLP имеет относительно низкую эффективность, так как на каждой итерации для присоединения очередного эталона необходимо заново классифицировать все объекты, еще не ставшие эталонами и считать на них величину риска. Для ускорения работы можно добавлять по несколько далеко отстоящих друг от друга эталонов, не пересчитывая величины риска.
==Литература==
==Литература==

Версия 15:23, 28 декабря 2009

Алгоритм СТОЛП (STOLP) - алгоритм отбора эталонных объектов для метрического классификатора; алгоритм минимизации набора эталонов.

Содержание

Задача

Дана выборка X^l. Необходимо оставить в качестве обучающей выборки только ее часть, не ухудшая качества классификации, то есть построить множество эталонов, не менее чем по одному эталону на класс.

Эталоны

  • Эталонами для i-го класса могут служить такие объекты этого класса, что расстояние от любого принадлежащего ему объекта из обучающей выборки расстояние до ближайшего "своего" эталона больше, чем расстояние до ближайшего "чужого" эталона, то есть все объекты обучающей выборки классифицируются правильно по набору эталонов.
  • Кроме того, эталон можно определить как объект с большим положительным отступом.

Простой перебор для отбора эталонов не подходит, так как число способов выбора по t эталонов для каждого класса (число классов k) составляет \prod_{j=1}^k C_{m_j}^t. Но перебор вариантов можно сократить при помощи алгоритма STOLP

Алгоритм STOLP

Вход

  • Выборка X^l
  • Допустимая доля ошибок l_0
  • Порог отсечения выбросов δ

Кроме того, известны алгоритм классификации и формула вычисления величины риска (W) для объекта быть распознанным как объект чужого класса.

Выход

Построить множество эталонов Ω∈Xl

Описание алгоритма

  • отбросить выбросы (объекты X^l с W, большей некоторой константы δ)
  • сформировать начальное приближение Ω - выбрать из каждого класса по объекту, обладающему
    • минимальной величиной риска[1]
    • либо максимальной величиной риска[1]
  • наращивание множества эталонов (пока число объектов, распознанных неправильно, не станет меньше l_0):
    • классифицировать объекты X^l, используя в качестве обучающей выборки Ω
    • пересчитать величины риска
    • среди объектов каждого класса, распознанных неправильно, выбрать объекты с максимальным W, добавляемые к Ω

Примечания

  • возможен вариант, при котором в обучающей выборке все объекты, принадлежащие одному из классов, имеют W, большую порога отсечения выбросов. Тогда они окажутся отброшены на первом шаге алгоритма. В таком случае имеет смысл сначала сформировать начальное приближение Ω, а потом отбросить объекты с W, большей δ, кроме объектов, входящих в Ω
  • если для классификации объектов X^l при построении множества эталонов используется метод ближайшего соседа, то W можно вычислять как отношение расстояния от данного объекта до ближайшего объекта "своего" класса к расстоянию до ближайшего объекта "чужого" класса
  • независимо от алгоритма, используемого для классификации X^l, в качестве W можно взять -M(x_i, \Omega), где M(x_i, \Omega) - отступ на объекте x_i при текущем наборе эталонов Ω

Особенности алгоритма

  • Результат работы алгоритма - разбиение всего множества объектов X^l на эталонные, шумовые (выбросы) и неинформативные.
  • Алгоритм STOLP имеет относительно низкую эффективность, так как на каждой итерации для присоединения очередного эталона необходимо заново классифицировать все объекты, еще не ставшие эталонами и считать на них величину риска. Для ускорения работы можно добавлять по несколько далеко отстоящих друг от друга эталонов, не пересчитывая величины риска.

Литература


См. также

Метрический классификатор

Отступ

алгоритм FRiS-СТОЛП


Данная статья является непроверенным учебным заданием.
Студент: Участник:LuarSoll
Преподаватель: Участник:Константин Воронцов
Срок: 31 декабря 2009

До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}.

См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе.


Личные инструменты