Алгоритм СТОЛП
Материал из MachineLearning.
Строка 3: | Строка 3: | ||
==Назначение алгоритма== | ==Назначение алгоритма== | ||
Пусть дана [[Обучающая выборка|обучающая выборка]] <tex>X^l=(x_i, y_i)_{i=1}^l</tex>, где <tex>x_i</tex> - объекты, <tex>y_i=y^*(x_i)</tex> - классы, которым принадлежат эти объекты. Кроме того, задана [[Метрика|метрика]] <tex>\rho \: X \times X \rightarrow \mathbb{R}</tex>, такая, что выполняется [[Гипотеза компактности|гипотеза компактности]]. При классификации объектов [[Метрический классификатор|метрическим классификатором]], например, [[Метод ближайших соседей|методом ближайших соседей]] необходимо вычислять расстояния от классифицируемого объекта до всех объектов обучающей выборки. При этом время, затрачиваемое на это для каждого классифицируемого объекта, пропорционально размеру обучающей выборки. Кроме того, оказывается необходимым хранить большой объем данных. | Пусть дана [[Обучающая выборка|обучающая выборка]] <tex>X^l=(x_i, y_i)_{i=1}^l</tex>, где <tex>x_i</tex> - объекты, <tex>y_i=y^*(x_i)</tex> - классы, которым принадлежат эти объекты. Кроме того, задана [[Метрика|метрика]] <tex>\rho \: X \times X \rightarrow \mathbb{R}</tex>, такая, что выполняется [[Гипотеза компактности|гипотеза компактности]]. При классификации объектов [[Метрический классификатор|метрическим классификатором]], например, [[Метод ближайших соседей|методом ближайших соседей]] необходимо вычислять расстояния от классифицируемого объекта до всех объектов обучающей выборки. При этом время, затрачиваемое на это для каждого классифицируемого объекта, пропорционально размеру обучающей выборки. Кроме того, оказывается необходимым хранить большой объем данных. | ||
+ | |||
Но не все объекты обучающей выборки равноценны. Среди них есть и наиболее типичные представители классов, то есть ''эталоны'', и ''неинформативные'' объекты, при удалении которых из обучающей выборки качество классификации не изменится, и ''выбросы'', или ''шумовые объекты'' - объекты, находящиеся в гуще "чужого" класса, только ухудшающие качество классификации. | Но не все объекты обучающей выборки равноценны. Среди них есть и наиболее типичные представители классов, то есть ''эталоны'', и ''неинформативные'' объекты, при удалении которых из обучающей выборки качество классификации не изменится, и ''выбросы'', или ''шумовые объекты'' - объекты, находящиеся в гуще "чужого" класса, только ухудшающие качество классификации. | ||
+ | |||
Поэтому необходимо уменьшить объем обучающей выборки, оставив в ней только эталонные объекты для каждого класса. | Поэтому необходимо уменьшить объем обучающей выборки, оставив в ней только эталонные объекты для каждого класса. | ||
Версия 16:57, 29 декабря 2009
Алгоритм СТОЛП (STOLP) - алгоритм отбора эталонных объектов для метрического классификатора.
Содержание |
Назначение алгоритма
Пусть дана обучающая выборка , где - объекты, - классы, которым принадлежат эти объекты. Кроме того, задана метрика , такая, что выполняется гипотеза компактности. При классификации объектов метрическим классификатором, например, методом ближайших соседей необходимо вычислять расстояния от классифицируемого объекта до всех объектов обучающей выборки. При этом время, затрачиваемое на это для каждого классифицируемого объекта, пропорционально размеру обучающей выборки. Кроме того, оказывается необходимым хранить большой объем данных.
Но не все объекты обучающей выборки равноценны. Среди них есть и наиболее типичные представители классов, то есть эталоны, и неинформативные объекты, при удалении которых из обучающей выборки качество классификации не изменится, и выбросы, или шумовые объекты - объекты, находящиеся в гуще "чужого" класса, только ухудшающие качество классификации.
Поэтому необходимо уменьшить объем обучающей выборки, оставив в ней только эталонные объекты для каждого класса.
Эталоны
- Эталонами для i-го класса могут служить такие объекты этого класса, что расстояние от любого принадлежащего ему объекта из обучающей выборки расстояние до ближайшего "своего" эталона больше, чем расстояние до ближайшего "чужого" эталона, то есть все объекты обучающей выборки классифицируются правильно по набору эталонов.
- Кроме того, эталон можно определить как объект с большим положительным отступом.
Простой перебор для отбора эталонов не эффективен, так как число способов выбора по t эталонов для каждого класса (число классов k) составляет . Но перебор вариантов можно сократить при помощи алгоритма STOLP
Алгоритм STOLP
Вход
- Выборка
- Допустимая доля ошибок
- Порог отсечения выбросов δ
Кроме того, известны алгоритм классификации и формула вычисления величины риска (W) для объекта быть распознанным как объект чужого класса.
Выход
Построить множество эталонов Ω∈Xl
Описание алгоритма
- отбросить выбросы (объекты с W, большей некоторой константы δ)
- сформировать начальное приближение Ω - выбрать из каждого класса по объекту, обладающему
- наращивание множества эталонов (пока число объектов, распознанных неправильно, не станет меньше ):
- классифицировать объекты , используя в качестве обучающей выборки Ω
- пересчитать величины риска
- среди объектов каждого класса, распознанных неправильно, выбрать объекты с максимальным W, добавляемые к Ω
Примечания
- возможен вариант, при котором в обучающей выборке все объекты, принадлежащие одному из классов, имеют W, большую порога отсечения выбросов. Тогда они окажутся отброшены на первом шаге алгоритма. В таком случае имеет смысл сначала сформировать начальное приближение Ω, а потом отбросить объекты с W, большей δ, кроме объектов, входящих в Ω
- если для классификации объектов при построении множества эталонов используется метод ближайшего соседа, то W можно вычислять как отношение расстояния от данного объекта до ближайшего объекта "своего" класса к расстоянию до ближайшего объекта "чужого" класса
- независимо от алгоритма, используемого для классификации , в качестве W можно взять , где - отступ на объекте при текущем наборе эталонов Ω
Особенности алгоритма
- Результат работы алгоритма - разбиение всего множества объектов на эталонные, шумовые (выбросы) и неинформативные.
- Алгоритм STOLP имеет относительно низкую эффективность, так как на каждой итерации для присоединения очередного эталона необходимо заново классифицировать все объекты, еще не ставшие эталонами и считать на них величину риска. Для ускорения работы можно добавлять по несколько далеко отстоящих друг от друга эталонов, не пересчитывая величины риска.
Литература
См. также
Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |