Участник:Tolstikhin/Песочница

Материал из MachineLearning.

< Участник:Tolstikhin(Различия между версиями)
Перейти к: навигация, поиск
(Изложение алгоритма)
(Параметры решающих деревьев.)
 
(21 промежуточная версия не показана)
Строка 1: Строка 1:
-
== Введение ==
+
Решающие деревья - разделение объектов.
-
В этой статье будeт рассматриваться задача поиска совместной подсистемы максимального веса
+
В этой статье будет рассмотрен один из возможных вариантов настройки бинарных решающих деревьев, основанный на
-
для систем линейных уравнений и неравенств ([http://risorse.dei.polimi.it/maxfs/index.html MaxFS problem]).
+
''разделении объектов''.
-
Вначале будут введены общие определения и приведены некоторые результаты касательно сложности решения данной задачи.
+
Будет рассматриваться задача классификации с двумя классами в n-мерном пространстве объектов.
-
Дальше будут сформулированы вспомогательные утверждения, на основе которых мы сможем построить достаточно эффективный алгоритм, решающий задачу.
+
-
Изложение алгоритма будет сопровождаться численными примерами его работы.
+
Напомним, что задачей настройки является получение параметров модели на основе обучающей выборки <tex>X^l</tex>.
-
=== Постановка задачи ===
+
== Метод разделения объектов ==
-
Пусть дана произвольная ''несовместная'' система линейных неравенств
+
Для описания метода разделения объектов для начала введём понятие ''отступа'' объектов обучающей выборки.
-
<tex>a_{i1}x_1+\dots+a_{in}x_n\geq b_i,\ i=1,2,\dots,m\ (1)</tex>
+
Предположим, что мы имеем алгоритм классификации вида <tex>a(x)=arg\max_{y\in Y}G_y(x)</tex>, где x - классифицирумый объект, y - класс из множества
 +
классов Y, а <tex>G_y(x)</tex> - ключевая величина, являющаяся оценкой принадлежности объекта x классу y. В этом случае ''отступом'' обекста <tex>x_i\in X^l</tex>
 +
назовём величину <tex>M(x_i)=G_{y_i}(x_i)-\max_{y\in Y\setminus y_i}G_y(x_i)</tex>. Здесь <tex>y_i</tex> - класс, которому принадлежит объект обучающей выборки
 +
<tex>x_i</tex>.
 +
Грубо говоря, отсупом объекта является ''расстояние'' от него до границы, отделяющей объекты ''своего'' класса, от всех остальных.
-
или равенств
+
Понятие отступа лежит в основе метода разделения объектов. Его идеей является максимизация отступа объектов обучающей выборки. Интуитивно ясно, что
 +
чем больше отступы объектов, тем надёжнее будет классификация, поскольку это означает, что есть достаточно большой ''зазор'' между двумя классами.
-
<tex>a_{i1}x_1+\dots+a_{in}x_n = b_i,\ i=1,2,\dots,m,</tex>
+
== Параметры решающих деревьев. ==
-
где <tex>a_{ij},\ b_i</tex> - конечные действительные числа, числа m и n фиксированы.
+
При построении решающих деревьев основными параметрами являются предикаты <tex>\phi_i(x)</tex>, соответствующие узлам деревьев, классы, приписанные терминальным вершинам и структура самого дерева.
 +
Под структурой в данном случае понимаются свойства дерева, как графа - его высота, число узлов, сбалансированность и так далее.
-
Задача MaxFs состоит в нахождении совместной подсистемы, имеющей максимальную мощность.
+
== Настройка параметров решающих деревьев методом разделения объектов. ==
 +
Как мы знаем, алгоритм классификации, реализуемый бинарными решающими деревьями, может быть записан в виде простого голосования конъюнкций:
-
Данная задача часто возникает при решении различных математических задач - в том числе при решении
+
:<tex>a(x)=arg\max_{y\in Y}\sum_{v\in T\\c_v=y}K_v(x)</tex>.
-
задач прогнозирования и распознавания.
+
-
Примером может служить разделение объектов 2х классов обучающей выборки
+
-
гиперплоскостью.
+
-
В случае, когда эту задачу не удаётся решить точно, мы хотим провести
+
-
гиперплоскость так, чтобы она допускала минимальное число ошибок.
+
-
== Сложность задачи ==
+
Поясним буквы, входящие в эту фурмулу.
 +
y - по-прежнему класс из множества классов Y. T - множество терминальных (листовых) вершин бинарного дерева, V - вершина дерева, а <tex>c_v</tex> -
 +
класс, соответствующий терминальной вершине v. <tex>K_v(x)</tex> - конъюнкция всех предикатов на пути от корня дерева к терминальной вершине v.
-
'''Задача выделения максимальной совместной подсистемы является NP-сложной'''. ([2])
+
Понятно, что напрямую воспользоваться методом разделения объектов в данном случае не получается, поскольку из всех конъюнкций, учавствующих в сумме,
 +
при фиксированном объекте ровно одна принимает значение 1.
 +
Мы немного изменим подход и будем использовать метод разделения объектов для настройки предикатов решающего дерева.
-
Посчитаем приблизительно сложность ''простого перебора''.
+
За основу синтеза решающего дерева взят жадный алгоритм, описанный в лекции [1] К.В. Воронцова.
-
Всего <tex>2^m-1</tex> подсистем.
+
=== Настройка предикатов. ===
-
Каждую подсистему надо проверить на совместность.
+
-
Например, методы, упомянутые в [1], требуют для определения совместности подсистемы состоящей из
+
-
<tex>l</tex> неравенств и имеющей ранг <tex>r</tex>,
+
-
<tex>\left(^l_r\right)\left(^n_r\right)O((l-r)r^3)</tex> операций.
+
-
Понятно, что на практике данный метод не годится.
+
В каждом узле дерева предлагается строить предикаты вида <tex>\phi(x)=[f_n(x)\leq a]</tex>, где <tex>f_n(x)</tex> - n-ый признак объекта х.
 +
Мы хотим найти одномерное разбиение объектов (по одной координате), которое будет соответствовать максимальным отступам объектов части обучающей выборки,
 +
попавшей в данный узел.
 +
В данном случае в качестве оценки принадлежности объекта x к классу y можно взять величину <tex>y(x-a)</tex>, если условиться, что у нас
 +
2 класса - <tex>Y=\{1,-1\}</tex>. (При этом в каждом узле элементы класса, среднее значение рассматриваемой координаты которого больше, помечать классом 1,
 +
а элементы второго класса - классом -1.)
-
Существует другой подход к получению точного решения.
+
Максимизация отступов в пределах одного признака сводится к нахождению такого a, что величины расстояний от элементов обучающей выборки до границы a, взятые
 +
с соответствующими знаками, максимальны. Как варианты можно максимизировать минимальный из отступов или сумму отступов по всем объектам.
 +
После этого остаётся максимизировать отступ по номеру признака - и мы имеем предикат <tex>\phi(x)=[f_n(x)<=a]</tex>.
-
Произвольный булев вектор <tex>(\alpha_1,...,\alpha_m)</tex> однозначно определяет подсистему <tex>Sub_{\alpha}</tex>
+
Стоит отметить, что выбранный вид предиката осуществляет разбиение выборки на прямоугольники со сторонами параллельными осям координат.
-
системы 1.
+
-
<tex>i</tex>-е неравенство входит в подсистему <tex>Sub_{\alpha}</tex> тогда и только тогда, когда <tex>\alpha_i=1</tex>.
+
-
Введём булеву функцию <tex>g</tex> на <tex>m</tex>-мерном булевом кубе, принимающую единицу на тех и только тех наборах
+
=== Настройка формы дерева. ===
-
<tex>\alpha</tex>, которые соответствуют несовместным системам <tex>Sub_{\alpha}</tex>.
+
-
Очевидно, что такая булева функция монотонна.
+
-
Исходная задача сводится к поиску максимального верхнего нуля монотонной функции <tex>g</tex>.
+
-
В книге [3] приведён алгоритм, решающий эту задачу.
+
-
В худшем случае он делает <tex>\left(2^m/sqrt{m}\right)</tex> шагов, где шаг - вычисление одного значения функции g.
+
-
Этот подход немного ускоряет решение задачи, но по-прежнему работает слишком медленно.
+
Форма дерева настраиватся автоматически при синтезе решающего дерева жадным алгоритмом.
 +
Мы будем рекурсивно в каждой вершине дерева делить часть обучающей выборки, попавшую в данный узел, получать предикаты описанным образом и наращивать
 +
сыновей вершины, если это надо. Причём условимся, что правым сыновьям вершины будут соответствовать объекты, на которых предикат принял значение 0,
 +
а левым - на которых принял значение 1.
 +
Так мы будем действовать до тех пор, пока в какую-то из вершин не придут элементы, все принадлежащие классу y. Эту
 +
терминальную Вершину мы пометим классом y и закончим наращивание.
-
В [1] предлагается более эффективный метод решения исходной задачи.
+
После жадного алгоритма можно применять различные эвристики и методы, позволяющие упростить форму дерева, такие как редукция, пост-редукция, заглядывание вперёд
 +
и так далее.
-
== Вспомагательные определения и утверждения ==
+
== Реализация жадного алгоритма и оптимизация отступов. ==
-
По-прежнему будем рассматривать систему 1.
+
В рамках изучения вопроса настройки решающих деревьев был написан код программы, реализующей настройку методом разделения объектов, в основу которой лёг
-
Допустим, что она совместна и имеет ранг <tex>r</tex>.
+
жадный алгоритм синтеза деревьев.
-
'''Определение 1.''' Решение системы 1 - ''узловое'', если оно обращает в равенства какие-нибудь <tex>r</tex> её
+
Для настройки предикатов и оптимизации отступа по выбранному признаку проводилось несколько этапов. Сначала сортировкой пузырька сортировался массив значений
-
неравенств с линейно независимыми левыми частями.
+
выбранного признака у объектов. Далее составлялся набор ''узловых'' точек, которые в дальнейшем использовались в качестве значения порога. Эти точки выбирались посередине
 +
между двумя соседними значениями признака в отсортированном массиве. После этого применялся полный пребор по найденным ''узловым'' точкам.
-
'''Определение 2.''' Подсистема системы 1 - ''крайняя'', если, во-первых, её ранг больше нуля и равен числу неравенств в ней,
+
Жадный алгоритм реализовывался без досрочных остановов (использующихся для повышения надёжности классификации) и без дальнейших упрощений вида дерева.
-
во-вторых, хотя бы одно её узловое решение удовлетворяет системе 1.
+
-
'''Определение 3.''' Крайняя подсистема - ''узловая подсистема'', если все её узловые решения удовлетворяют системе 1.
 
-
'''Свойство 1.''' Крайняя подсистема тогда и только тогда является узловой подсистемой системы 1, когда её ранг
 
-
совпадает с рангом <tex>r</tex> системы 1.
 
-
'''Теорема 1.''' Каждая совместная система линейных неравенств вида 1 отличного от нуля ранга имеет хотя бы одну узловую
+
== Список литературы ==
-
подсистему, а значит, хотя бы одно узловое решение.
+
-
С помощью этих утверждений в [1] доказывается основная лемма, на которой держится следующий алгоритм.
+
[1] К.В. Воронцов, "Логические алгоритмы классификации", лекция, 2007.
-
 
+
[2] K. Bennett, N. Cristianini, J. Shawe-Taylor, D. Wu. "Enlarging the margin in perceptron
-
'''Лемма.''' Ранг максимальной совместной подсистемы (МСП) совпадает с рангом всей системы.
+
decision trees", Machine Learning, 2000.
-
 
+
-
== Точное решение задачи ==
+
-
 
+
-
=== Изложение алгоритма ===
+
-
 
+
-
Алгоритм будет выглядеть следующим образом.
+
-
Будем перебирать одну за другой подсистемы мощности и ранга <tex>r</tex> для данной несовместной системы 1 ранга <tex>r</tex>.
+
-
Среди них обязательно найдутся все узловые подсистемы для искомой МСП, так как по лемме ранг МСП равен <tex>r</tex>.
+
-
Из определения следует, что все узловые решения любой узловой подсистемы МСП удовлетворяют всей МСП.
+
-
Это означает, что достаточно найти хотя бы одно узловое решение любой узловой подсистемы МСП и подставить его в систему 1,
+
-
чтобы выделить саму МСП.
+
-
 
+
-
Таким образом мы заменяем все неравенства в найденной подсистеме на равенства и находим решение полученной
+
-
системы уравнений (в случае бесконечного числа решений - достаточно найти одно).
+
-
Затем мы подставляем полученное решение в исходную систему 1 и выделяем те неравенства, которым удовлетворяет полученное
+
-
решение.
+
-
Эти неравенства образуют некую совместную подсистему системы 1.
+
-
В какой-то момент мы найдём одну из узловых подсистем МСП и выделим МСП.
+
-
 
+
-
Трудность заключается в том, что мы не знаем какая из подсистем является узловой для МСП.
+
-
Поэтому приходится перебирать все подсистемы мощности и ранга <tex>r</tex> и находить одно их узловое решение.
+
-
Затем выделять по узловому решению подсистему, соответствующую ему.
+
-
Сравнивая мощности всех систем, полученных таким путём, мы найдём МСП. Также мы найдём одно его решение.
+
-
 
+
-
Из сказанного следует, что в случае системы равенств, заменив каждое из равенств
+
-
 
+
-
<tex>a_{i_1}x_1+\dots+a_{i_n}x_n = b_i</tex>
+
-
 
+
-
на два неравенства
+
-
 
+
-
<tex>a_{i_1}x_1+\dots+a_{i_n}x_n\leq b_i,</tex>
+
-
 
+
-
<tex>a_{i_1}x_1+\dots+a_{i_n}x_n\beq b_i.</tex>
+
-
 
+
-
мы сведём задачу к исходной. (Следует из определения узловой подсистемы и узлового решения).
+
-
 
+
-
=== Сложность алгоритма ===
+
-
 
+
-
Общее число операций приведённого алгоритма оценивается сверху выражением:
+
-
 
+
-
::<tex>K_1mn^2+C^r_m\left(^m_r\right)\left(K_2nr^2+K_3mn\right)</tex>,
+
-
 
+
-
где <tex>K_1,K_2,K_3</tex> - некоторые действительные числа.
+
-
 
+
-
''Краткое обоснование полученной оценки.''
+
-
Предположим, что <tex>n < m</tex>.
+
-
Вычисление ранга <tex>r</tex> матрицы исходной системы 1 требует <tex>O(mn^2)</tex> операций
+
-
(приведение к треугольному виду). Число подсистем мощности <tex>r</tex> в системе 1 - <tex>C^r_m</tex>.
+
-
Для найденной подсистемы ранга <tex>r</tex> нахождение одного узлового решения занимает <tex>O(r^2)</tex> операций.
+
-
Подстановка найденного решения во все неравенства системы 1 - <tex>O(mn)</tex> операций.
+
-
 
+
-
Эта оценка уже гораздо лучше оценки для полного перебора.
+
-
К сожалению алгоритм всё ещё остаётся неподъёмным на практике при больших значениях <tex>n</tex> и <tex>m</tex>.
+
-
 
+
-
== Приближённое решение задачи ==
+
-
 
+
-
Точное решение задачи выделения максимальной совместной подсистемы - NP-полная задача.
+
-
 
+
-
Однако, если отказаться от нахождения точной МСП и ограничиться нахождением ''приближённой'' МСП, задачу можно решить
+
-
за полиномиальное время.
+
-
Основная идея - перебирать не всевозможные подсистемы, а только часть из них, основываясь на те или иные эвристики.
+
-
 
+
-
Дело в том, что для нахождения точного решения нам достаточно ''наткнуться'' хотя бы на одну узловую подсистему МСП.
+
-
При малом числе переменных и большом числе неравенств в системе 1 можно рассчитывать на то, что МСП имеет большое число
+
-
узловых подсистем.
+
-
А значит мы с большой вероятностью ''наткнёмся'' на одну из них.
+
-
В противном случае нам не попадётся ни одна из узловых подсистем МСП и мы получим неточное решение.
+
-
 
+
-
В качестве простейшего примера предлагается совершать лексикографический обход всех подсистем мощностью и ранга <tex>r</tex> с шагом <tex>h</tex>, произвольным образом занумеровав неравенства, входящие в систему.
+
-
Варьируя параметр <tex>h</tex> мы можем для конкретной задачи подобрать устраивающую нас время.
+
-
Для большей надёжности алгоритма параметр <tex>h</tex> надо брать как можно меньшим.
+
-
 
+
-
=== Возможные эвристики ===
+
-
 
+
-
Кратко опишем идею одной из возможных эвристик, позволяющих сильно сократить перебор подсистем [4].
+
-
 
+
-
Сделаем каждую из гиперплоскостей, описанных неравинствами, "подвижной", вводя неотрицательные ''эластичные переменные'' (''elastix variables'') в каждое из неравенств.
+
-
Теперь будем "шевелить" гиперплоскости, пока система не станет совместной.
+
-
Сведём задачу к задаче линейного программирования, минимизируя сумму ''эластичных переменных'' и иксов с заранее подобранными коэффициентами.
+
-
Такой подход также называется ''эластичным программирвоанием''(elastic programming).
+
-
 
+
-
Предложенная процедура отчасти схожа с методом SVM в случае линейно неразделимой выборки.
+
-
 
+
-
Решив эту оптимизационную задачу, мы получим некие значения эластичных переменных.
+
-
В случае совместности системы неравенств мы получим нулевые значения эластичных переменных.
+
-
В противном случае большие значения переменных соответствют "худшим" неравенствам, в том смысле, что гиперплоскости, соответствующие этим неравенствам, пришлось больше всего "двигать" для достижения совместности системы.
+
-
Логично предположить, что эти неравенства не будут входить в МСП.
+
-
 
+
-
Таким образом мы можем перебирать те подсистемы мощности и ранга <tex>r</tex>, которым соответствуют меньшие суммы эластичных переменных.
+

Текущая версия

Решающие деревья - разделение объектов.

В этой статье будет рассмотрен один из возможных вариантов настройки бинарных решающих деревьев, основанный на разделении объектов. Будет рассматриваться задача классификации с двумя классами в n-мерном пространстве объектов.

Напомним, что задачей настройки является получение параметров модели на основе обучающей выборки X^l.

Содержание

Метод разделения объектов

Для описания метода разделения объектов для начала введём понятие отступа объектов обучающей выборки.

Предположим, что мы имеем алгоритм классификации вида a(x)=arg\max_{y\in Y}G_y(x), где x - классифицирумый объект, y - класс из множества классов Y, а G_y(x) - ключевая величина, являющаяся оценкой принадлежности объекта x классу y. В этом случае отступом обекста x_i\in X^l назовём величину M(x_i)=G_{y_i}(x_i)-\max_{y\in Y\setminus y_i}G_y(x_i). Здесь y_i - класс, которому принадлежит объект обучающей выборки x_i. Грубо говоря, отсупом объекта является расстояние от него до границы, отделяющей объекты своего класса, от всех остальных.

Понятие отступа лежит в основе метода разделения объектов. Его идеей является максимизация отступа объектов обучающей выборки. Интуитивно ясно, что чем больше отступы объектов, тем надёжнее будет классификация, поскольку это означает, что есть достаточно большой зазор между двумя классами.

Параметры решающих деревьев.

При построении решающих деревьев основными параметрами являются предикаты \phi_i(x), соответствующие узлам деревьев, классы, приписанные терминальным вершинам и структура самого дерева. Под структурой в данном случае понимаются свойства дерева, как графа - его высота, число узлов, сбалансированность и так далее.

Настройка параметров решающих деревьев методом разделения объектов.

Как мы знаем, алгоритм классификации, реализуемый бинарными решающими деревьями, может быть записан в виде простого голосования конъюнкций:

a(x)=arg\max_{y\in Y}\sum_{v\in T\\c_v=y}K_v(x).

Поясним буквы, входящие в эту фурмулу. y - по-прежнему класс из множества классов Y. T - множество терминальных (листовых) вершин бинарного дерева, V - вершина дерева, а c_v - класс, соответствующий терминальной вершине v. K_v(x) - конъюнкция всех предикатов на пути от корня дерева к терминальной вершине v.

Понятно, что напрямую воспользоваться методом разделения объектов в данном случае не получается, поскольку из всех конъюнкций, учавствующих в сумме, при фиксированном объекте ровно одна принимает значение 1. Мы немного изменим подход и будем использовать метод разделения объектов для настройки предикатов решающего дерева.

За основу синтеза решающего дерева взят жадный алгоритм, описанный в лекции [1] К.В. Воронцова.

Настройка предикатов.

В каждом узле дерева предлагается строить предикаты вида \phi(x)=[f_n(x)\leq a], где f_n(x) - n-ый признак объекта х. Мы хотим найти одномерное разбиение объектов (по одной координате), которое будет соответствовать максимальным отступам объектов части обучающей выборки, попавшей в данный узел. В данном случае в качестве оценки принадлежности объекта x к классу y можно взять величину y(x-a), если условиться, что у нас 2 класса - Y=\{1,-1\}. (При этом в каждом узле элементы класса, среднее значение рассматриваемой координаты которого больше, помечать классом 1, а элементы второго класса - классом -1.)

Максимизация отступов в пределах одного признака сводится к нахождению такого a, что величины расстояний от элементов обучающей выборки до границы a, взятые с соответствующими знаками, максимальны. Как варианты можно максимизировать минимальный из отступов или сумму отступов по всем объектам. После этого остаётся максимизировать отступ по номеру признака - и мы имеем предикат \phi(x)=[f_n(x)<=a].

Стоит отметить, что выбранный вид предиката осуществляет разбиение выборки на прямоугольники со сторонами параллельными осям координат.

Настройка формы дерева.

Форма дерева настраиватся автоматически при синтезе решающего дерева жадным алгоритмом. Мы будем рекурсивно в каждой вершине дерева делить часть обучающей выборки, попавшую в данный узел, получать предикаты описанным образом и наращивать сыновей вершины, если это надо. Причём условимся, что правым сыновьям вершины будут соответствовать объекты, на которых предикат принял значение 0, а левым - на которых принял значение 1. Так мы будем действовать до тех пор, пока в какую-то из вершин не придут элементы, все принадлежащие классу y. Эту терминальную Вершину мы пометим классом y и закончим наращивание.

После жадного алгоритма можно применять различные эвристики и методы, позволяющие упростить форму дерева, такие как редукция, пост-редукция, заглядывание вперёд и так далее.

Реализация жадного алгоритма и оптимизация отступов.

В рамках изучения вопроса настройки решающих деревьев был написан код программы, реализующей настройку методом разделения объектов, в основу которой лёг жадный алгоритм синтеза деревьев.

Для настройки предикатов и оптимизации отступа по выбранному признаку проводилось несколько этапов. Сначала сортировкой пузырька сортировался массив значений выбранного признака у объектов. Далее составлялся набор узловых точек, которые в дальнейшем использовались в качестве значения порога. Эти точки выбирались посередине между двумя соседними значениями признака в отсортированном массиве. После этого применялся полный пребор по найденным узловым точкам.

Жадный алгоритм реализовывался без досрочных остановов (использующихся для повышения надёжности классификации) и без дальнейших упрощений вида дерева.


Список литературы

[1] К.В. Воронцов, "Логические алгоритмы классификации", лекция, 2007. [2] K. Bennett, N. Cristianini, J. Shawe-Taylor, D. Wu. "Enlarging the margin in perceptron decision trees", Machine Learning, 2000.