Непараметрическая регрессия

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Оценки ортогональных разложений)
м (См. также)
 
(27 промежуточных версий не показаны.)
Строка 2: Строка 2:
== Введение ==
== Введение ==
-
:Цель регрессионного анализа состоит в осуществлении разумной аппроксимации неизвестной функции отклика <tex>Y(X)</tex> по известым точкам <tex>(X_i,Y_i)_{i=1}^{m}</tex>. В случае малых ошибок наблюдения становится возможным сконцентрировать внимание на важных деталях средней зависимости <tex>Y</tex> от <tex>X</tex> при ее интерпретации.
+
:Цель регрессионного анализа состоит в осуществлении разумной аппроксимации неизвестной функции отклика <tex>Y(X)</tex> по известным точкам <tex>(X_i,Y_i)_{i=1}^{m}</tex>. В случае малых ошибок наблюдения становится возможным сконцентрировать внимание на важных деталях средней зависимости <tex>Y</tex> от <tex>X</tex> при ее интерпретации.
== Отличие от параметрических подходов ==
== Отличие от параметрических подходов ==
-
:Процедура аппроксимации обычно называется '''''сглаживанием'''''. По существу эта аппроксимация функции отклика <tex>Y</tex> может быть выполнена двумя способами. Довольно часто используется параметрический подход, заключающийся в предположении, что функция отклика <tex>Y</tex> имеет некоторую предписанную функциональную форму, например, это прямая линия с неизвестными свободным членом и наклоном. Альтернативой этому может служить попытка оценить <tex>Y</tex> непараметрически, без указания конкретного ее вида. Первый подход к анализу регрессионной зависимости называется параметрическим, поскольку предполагается, что вид функции полностью описывается конечным набором параметров. Типичный пример параметрической модели представляет собой полиномиальное уравнение регрессии, когда параметрами являются коэффициенты при неизвестных. Однако при параметрическом подходе молчаливо предполагается, что кривая может быть представлена в терминах параметрической модели, или, по крайней мере, имеется уверенность в том, что ошибка аппроксимации для наилучшего параметрического приближения пренебрежимо мала. Наоборот, в непараметрической модели регрессионной зависимости не производится проектирования данных в "прокрустово ложе" фиксированной параметризации. Предварительное задание параметрической модели может оказаться слишком ограничительным или чересчур малой размерности для аппроксимации непредвиденных характеристик, в то время как непараметрическое сглаживание предоставляет гибкие средства анализа неизвестных регрессионных зависимостей.
+
:Процедура аппроксимации обычно называется '''''сглаживанием'''''. По существу эта аппроксимация функции отклика <tex>Y</tex> может быть выполнена двумя способами. Довольно часто используется параметрический подход, заключающийся в предположении, что функция отклика <tex>Y</tex> имеет некоторую предписанную функциональную форму, например, это прямая линия с неизвестными свободным членом и наклоном. Альтернативой этому может служить попытка оценить <tex>Y</tex> непараметрическим образом, без указания конкретного ее вида. Первый подход к анализу регрессионной зависимости называется параметрическим, поскольку предполагается, что вид функции полностью описывается конечным набором параметров. Типичный пример параметрической модели представляет собой полиномиальное уравнение регрессии, когда параметрами являются коэффициенты при неизвестных. Однако при параметрическом подходе молчаливо предполагается, что кривая может быть представлена в терминах параметрической модели, или, по крайней мере, имеется уверенность в том, что ошибка аппроксимации для наилучшего параметрического приближения пренебрежимо мала. Наоборот, в непараметрической модели регрессионной зависимости не производится проектирования данных в "прокрустово ложе" фиксированной параметризации. Предварительное задание параметрической модели может оказаться слишком ограничительным или чересчур малой размерности для аппроксимации непредвиденных характеристик, в то время как непараметрическое сглаживание предоставляет гибкие средства анализа неизвестных регрессионных зависимостей.
:Непараметрический подход приводит, таким образом, к гибкому функциональному виду кривой регрессии.
:Непараметрический подход приводит, таким образом, к гибкому функциональному виду кривой регрессии.
Строка 27: Строка 27:
Рассмотрим оценку Парзена-Розенблата для одномерной функции плотности
Рассмотрим оценку Парзена-Розенблата для одномерной функции плотности
:: <tex>\hat{y}(x)=\frac{1}{mh} \sum_{i=0}^m{K\( \frac{X_i-x}{h}\)}</tex>.
:: <tex>\hat{y}(x)=\frac{1}{mh} \sum_{i=0}^m{K\( \frac{X_i-x}{h}\)}</tex>.
-
:В случае семейства ормальных рапределений и гаусовского ядра <tex>h_{opt}=1.059*\sigma m^{-1/5}</tex>. На практике применяется <tex>\hat{\sigma}</tex>, выборочное стандартное отклонение.
+
:В случае семейства нормальных распределений и гауссовского ядра <tex>h_{opt}=1.059*\sigma m^{-1/5}</tex>. На практике применяется <tex>\hat{\sigma}</tex>, выборочное стандартное отклонение.
=== Методы подстановки ===
=== Методы подстановки ===
-
Методы подстановки, такие как в Sheather & Jones (1991), состоят в подстановке оценок неизвестной константы <tex>\int{\[y''(x)\]^2dx</tex> в формулу для оптимальной ширины окна на основе первоначальной оценки <tex>y''(x)</tex>, которая в свою очередь основана на «'''''предварительной'''''» ширине окна, например, найденной по правилу <tex>1.059*\sigma m^{-1/5}</tex> . Все прочие константы в выражении для <tex>h_{opt}</tex> известны после выбора ядерной функции <tex>K</tex> (то есть <tex>\int{K^2(z)dz}</tex> и <tex>\int{z^2K^2(z)dz}</tex>известны). Хотя такие правила популярны, заинтересованный читатель может обратиться к работе Loader (1999), где обсуждаются относительные достоинства методов подстановки по сравнению с другими методами выбора ширины окна, обсуждаемыми ниже.
+
Методы подстановки, такие как в Sheather, Jones (1991), состоят в подстановке оценок неизвестной константы <tex>\int{\[y''(x)\]^2dx</tex> в формулу для оптимальной ширины окна на основе первоначальной оценки <tex>y''(x)</tex>, которая в свою очередь основана на «'''''предварительной'''''» ширине окна, например, найденной по правилу <tex>1.059*\sigma m^{-1/5}</tex> . Все прочие константы в выражении для <tex>h_{opt}</tex> известны после выбора ядерной функции <tex>K</tex> (то есть <tex>\int{K^2(z)dz}</tex> и <tex>\int{z^2K^2(z)dz}</tex>известны). Хотя такие правила популярны, заинтересованный читатель может обратиться к работе Loader (1999), где обсуждаются относительные достоинства методов подстановки по сравнению с другими методами выбора ширины окна, обсуждаемыми ниже.
=== Методы кросс-валидации ===
=== Методы кросс-валидации ===
Строка 38: Строка 38:
[[Изображение:Example_density.jpg|right|300px]]
[[Изображение:Example_density.jpg|right|300px]]
-
:Можно заменить эти величины их выборочными аналогами, сделать поправку на смещение и получить целевую функцию, которую затем можно минимизировать с помощью численных методов. Этот подход был предложен в работах Rudemo (1982) и Bowman (1984). Для понимания сущности комментариев Loader (1999) в на '''Рис. 1''' изображены оценки бимодальной плотности – ядерная оценка при применении правила подстановки и кросс-валидации на основе наименьших квадратов. '''Рис. 1''' показывает, что на самом деле правило подстановки чрезмерно сглаживает, приводя к существенному смещению в левой вершине. Кросс-валидация на основе наименьших квадратов исправляет это, как отмечает Loader (1999), но ценой дополнительной вариации в правой вершине.
+
:Можно заменить эти величины их выборочными аналогами, сделать поправку на смещение и получить целевую функцию, которую затем можно минимизировать с помощью численных методов. Этот подход был предложен в работах Rudemo (1982) и Bowman (1984). Для понимания сущности комментариев в Loader (1999) на '''Рис. 1''' изображены оценки бимодальной плотности – ядерная оценка при применении правила подстановки и кросс-валидации на основе наименьших квадратов. '''Рис. 1''' показывает, что на самом деле правило подстановки чрезмерно сглаживает, приводя к существенному смещению в левой вершине. Кросс-валидация на основе наименьших квадратов исправляет это, как отмечает Loader (1999), но ценой дополнительной вариации в правой вершине.
:Одна из проблем данного подхода – его чувствительность к наличию округленных или дискретизированных данных, а также к мелкомасштабным эффектам в данных.
:Одна из проблем данного подхода – его чувствительность к наличию округленных или дискретизированных данных, а также к мелкомасштабным эффектам в данных.
-
:Из примера следует, что, возможно, ядерную оценку с фиксированным параметром h можно улучшить, и существуют «адаптивные» ядерные оценки, которые позволяют h меняться в точке <tex>x</tex> или <tex>X_i</tex> ; см. Abramson (1982) и Breiman, Meisel & Purcell (1977). Эти оценки, однако, способствуют введению ложного шума в оценку плотности. Однако метод с фиксированным h доминирует в прикладных исследованиях.
+
:Из примера следует, что, возможно, ядерную оценку с фиксированным параметром <tex> h </tex> можно улучшить, и существуют «адаптивные» ядерные оценки, которые позволяют <tex> h </tex> меняться в точке <tex>x</tex> или <tex>X_i</tex> ; см. Abramson (1982) и Breiman, Meisel, Purcell (1977). Эти оценки, однако, способствуют введению ложного шума в оценку плотности. Однако метод с фиксированным <tex> h </tex> доминирует в прикладных исследованиях.
=== Бутстраповские методы ===
=== Бутстраповские методы ===
-
:Faraway & Jhun (1990) предложили метод выбора ширины окна <tex>h</tex> на основе бутстрапа путем оценивания интегральной среднеквадратичной ошибки для каждой фиксированной ширины окна и затем минимизации по всем значениям. Данный подход использует сглаженный бутстраповский метод на основе начальной оценки плотности. Один из недостатков этого подхода в том, что целевая функция является случайной, что может привести к проблемам при численной минимизации, а также его вычислительная сложность.
+
:Faraway, Jhun (1990) предложили метод выбора ширины окна <tex>h</tex> на основе бутстрапа путем оценивания интегральной среднеквадратичной ошибки для каждой фиксированной ширины окна, и затем минимизации по всем значениям. Данный подход использует сглаженный бутстраповский метод на основе начальной оценки плотности. Один из недостатков этого подхода в том, что целевая функция является случайной, что может привести к проблемам при численной минимизации, а также его вычислительная сложность.
----
----
Ядерные веса определяют некоторую окрестность вокруг точки <tex>x</tex> лежащей на сетке. Следующий вопрос сглаживания – полиномиальное приближение функции <tex>y</tex> в этой окрестности.
Ядерные веса определяют некоторую окрестность вокруг точки <tex>x</tex> лежащей на сетке. Следующий вопрос сглаживания – полиномиальное приближение функции <tex>y</tex> в этой окрестности.
-
==== Локально полиномиальное приближение====
+
==== Локально полиномиальное приближение ====
[[Изображение:Example_polynom.jpg|thumb|right|300px|Рис. 2. Локально полиномиальное сглаживание]]
[[Изображение:Example_polynom.jpg|thumb|right|300px|Рис. 2. Локально полиномиальное сглаживание]]
:Простейшим полиномом приближения в такой окрестности является константа. Ядерная оценка минимизирует сумму квадратов невязок в окрестности точки <tex>x</tex>, форма и размер которой определяется ядром <tex>K</tex>.
:Простейшим полиномом приближения в такой окрестности является константа. Ядерная оценка минимизирует сумму квадратов невязок в окрестности точки <tex>x</tex>, форма и размер которой определяется ядром <tex>K</tex>.
Строка 55: Строка 55:
:Подробнее также см. [[Алгоритм LOWESS]]
:Подробнее также см. [[Алгоритм LOWESS]]
-
== <tex>k-NN</tex> оценки==
+
== kNN оценки==
[[Изображение:Example_knn.jpg|thumb|right|300px|Рис. 3. k-NN сглаживание]]
[[Изображение:Example_knn.jpg|thumb|right|300px|Рис. 3. k-NN сглаживание]]
-
:Конструкция оценок [[Метод ближайших соседей|ближайших соседей]] отличается от ядерных оценок. Ядерная оценка определяется как взвешенное среднее переменнных отклика в фиксированной окрестности точки <tex>x</tex>, причем веса определялись ядром <tex>K</tex> и шириной окна <tex>h</tex>. Оценка '''''k-ближайших соседей ''''' представляет собой среднее взвешенное в изменяющейся окресности. эта Окрестность определяется только теми значениями переменной <tex>X</tex>, которые являются <tex>k</tex> ближайшими к <tex>x</tex> по евклидову('''обычно''') расстоянию. Последовательность <tex>k-NN</tex> весов была введена в работе Loftsgaarden, Quesenberry, (1965) для близкой задачи оценивания плотности и использовалась в Сомук, Hart(1967) для целей классификации.
+
:Конструкция оценок [[Метод ближайших соседей|ближайших соседей]] отличается от ядерных оценок. Ядерная оценка определяется как взвешенное среднее перемененных отклика в фиксированной окрестности точки <tex>x</tex>, причем веса определялись ядром <tex>K</tex> и шириной окна <tex>h</tex>. Оценка '''''k-ближайших соседей ''''' представляет собой среднее, взвешенное в изменяющейся окрестности. Эта окрестность определяется только теми значениями переменной <tex>X</tex>, которые являются <tex>k</tex> ближайшими к <tex>x</tex> по евклидову ('''обычно''') расстоянию. Последовательность <tex>k-NN</tex> весов была введена в работе Loftsgaarden, Quesenberry (1965) для близкой задачи оценивания плотности и использовалась в Cover, Hart(1967) для целей классификации.
:Параметр сглаживания <tex>k</tex> определяет степень гладкости оценки кривой. Он играет ту же роль, что и ширина окна для ядерных сглаживателей. Влияние переменного <tex>k</tex> на качественные характеристики оценки '''аналогочино случаю ядерных оценок с прямоугольным ядром'''.
:Параметр сглаживания <tex>k</tex> определяет степень гладкости оценки кривой. Он играет ту же роль, что и ширина окна для ядерных сглаживателей. Влияние переменного <tex>k</tex> на качественные характеристики оценки '''аналогочино случаю ядерных оценок с прямоугольным ядром'''.
-
:На '''Рис. 3.''' изображен пример сравнения ядерного сглаживания с [[ядерное сглаживание|квартическим ядром]] и <tex>k-NN</tex> сглаживания. Ширина окна выбиралась методом [[кросс-проверки]]. Данные прогонялись через окна шириной <tex>h=0.25</tex> для ядерного сглаживания на отрезке <tex>[0,3]</tex> и <tex>h=0.15</tex> для оси значений. Получившиеся кривые регрессии практически совпаают для <tex>x\le 1</tex>, где лежит большая часть данных. При бо‘льших значения <tex>x</tex> наблюдается существенное расхождение кривых: ядерая оцена показывает очевидное бимодальное соотношение, а симметризованная оценка ближайших соседей указвывает либо на ассимптоту, либо даже на слабое убывание с ростом дохода. В констексте задачи кажется, что последнее содержит больше смысла с точки зрения экономики...
+
:На '''Рис. 3.''' изображен пример сравнения ядерного сглаживания с [[ядерное сглаживание|квартическим ядром]] и <tex>k-NN</tex> сглаживания. Ширина окна выбиралась методом [[кросс-проверки]]. Данные прогонялись через окна шириной <tex>h=0.25</tex> для ядерного сглаживания на отрезке <tex>[0,3]</tex> и <tex>h=0.15</tex> для оси значений. Получившиеся кривые регрессии практически совпадают для <tex>x\le 1</tex>, где лежит большая часть данных. При бо‘льших значения <tex>x</tex> наблюдается существенное расхождение кривых: ядерная оценка показывает очевидное бимодальное соотношение, а симметризованная оценка ближайших соседей указывает либо на асимптоту, либо даже на слабое убывание с ростом дохода. В контексте задачи, кажется, что последнее содержит больше смысла с точки зрения экономики...
-
== Оценки ортогональных разложений==
+
== Оценки ортогональных разложений ==
-
[[Изображение:Example_fur.jpg|thumb|right|300px|Рис. 4. Cглаживание c помощью ортогональных разложений]]
+
[[Изображение:Example_fur.jpg|thumb|right|300px|Рис. 4. Сглаживание c помощью ортогональных разложений]]
Предположим, что функция регрессии может быть представлена в виде ряда Фурье
Предположим, что функция регрессии может быть представлена в виде ряда Фурье
::<tex>y(x)=\sum_{j=0}^{\infty}\beta_j\varphi_j(x)</tex>,
::<tex>y(x)=\sum_{j=0}^{\infty}\beta_j\varphi_j(x)</tex>,
-
:где <tex>{\{\varphi_j\}}_{j=0}^\infty</tex> - известна система базисных функций, а <tex>{\{\beta_j\}}_{j=0}^\infty</tex> - неизвестные коэффициенты Фурье. В работе Szego (1959) приведены условия, при которых такое представление возможно. Хорошо известными системами базисных функций являются [[полиномы Лагерра]] и [[полиномы Лежандра]]. Как только фиксирован базис функций, проблема оценивания функции регрессии может быть сведена к оцениванию коэффициентов Фурье. Конечно, существует определенная трудность, состоящая в том, что может быть бесконечно много ненулевых коэффициентов <tex>\beta_j</tex>. Таким образом, при заданном конечном объеме выборки <tex>m</tex> можно эффективно оценить лишь подсножество коэффициентов.
+
:где <tex>{\{\varphi_j\}}_{j=0}^\infty</tex> - известна система базисных функций, а <tex>{\{\beta_j\}}_{j=0}^\infty</tex> - неизвестные коэффициенты Фурье. В работе Szego (1959) приведены условия, при которых такое представление возможно. Хорошо известными системами базисных функций являются [[полиномы Лагерра]] и [[полиномы Лежандра]]. Как только фиксирован базис функций, проблема оценивания функции регрессии может быть сведена к оцениванию коэффициентов Фурье. Конечно, существует определенная трудность, состоящая в том, что может быть бесконечно много ненулевых коэффициентов <tex>\beta_j</tex>. Таким образом, при заданном конечном объеме выборки <tex>m</tex> можно эффективно оценить лишь подмножество коэффициентов.
:Пример применения показан на '''Рис. 4.'''
:Пример применения показан на '''Рис. 4.'''
-
== Сглаживание сплайнами==
+
== Сглаживание сплайнами ==
-
Общей мерой близости к данным для некоторой кривой<tex>g</tex> является сумма квадратов невязок
+
[[Изображение:Example_spline.jpg|thumb|right|300px|Рис. 3. Сглаживание с помощью сплайнов]]
 +
Общей мерой близости к данным для некоторой кривой <tex>g</tex> является сумма квадратов невязок
::<tex>\sum_{i=1}^{n}{(Y_i-g(X_i))}^2</tex>
::<tex>\sum_{i=1}^{n}{(Y_i-g(X_i))}^2</tex>
-
==Литература==
+
:Если <tex>g</tex> может любой кривой - неограниченной в функциональном смысле - то эта мера, имеющая смысл расстояния, равна нулю для всякой кривой <tex>g</tex>, интерполирующей данные. Подход, основанный на сглаживании сплайнами, исключает эту нежелательную интерполяцию данных за счет достижения компромисса между двумя противоречивыми целями: получить хорошую аппроксимацию данных и получить кривую, не имеющую слишком быстрых локальных изменений.
 +
:Известны различные способы количественной оценки локальных изменений. Можно определить меру плавности кривой, основанную, например, на первой, второй, и более старших производных. Для успешного раскрытия основной идеи удобнее всего ввести интеграл от квадрата второй производной, т.е. для количественной оценки локального изменения использовать '''''штраф за нарушение плавности'''''
 +
::<tex>\int {(g''(x))}^2dx</tex>.
 +
:Пример сглаживания сплайнами представлен на '''Рис. 5.''' интерпретация данных: данные о мотоцикле [ Значения <tex>X</tex> (в мс) после смоделированного столкновения с мотоциклом. Переменная отклика <tex>Y</tex> - ускорение (в g) посмертного тестирования объекта. Из Schmidt, Mattern, Schiiler (1981)]
 +
 
 +
== Перечень менее распространенных методов ==
 +
[[Изображение:Example_regr.jpg|thumb|right|300px|Рис. 6. Регрессограмма]]
 +
=== Рекуррентные методы ===
 +
:Предположим, что данные <tex>\{(X_i,Y_i)\}_{i\ge l}</tex> наблюдаются не как выборка фиксированного объема <tex>m</tex>, а как последовательность пар <tex>(X_1,Y_1),(X_2,Y_2),\ldots </tex> поступающих с выхода некоторого устройства наблюдения. Такие устройства присутствуют в задачах контроля (surveillance problems), управления (control operations) или вмешательства(intervention problems). В общем случае можно рассматривать данные как временной ряд. Поскольку непараметрическая
 +
оценка обычно определяется по всей выборке, ее приходится пересчитывать при поступлении новых данных. Следовательно, с вычислительной точки зрения предпочтительнее, чтобы оценка регрессии, основанная на <tex>(n + 1)</tex> точках, строилась исходя из <tex>(n + 1)</tex>-го наблюдения <tex>(X_{n+i},Y_{n+1})</tex> и оценки, полученной по первым <tex>n</tex> точкам, без вызова предыдущих данных из памяти компьютера.
 +
 
 +
=== Регрессограмма ===
 +
:Этот термин был введен Тьюки (Tukey, 1961) для того, чтобы подчеркнуть связь этой оценки с гистограммой. Регрессограмма представляет собой среднее тех значений переменных отклика, для которых соответствующие величины <tex>X</tex> попадают в один из интервалов разбиения пространства наблюдений переменной <tex>X</tex> Tukey(1947) - ее можно рассматривать как аппроксимацию <tex>y(x)</tex> ступенчатой функцией, и она фактически является ядерной оценкой (с прямоугольным ядром), вычисленной в средних точках интервалов разбиения. На '''Рис. 6.''' изображены данные о работе мотоцикла и регрессограмма при шаге разбиения 4.
 +
 
 +
=== Медианное сглаживание ===
 +
[[Изображение:Example_med.jpg|thumb|right|300px|Рис. 7. Медианное сглаживание]]
 +
:Предположим, что целью аппроксимации является кривая условий медианы <tex>med(Y|X = x)</tex>, а не кривая условного среднего. Последовательность '''''"локальных медиан"''''' для значений переменной отклика определяет '''''медианный сглаживателъ'''''. Медианное сглаживание сыграло важную роль в историческом развитии методов сглаживания.
 +
 
 +
:Эта оценка имеет очевидную аналогию с <tex>k-NN</tex>-оценкой, но отличается, по крайней мере, в двух аспектах: медианное сглаживание устойчиво по отношению к большим выбросам, и с помощью этого метода появляется возможность моделировать разрывы кривой регрессии <tex>med(Y|X = x)</tex>. На '''Рис. 7.''' на примере данных о мотоциклах('''cм. пояснение к рисунку 5''') приведено сравнение двух методов оценивания — медианного сглаживания и <tex>k-NN</tex>-оценки.
 +
:Этот пример выявляет свойство робастности медианного сглаживания. Медианная оценка не подвержена влиянию группы возможных выбросов в районе точки <tex>x=35</tex>, и она несколько ближе к основной массе данных в двух '''''«областях всплесков»''''' <tex>(x = 20,32)</tex>. Некоторый недостаток состоит в том, что по своей природе оценка медианного сглаживания является грубой характеристикой.
 +
 
 +
== Литература ==
# {{книга
# {{книга
|автор = Хардле В.
|автор = Хардле В.
Строка 80: Строка 102:
|год = 1989
|год = 1989
|ссылка = http://optimization.nlprog.ru/read/ru/8776859F6322A5AF21D45220A9B5B57E110C2E84/index.htm
|ссылка = http://optimization.nlprog.ru/read/ru/8776859F6322A5AF21D45220A9B5B57E110C2E84/index.htm
 +
}}
 +
# {{книга
 +
|автор = Расин, Джеффри
 +
|заглавие = «Непараметрическая эконометрика: вводный курс»
 +
|издательство = Квантиль, №4, стр. 7–56.
 +
|год = 2008
}}
}}
== Ссылки ==
== Ссылки ==
 +
# {{книга
 +
|автор = Abramson, I.S.
 +
|заглавие = On bandwidth variation in kernel estimates – a square root law. Annals of Statistics 10
 +
|год = 1982
 +
|страницы = 1217–1223
 +
}}
 +
# {{книга
 +
|автор = Bowman, A.W.
 +
|заглавие = An alternative method of cross-validation for the smoothing of density estimates. Biometrika 71
 +
|год = 1984
 +
|страницы = 353–360
 +
}}
 +
# {{книга
 +
|автор = Breiman, L., W. Meisel, E. Purcell
 +
|заглавие = Variable kernel estimates of multivariate densities. Technometrics 19
 +
|год = 1977
 +
|страницы = 135–144
 +
}}
 +
# {{книга
 +
|автор = Cover, T. M. and Hart, P. E.
 +
|заглавие = Nearest neighbor pattern classification. IEEE Transactions on Information Theory, 13
 +
|год = 1967
 +
|страницы = 21-27
 +
}}
 +
# {{книга
 +
|автор = Faraway, J., M. Jhun
 +
|заглавие = Bootstrap choice of bandwidth for density estimation. Journal of the American Statistical Association 85
 +
|год = 1990
 +
|страницы = 1119–1122
 +
}}
# {{книга
# {{книга
|автор = Loader, C.R.
|автор = Loader, C.R.
Строка 89: Строка 147:
|год = 1999
|год = 1999
|страницы = 415–438
|страницы = 415–438
 +
}}
 +
# {{книга
 +
|автор = Loftsgaarden, D. O., Quesenberry, G. P.
 +
|заглавие = A nonparametric estimate of a multivariate density function. Annals of Mathematical Statistics, 36
 +
|год = 1965
 +
|страницы = 1049-1051
 +
}}
 +
# {{книга
 +
|автор = Muller H. G.
 +
|заглавие = Weighted local regression and kernel methods for nonparametric curve fitting. Journal of the American Statistical Association, 82
 +
|год = 1987
 +
|страницы = 231-238
 +
}}
 +
# {{книга
 +
|автор = Rudemo, M.
 +
|заглавие = Empirical choice of histograms and kernel density estimators. Scandinavian Journal of Statistics 9
 +
|год = 1982
 +
|страницы = 65–78
 +
}}
 +
# {{книга
 +
|автор = Schmidt, G. Mattern, R., Schiiler, F.
 +
|заглавие = Biomechanical investigation to determine physical and traumatological differentiation criteria for the maximum load capacity of head and vertebral column with and without protective helmet under effects of impact. EEC Research Program on Biomechanics of Impacts. Final Report Phase III, Project 65, Institut fur Rechtsmedizin, Universitat Heidelberg, West Germany.
 +
|год = 1981
 +
|страницы = 231-238
}}
}}
# {{книга
# {{книга
Строка 95: Строка 177:
|год = 1991
|год = 1991
|страницы = 683–690
|страницы = 683–690
 +
}}
 +
# {{книга
 +
|автор = Szego, G.
 +
|заглавие = Orthogonal polynomials. Amer. Math. Soc. Coll. PubL, 23
 +
|год = 1959
 +
}}
 +
# {{книга
 +
|автор = Tukey, J. W.
 +
|заглавие = Nonparametric estimation II. Statistically equivalent blocks and tolerance regions. The continuous case. Annals of Mathematical Statistics, 18
 +
|год = 1947
 +
|страницы = 529-539
}}
}}
Строка 100: Строка 193:
* [[Ядерное сглаживание]]
* [[Ядерное сглаживание]]
* [[Регрессионный анализ]]
* [[Регрессионный анализ]]
 +
—&nbsp;''[[Участник:Валентин Голодов|Валентин Голодов]] 18:37, 8 января 2010 (MSK)''
 +
[[Категория:Непараметрическая регрессия]]
[[Категория:Регрессионный анализ]]
[[Категория:Регрессионный анализ]]

Текущая версия

Непараметрическая регрессия, в отличие от параметрических подходов, использует модель, которая не описывается конечным числом параметров.

Содержание

Введение

Цель регрессионного анализа состоит в осуществлении разумной аппроксимации неизвестной функции отклика Y(X) по известным точкам (X_i,Y_i)_{i=1}^{m}. В случае малых ошибок наблюдения становится возможным сконцентрировать внимание на важных деталях средней зависимости Y от X при ее интерпретации.

Отличие от параметрических подходов

Процедура аппроксимации обычно называется сглаживанием. По существу эта аппроксимация функции отклика Y может быть выполнена двумя способами. Довольно часто используется параметрический подход, заключающийся в предположении, что функция отклика Y имеет некоторую предписанную функциональную форму, например, это прямая линия с неизвестными свободным членом и наклоном. Альтернативой этому может служить попытка оценить Y непараметрическим образом, без указания конкретного ее вида. Первый подход к анализу регрессионной зависимости называется параметрическим, поскольку предполагается, что вид функции полностью описывается конечным набором параметров. Типичный пример параметрической модели представляет собой полиномиальное уравнение регрессии, когда параметрами являются коэффициенты при неизвестных. Однако при параметрическом подходе молчаливо предполагается, что кривая может быть представлена в терминах параметрической модели, или, по крайней мере, имеется уверенность в том, что ошибка аппроксимации для наилучшего параметрического приближения пренебрежимо мала. Наоборот, в непараметрической модели регрессионной зависимости не производится проектирования данных в "прокрустово ложе" фиксированной параметризации. Предварительное задание параметрической модели может оказаться слишком ограничительным или чересчур малой размерности для аппроксимации непредвиденных характеристик, в то время как непараметрическое сглаживание предоставляет гибкие средства анализа неизвестных регрессионных зависимостей.
Непараметрический подход приводит, таким образом, к гибкому функциональному виду кривой регрессии.

Разновидности

Ядерное сглаживание

Одним из простейших методов является ядерное сглаживание. Этот метод прост в применении, не требует дополнительных математических сведений и понятен на интуитивном уровне. Ядерное сглаживание во многих случаях является подходящим средством. Существуют разнообразные альтернативные методы сглаживания такие, например, как сплайны, но в [Хардле В, гл3] показывается, что в асимптотическом смысле они эквивалентны ядерному сглаживанию.
Ключом к проведению качественного непараметрического оценивания является выбор подходящей ширины окна для имеющейся задачи. Хотя ядерная функция K остается важной, ее главная роль состоит в обеспечении дифференцируемости и гладкости получающейся оценки. Ширина окна h, с другой стороны, определяет поведение оценки в конечных выборках, что ядерная функция сделать просто не в состоянии. Существуют четыре общих подхода к выбору ширины окна:
  1. референтные эвристические правила
  2. методы подстановки
  3. методы кросс-валидации
  4. бутстраповские методы.

Ради аккуратности подчеркнем, что диктуемые данными методы выбора ширины окна h не всегда гарантируют хороший результат.

Исходя из минимизации глобальной ошибки следует h брать равным::
h_{opt}=\[ \frac{\int{K^2(z)dz}}{ \(\int{z^2K^2(z)dz} \)^2 \int{\[y''(x)\]^2dx}   }\]^{-1/5} m^{-1/5} , где y(x) - неизвестная аппроксимируемая зависимость.

Референтные эвристические правила

Референтные эвристические правила выбора ширины окна используют стандартное семейство распределений для определения h_{opt}.

Рассмотрим оценку Парзена-Розенблата для одномерной функции плотности

\hat{y}(x)=\frac{1}{mh} \sum_{i=0}^m{K\( \frac{X_i-x}{h}\)}.
В случае семейства нормальных распределений и гауссовского ядра h_{opt}=1.059*\sigma m^{-1/5}. На практике применяется \hat{\sigma}, выборочное стандартное отклонение.

Методы подстановки

Методы подстановки, такие как в Sheather, Jones (1991), состоят в подстановке оценок неизвестной константы \int{\[y''(x)\]^2dx в формулу для оптимальной ширины окна на основе первоначальной оценки y''(x), которая в свою очередь основана на «предварительной» ширине окна, например, найденной по правилу 1.059*\sigma m^{-1/5} . Все прочие константы в выражении для h_{opt} известны после выбора ядерной функции K (то есть \int{K^2(z)dz} и \int{z^2K^2(z)dz}известны). Хотя такие правила популярны, заинтересованный читатель может обратиться к работе Loader (1999), где обсуждаются относительные достоинства методов подстановки по сравнению с другими методами выбора ширины окна, обсуждаемыми ниже.

Методы кросс-валидации

Методы кросс-валидация на основе наименьших квадратов – это полностью автоматический и диктуемый данными метод выбора сглаживающего параметра. Этот метод основан на принципе выбора ширины окна, минимизирующей интегральную среднеквадратическую ошибку получающейся оценки. Интеграл квадрата разности y(x) и \hat{y}(x) имеет вид
\int{\[y(x) - \hat{y}(x)\]^2dx } = \int{y^2(x)dx} - 2*\int{y(x)\hat{y}(x)dx} + \int{\hat{y}^2(x)dx}
Можно заменить эти величины их выборочными аналогами, сделать поправку на смещение и получить целевую функцию, которую затем можно минимизировать с помощью численных методов. Этот подход был предложен в работах Rudemo (1982) и Bowman (1984). Для понимания сущности комментариев в Loader (1999) на Рис. 1 изображены оценки бимодальной плотности – ядерная оценка при применении правила подстановки и кросс-валидации на основе наименьших квадратов. Рис. 1 показывает, что на самом деле правило подстановки чрезмерно сглаживает, приводя к существенному смещению в левой вершине. Кросс-валидация на основе наименьших квадратов исправляет это, как отмечает Loader (1999), но ценой дополнительной вариации в правой вершине.
Одна из проблем данного подхода – его чувствительность к наличию округленных или дискретизированных данных, а также к мелкомасштабным эффектам в данных.
Из примера следует, что, возможно, ядерную оценку с фиксированным параметром  h можно улучшить, и существуют «адаптивные» ядерные оценки, которые позволяют  h меняться в точке x или X_i ; см. Abramson (1982) и Breiman, Meisel, Purcell (1977). Эти оценки, однако, способствуют введению ложного шума в оценку плотности. Однако метод с фиксированным  h доминирует в прикладных исследованиях.

Бутстраповские методы

Faraway, Jhun (1990) предложили метод выбора ширины окна h на основе бутстрапа путем оценивания интегральной среднеквадратичной ошибки для каждой фиксированной ширины окна, и затем минимизации по всем значениям. Данный подход использует сглаженный бутстраповский метод на основе начальной оценки плотности. Один из недостатков этого подхода в том, что целевая функция является случайной, что может привести к проблемам при численной минимизации, а также его вычислительная сложность.

Ядерные веса определяют некоторую окрестность вокруг точки x лежащей на сетке. Следующий вопрос сглаживания – полиномиальное приближение функции y в этой окрестности.

Локально полиномиальное приближение

Рис. 2. Локально полиномиальное сглаживание
Рис. 2. Локально полиномиальное сглаживание
Простейшим полиномом приближения в такой окрестности является константа. Ядерная оценка минимизирует сумму квадратов невязок в окрестности точки x, форма и размер которой определяется ядром K.
Локально полиномиальное приближение и его связь с ядерным сглаживанием подробно исследованы в работе (Muller 1987), где показана их эквивалентность.
Подробнее также см. Алгоритм LOWESS

kNN оценки

Рис. 3. k-NN сглаживание
Рис. 3. k-NN сглаживание
Конструкция оценок ближайших соседей отличается от ядерных оценок. Ядерная оценка определяется как взвешенное среднее перемененных отклика в фиксированной окрестности точки x, причем веса определялись ядром K и шириной окна h. Оценка k-ближайших соседей представляет собой среднее, взвешенное в изменяющейся окрестности. Эта окрестность определяется только теми значениями переменной X, которые являются k ближайшими к x по евклидову (обычно) расстоянию. Последовательность k-NN весов была введена в работе Loftsgaarden, Quesenberry (1965) для близкой задачи оценивания плотности и использовалась в Cover, Hart(1967) для целей классификации.
Параметр сглаживания k определяет степень гладкости оценки кривой. Он играет ту же роль, что и ширина окна для ядерных сглаживателей. Влияние переменного k на качественные характеристики оценки аналогочино случаю ядерных оценок с прямоугольным ядром.
На Рис. 3. изображен пример сравнения ядерного сглаживания с квартическим ядром и k-NN сглаживания. Ширина окна выбиралась методом кросс-проверки. Данные прогонялись через окна шириной h=0.25 для ядерного сглаживания на отрезке [0,3] и h=0.15 для оси значений. Получившиеся кривые регрессии практически совпадают для x\le 1, где лежит большая часть данных. При бо‘льших значения x наблюдается существенное расхождение кривых: ядерная оценка показывает очевидное бимодальное соотношение, а симметризованная оценка ближайших соседей указывает либо на асимптоту, либо даже на слабое убывание с ростом дохода. В контексте задачи, кажется, что последнее содержит больше смысла с точки зрения экономики...

Оценки ортогональных разложений

Рис. 4. Сглаживание c помощью ортогональных разложений
Рис. 4. Сглаживание c помощью ортогональных разложений

Предположим, что функция регрессии может быть представлена в виде ряда Фурье

y(x)=\sum_{j=0}^{\infty}\beta_j\varphi_j(x),
где {\{\varphi_j\}}_{j=0}^\infty - известна система базисных функций, а {\{\beta_j\}}_{j=0}^\infty - неизвестные коэффициенты Фурье. В работе Szego (1959) приведены условия, при которых такое представление возможно. Хорошо известными системами базисных функций являются полиномы Лагерра и полиномы Лежандра. Как только фиксирован базис функций, проблема оценивания функции регрессии может быть сведена к оцениванию коэффициентов Фурье. Конечно, существует определенная трудность, состоящая в том, что может быть бесконечно много ненулевых коэффициентов \beta_j. Таким образом, при заданном конечном объеме выборки m можно эффективно оценить лишь подмножество коэффициентов.
Пример применения показан на Рис. 4.

Сглаживание сплайнами

Рис. 3. Сглаживание с помощью сплайнов
Рис. 3. Сглаживание с помощью сплайнов

Общей мерой близости к данным для некоторой кривой g является сумма квадратов невязок

\sum_{i=1}^{n}{(Y_i-g(X_i))}^2
Если g может любой кривой - неограниченной в функциональном смысле - то эта мера, имеющая смысл расстояния, равна нулю для всякой кривой g, интерполирующей данные. Подход, основанный на сглаживании сплайнами, исключает эту нежелательную интерполяцию данных за счет достижения компромисса между двумя противоречивыми целями: получить хорошую аппроксимацию данных и получить кривую, не имеющую слишком быстрых локальных изменений.
Известны различные способы количественной оценки локальных изменений. Можно определить меру плавности кривой, основанную, например, на первой, второй, и более старших производных. Для успешного раскрытия основной идеи удобнее всего ввести интеграл от квадрата второй производной, т.е. для количественной оценки локального изменения использовать штраф за нарушение плавности
\int {(g''(x))}^2dx.
Пример сглаживания сплайнами представлен на Рис. 5. интерпретация данных: данные о мотоцикле [ Значения X (в мс) после смоделированного столкновения с мотоциклом. Переменная отклика Y - ускорение (в g) посмертного тестирования объекта. Из Schmidt, Mattern, Schiiler (1981)]

Перечень менее распространенных методов

Рис. 6. Регрессограмма
Рис. 6. Регрессограмма

Рекуррентные методы

Предположим, что данные \{(X_i,Y_i)\}_{i\ge l} наблюдаются не как выборка фиксированного объема m, а как последовательность пар (X_1,Y_1),(X_2,Y_2),\ldots поступающих с выхода некоторого устройства наблюдения. Такие устройства присутствуют в задачах контроля (surveillance problems), управления (control operations) или вмешательства(intervention problems). В общем случае можно рассматривать данные как временной ряд. Поскольку непараметрическая

оценка обычно определяется по всей выборке, ее приходится пересчитывать при поступлении новых данных. Следовательно, с вычислительной точки зрения предпочтительнее, чтобы оценка регрессии, основанная на (n + 1) точках, строилась исходя из (n + 1)-го наблюдения (X_{n+i},Y_{n+1}) и оценки, полученной по первым n точкам, без вызова предыдущих данных из памяти компьютера.

Регрессограмма

Этот термин был введен Тьюки (Tukey, 1961) для того, чтобы подчеркнуть связь этой оценки с гистограммой. Регрессограмма представляет собой среднее тех значений переменных отклика, для которых соответствующие величины X попадают в один из интервалов разбиения пространства наблюдений переменной X Tukey(1947) - ее можно рассматривать как аппроксимацию y(x) ступенчатой функцией, и она фактически является ядерной оценкой (с прямоугольным ядром), вычисленной в средних точках интервалов разбиения. На Рис. 6. изображены данные о работе мотоцикла и регрессограмма при шаге разбиения 4.

Медианное сглаживание

Рис. 7. Медианное сглаживание
Рис. 7. Медианное сглаживание
Предположим, что целью аппроксимации является кривая условий медианы med(Y|X = x), а не кривая условного среднего. Последовательность "локальных медиан" для значений переменной отклика определяет медианный сглаживателъ. Медианное сглаживание сыграло важную роль в историческом развитии методов сглаживания.
Эта оценка имеет очевидную аналогию с k-NN-оценкой, но отличается, по крайней мере, в двух аспектах: медианное сглаживание устойчиво по отношению к большим выбросам, и с помощью этого метода появляется возможность моделировать разрывы кривой регрессии med(Y|X = x). На Рис. 7. на примере данных о мотоциклах(cм. пояснение к рисунку 5) приведено сравнение двух методов оценивания — медианного сглаживания и k-NN-оценки.
Этот пример выявляет свойство робастности медианного сглаживания. Медианная оценка не подвержена влиянию группы возможных выбросов в районе точки x=35, и она несколько ближе к основной массе данных в двух «областях всплесков» (x = 20,32). Некоторый недостаток состоит в том, что по своей природе оценка медианного сглаживания является грубой характеристикой.

Литература

  1. Хардле В. Прикладная непараметрическая регрессия. — 1989.
  2. Расин, Джеффри «Непараметрическая эконометрика: вводный курс». — Квантиль, №4, стр. 7–56., 2008.

Ссылки

  1. Abramson, I.S. On bandwidth variation in kernel estimates – a square root law. Annals of Statistics 10. — 1982. — С. 1217–1223.
  2. Bowman, A.W. An alternative method of cross-validation for the smoothing of density estimates. Biometrika 71. — 1984. — С. 353–360.
  3. Breiman, L., W. Meisel, E. Purcell Variable kernel estimates of multivariate densities. Technometrics 19. — 1977. — С. 135–144.
  4. Cover, T. M. and Hart, P. E. Nearest neighbor pattern classification. IEEE Transactions on Information Theory, 13. — 1967. — С. 21-27.
  5. Faraway, J., M. Jhun Bootstrap choice of bandwidth for density estimation. Journal of the American Statistical Association 85. — 1990. — С. 1119–1122.
  6. Loader, C.R. Bandwidth selection: Classical or plug-in? Annals of Statistics 27. — 1999. — С. 415–438.
  7. Loftsgaarden, D. O., Quesenberry, G. P. A nonparametric estimate of a multivariate density function. Annals of Mathematical Statistics, 36. — 1965. — С. 1049-1051.
  8. Muller H. G. Weighted local regression and kernel methods for nonparametric curve fitting. Journal of the American Statistical Association, 82. — 1987. — С. 231-238.
  9. Rudemo, M. Empirical choice of histograms and kernel density estimators. Scandinavian Journal of Statistics 9. — 1982. — С. 65–78.
  10. Schmidt, G. Mattern, R., Schiiler, F. Biomechanical investigation to determine physical and traumatological differentiation criteria for the maximum load capacity of head and vertebral column with and without protective helmet under effects of impact. EEC Research Program on Biomechanics of Impacts. Final Report Phase III, Project 65, Institut fur Rechtsmedizin, Universitat Heidelberg, West Germany.. — 1981. — С. 231-238.
  11. Sheather, S., M. Jones A reliable data-based bandwidth selection method for kernel density estimation. Journal of Royal Statistical Society, Series B 53. — 1991. — С. 683–690.
  12. Szego, G. Orthogonal polynomials. Amer. Math. Soc. Coll. PubL, 23. — 1959.
  13. Tukey, J. W. Nonparametric estimation II. Statistically equivalent blocks and tolerance regions. The continuous case. Annals of Mathematical Statistics, 18. — 1947. — С. 529-539.

См. также

— Валентин Голодов 18:37, 8 января 2010 (MSK)

Личные инструменты