Метод Белсли
Материал из MachineLearning.
м  (→Выявление мультиколлинеарности)  | 
				м  (→Выявление мультиколлинеарности)  | 
			||
| Строка 81: | Строка 81: | ||
Из (18) мы можем разделить отклонение:<br/>  | Из (18) мы можем разделить отклонение:<br/>  | ||
<tex>Var({\beta}_{i})=Var({\beta}_{Si})+Var({\beta}_{Ni})= {\sigma}^2 [{VIF}_{Si} +{VIF}_{Ni}]= {\sigma}^2 \sum^{s}_{j=1} { \frac{{\upsilon}_{ij}^2}{d_j^2}}+ {\sigma}^2  \sum^{p}_{j=s+1} { \frac{{\upsilon}_{ij}^2}{d_j^2}}</tex><br/>  | <tex>Var({\beta}_{i})=Var({\beta}_{Si})+Var({\beta}_{Ni})= {\sigma}^2 [{VIF}_{Si} +{VIF}_{Ni}]= {\sigma}^2 \sum^{s}_{j=1} { \frac{{\upsilon}_{ij}^2}{d_j^2}}+ {\sigma}^2  \sum^{p}_{j=s+1} { \frac{{\upsilon}_{ij}^2}{d_j^2}}</tex><br/>  | ||
| - | Так как сингулярные значения <tex> d_{s+1}...d_p</tex> близки к нулю, если соответствующие <tex>{\upsilon}_{ij}</tex> не очень малы, второй член будет больше первого, т.к отклонение <tex>{\beta}_{Ni}</tex> будет больше чем <tex>{\beta}_{Si}</tex>.Тогда по мере увеличения размерности квази-нуль пространства, мы можем ожидать, что переменные, которые более активно участвовуют в коллинеарных отношениях, связанных с собственными векторами принадлежащими этому пространству должны будут уменьшать значения <tex>Var({\beta}_{Si})</tex> и увеличивать <tex>Var({\beta}_{Ni})</tex>.  | + | Так как сингулярные значения <tex> d_{s+1}...d_p</tex> близки к нулю, если соответствующие <tex>{\upsilon}_{ij}</tex> не очень малы, второй член будет больше первого, т.к отклонение <tex>{\beta}_{Ni}</tex> будет больше чем <tex>{\beta}_{Si}</tex>.Тогда по мере увеличения размерности квази-нуль пространства, мы можем ожидать, что переменные, которые более активно участвовуют в коллинеарных отношениях, связанных с собственными векторами принадлежащими этому пространству должны будут уменьшать значения <tex>Var({\beta}_{Si})</tex> и увеличивать <tex>Var({\beta}_{Ni})</tex>.<br/>  | 
| + | По другому определить поведение параметров в присутствии коллинеарности можно через корреляционную матрицу <tex>{\beta}</tex> <br/>  | ||
| + | <Cor(\beta)=Q^{-1/2}Cov(\beta)Q^{-1/2)=Q^{-1/2}(V D^{-2} V^T)   Q^{-1/2}</tex><br/>  | ||
| + | где <tex>Q=diag(V D^{-2} V^T)</tex> - диагональная матрица чьи элементы совпадают с диагональными элементами <tex>(X^T X)^{-1}</tex> . Эта корреляционная матрица может быть разложена аналогично (18):<br/>  | ||
| + | <tex>Cor({\beta}_S)=Q^{-1/2}_S(V_S D^{-2}_S V^T_S)   Q^{-1/2}_S</tex><br/>  | ||
| + | <tex>Cor({\beta}_N)=Q^{-1/2}_N(V_N D^{-2}_N V^T_N)   Q^{-1/2}_N</tex>  (25)<br/>  | ||
| + | Определим 2 новые матрицы:<br/>  | ||
| + | <tex>S-Cor({\beta}_S)=Q^{-1/2}(V_S D^{-2}_S V^T_S)   Q^{-1/2}</tex><br/>  | ||
| + | <tex>S-Cor({\beta}_N)=Q^{-1/2}(V_N D^{-2}_N V^T_N)   Q^{-1/2}</tex>(26)<br/>  | ||
| + | сумма которых равна <tex>Cor({\beta}</tex>. Основные диагональные элементы <tex>S-Cor({\beta}_N)</tex> это мера отклонения каждого параметра связанная с (p-s) зависимостями. Недиагональные элементы - мера корреляции между 2-мя признаками. <tex>(i,j)</tex> элементы матрицы это:<br/><br/>  | ||
| + | <tex>S-Cor({\beta}_{iN}{\beta}_{jN})= \frac {\sum^{p}_{l=s+1} { \frac{{\upsilon}_{il} {\upsilon}_{jl}}{d_l^2}}} {\sqrt{\sum^{p}_{l=1} { \frac{{\upsilon}_{il}^2}{d_l^2} \sum^{p}_{l=1} { \frac{{\upsilon}_{jl}^2}{d_l^2}}}</tex>  | ||
== Смотри также ==  | == Смотри также ==  | ||
Версия 03:19, 29 июня 2010
Линейные регрессионные модели часто используются для исследования зависимости между ответом и признаками, однако результаты часто сомнительны, так как данные не всегда подходящие. Например, при большом количестве признаков часто многие из них сильно зависимы друг от друга, и эта зависимость уменьшает вероятность получения адекватных результатов. Belsley, Kuh и Welsch предложили метод анализа мультиколлинеарности основанный на индексах обусловленности(the scaled condition indexes) и дисперсионных долях(the variance-decomposition proportions).
Содержание | 
Разложение линейной модели
Линейная регрессионная модель: 
       (1)
 
где  - n-мерный ветор ответа(зависимой переменной), 
 - n x p (n>p) матрица признаков 
 - p-мерный вектор неизвестных коэффициентов, 
 - p-мерный вектор случайного возмущения с нулевым матожиданием и ковариационной матрицей 
, где 
 это n x n единичная матрица, а 
. Будем считать что 
 имеет ранг p.
Если есть коллинеарность между признаками согласно Belsley имеет смысл использовать сингулярное разложение(SVD) чтобы определить вовлеченные переменные. Матрица сингулярного разложения 
 определяется как: 
      (2)
Где  - n x p ортогональная матрица, 
 - p x p верхняя диагональная матрица, чьи неотрицательные элементы являются сингулярными значениями 
, 
 - p x p ортогональная матрица, чьи колонки это собственные вектора 
. Если существует коллинеарная зависимоть, то
будут какие-либо сингулярные значения, скажем, (р - s), которые близки к нулю.
Предположим, что 
, или просто 
, элементы матрицы 
 упорядочены так, что 
И рассмотрим разбиение
где 
 и 
 диогональные, и недиогональнык блоки нулевые. 
, или просто 
, содержит достаточно большие сингулярные значения, а 
, или 
, содержит близкие к нулю. 
Теперь разделим 
 и 
 соответственно: 
 
где  и 
 соответствуют первым s наибольших сингулярных значений, а 
 и 
 содержат 
 веторов соответствующих малым сингулярным значениям.
Матрица 
  ортогональна, т.е 
, так же как и 
 и 
. Таким образом : 
  
 
 
 
 
 
Т.к  тоже ортогональна, то 
 
 
 
 
 
 
Таким образом разложение нам дает: 
Обозначим слагаемые в правой части как 
 (8)
Заметим что получившиеся матрицы ортогональны, т.е :
(9) 
что обеспечивает возможность ортогонального разложения  :
 (10)
Здесь все матрицы имеют размер  и полагая что 
 имеет ранг p, 
 и 
 имеють ранг s и (p-s) соответственно. Тогда для разложения (2) :
 (11)
Далее мы получаем 
 (12)
и 
 (13)
Равенства в (12) и (13) получаются из (8) и (10) ссылаясь на то что из ортогональности  следует 
. Это значит что 
 содержит всю информацию, и только ее, входящую в 
 которая свободна от коллинеарности связанной с остальными (p-s) собственными векторами.
Соответственно  содержит только информацию связанную с коллинеарностью делая прогноз на дополнительное пространство 
. Это пространство связанное с элементами матрицы 
 близкими к 0 называется квази-нулевым пространством
Следовательно предложенное разложение подчеркивает  как часть 
 полученную из s основных компонентов которые в меньшей степени участвуют в коллинеарности. 
 же содержит информацию связанную с p-s компонентами которые участвую в коллинеарных зависимостях. Переменные, входящие в коллинеарности, это те, которые имеют наибольшие координаты в столбцах матрицы 
.
Вектор 
 минимизирующего ошибку в метода наименьших квадратов:
 
где  - псевдообратная матрица 
 и последнее равенство выполняется только если 
 имеет полный ранг. Используя предыдущее разложение может быть показано что:
Последнее равенство получается из того что 
 - сингулярное разложение 
 и следовательно 
. Для 
 аналогично.
Подставляя (15) и (7) в (14) получаем: 
Окончательно модель:
Где  это вектор остатков.
Из (15) получаем:
Элементы на главной диогонали  это VIF, которые могут быть разложены на компоненты соответствующие каждому 
 и 
Выявление мультиколлинеарности
Когда есть мультиколлинеарность одино или более собственных значений близко к нулю, и соответствующие им собственные вектора содержат информацию о зависимостях между признаками. Выведеное разложение помогает выявить какие переменные показывают наибольшую вовлеченность в зависимости.
Из (16) получаем:
где  и 
. Значения 
 и 
 зависят от элементов 
 и 
, и от соотношений 
 которые играют основную роль в объяснении соотношений между признаками. 
 всегда больше нуля(мы считаем что ранг 
 равен p), тогда как 
 принимает значения от -1 до 1. Отрицательные значения 
 могут вести к 
 и 
 разных знаков, и один из них может иметь абсолютное значение больше 
. Что касается собственных векторов соответствующих очень малым значениям собственных значений, то известно, что 
 с большими абсолютными значениями озночают что соответствующие переменные сильно вовлечены в мультиколлинеарность. Если несколько собственных значений близки к нулю, то мы можем увеличить порядок (p-s) 
 по шагам используя разложение (7) и обычно мы будем наблюдать уменьшение абсолютных значений 
 и увеличение 
. Когда (p-s) соответствует числу индексов обусловленности показывающих существование зависимостей 
 может рассматриваться как общие значения параметров метода наименьших квадратов. Это актуально, когда знак какого-либо параметра не является таким как ожидалось, и в целом это зависит от мультиколлинеарности.С помощью разложения, как уже отмечалось, мы можем получить что 
 будет иметь нужный знак, в то время как часть значения перешедшего 
 (благодаря коллинеарности) будет иметь противоположный знак и большее абсолютное значение.
Чтобы исследовать влияние коллинеарности на параметры линейной регрессии лучше, ковариационная матрица может быть переписана:
 
и
 
Отклонение каждого  может быть выражено как
 (22)
Из (18) мы можем разделить отклонение:
Так как сингулярные значения  близки к нулю, если соответствующие 
 не очень малы, второй член будет больше первого, т.к отклонение 
 будет больше чем 
.Тогда по мере увеличения размерности квази-нуль пространства, мы можем ожидать, что переменные, которые более активно участвовуют в коллинеарных отношениях, связанных с собственными векторами принадлежащими этому пространству должны будут уменьшать значения 
 и увеличивать 
.
По другому определить поведение параметров в присутствии коллинеарности можно через корреляционную матрицу  
<Cor(\beta)=Q^{-1/2}Cov(\beta)Q^{-1/2)=Q^{-1/2}(V D^{-2} V^T)   Q^{-1/2}</tex>
где  - диагональная матрица чьи элементы совпадают с диагональными элементами 
 . Эта корреляционная матрица может быть разложена аналогично (18):
  (25)
Определим 2 новые матрицы:
(26)
сумма которых равна . Основные диагональные элементы 
 это мера отклонения каждого параметра связанная с (p-s) зависимостями. Недиагональные элементы - мера корреляции между 2-мя признаками. 
 элементы матрицы это:

