Метод главных компонент
Материал из MachineLearning.
 (Сделал стаб)  | 
				|||
| Строка 1: | Строка 1: | ||
| - | Метод главных компонент   | + | '''Метод главных компонент''' — способ снижения размерности пространства данных.  | 
| - | + | Он заключается в нахождении линейного ортогонального преобразования исходной матрицы данных в пространство меньшей размерности.  | |
| + | При этом выбираются такая ортогональная система координат, которая обеспечивает наименьшую потерю информации в исходных данных.  | ||
| + | Последнее подразуменает минимальную среднеквадратичную ошибку при проекции данных в  пространство заданной размерности.  | ||
| + | == Определение метода главных компонент ==  | ||
| + | [[Изображение:Principal_Component_Analysis.gif|right|frame|Векторы-строки матрицы исходных данных <tex>A</tex> показаны звездочками. Красным крестом отмечен первый вектор-столбец матрицы  | ||
| + | вращения <tex>V</tex>. Точками отмечены проекции векторов на новую систему координат. Сумма квадратов длин синих линий есть ошибка —  | ||
| + | количество информации, утраченной при снижении размерности пространства.]]  | ||
| + | |||
| + | Одной из задач аппроксимации является задача приближения множества векторов-строк <tex>\mathbf{a}_i</tex> матрицы <tex>A</tex> их проекциями на некоторую новую ортогональную систему координат.  | ||
| + | Эта система отыскивается на множестве преобразований вращений <tex>V</tex> начальной системы координат.  | ||
| + | При этом множество аппроксимируемых векторов <tex>\mathbf{a}_i</tex>, <tex>i=1,...,m</tex>, отображается в новое множество векторов <tex>\mathbf{z}_i</tex>, где <tex>\mathbf{a}_i,\mathbf{z}_i\in\mathbb{R}^n</tex>.  | ||
| + | Оператором отображения  | ||
| + | <center><tex>Z=A^TV</tex></center>  | ||
| + | является ортонормальная матрица <tex>V</tex>, то есть <tex>VV^T=I</tex> — единичная матрица.  | ||
| + | Столбцы <tex>Z</tex> называются главными компонентами матрицы <tex>A</tex>.  | ||
| + | Матрица <tex>V</tex> строится таким образом, что среднеквадратическая  | ||
| + | разность между векторами <tex>\mathbf{a}_i</tex> и проекцией этих векторов на  | ||
| + | ортогональную систему координат, заданных <tex>\mathbf{z}_i</tex> минимальна.  | ||
| + | Наиболее удобным способом получения матрицы <tex>V</tex> является [[сингулярное разложение]] матрицы <tex>A</tex>:  | ||
| + | <center><tex>A=U\Lambda V^T.</tex></center>  | ||
| + | |||
| + | Метод главных компонент позволяет с помощью <tex>k</tex> первых главных компонент можно восстановить исходную матрицу с минимальной ошибкой.  | ||
| + | Критерий минимального значения суммы квадратов расстояния от векторов-столбцов матрицы данных до их проекций на  | ||
| + | первую главную компоненту называется критерием наибольшей информативности C.Р. Рао.  | ||
| + | Кроме того, матрица <tex>V</tex> выполняет декоррелирующее преобразование, называемое также преобразованием Карунена-Лоэва.  | ||
| + | В результате этого преобразования исчезает возможная корреляция между векторами-столбцами исходной матрицы <tex>A</tex>.  | ||
| + | Рао было показано, что строки матрицы <tex>V</tex> есть собственные векторы ковариационной матрицы <center><tex>\Sigma=A^TA,</tex></center>  | ||
| + | где матрица <tex>A</tex> <i>центрирована</i> — из каждого ее столбца вычтено среднее значение по этому столбцу.  | ||
| + | |||
| + | == Понятие наибольшей информативности ==  | ||
| + | |||
| + | Рассмотрим <tex>n</tex>-мерную случайную величину <tex>A</tex> с ковариационной  | ||
| + | матрицей <tex>\Sigma=A^TA</tex>. Обозначим <tex>\mu_1,\dots,\mu_n</tex> —  | ||
| + | соответствующие собственные числа и <tex>\mathbf{v}_1,\dots,\mathbf{v}_n</tex> — собственные  | ||
| + | векторы матрицы <tex>\Sigma</tex>.  | ||
| + | Заметим, что собственные числа и элементы собственных векторов  | ||
| + | матрицы <tex>\Sigma</tex> всегда действительны. Тогда по теореме о собственных числах  | ||
| + | <center><tex>\Sigma=\sum_{i=1}^n\mu_i\mathbf{v}_i\mathbf{v}_i^T,</tex>  <tex>I=\sum_{i=1}^n\mathbf{v}_i\mathbf{v}_i^T,</tex></center>  | ||
| + | |||
| + | <center><tex>\mathbf{v}_i^T{\Sigma}\mathbf{v}_i=\mu_i,</tex>  <tex>\mathbf{v}_i^T{\Sigma}\mathbf{v}_j=0,</tex>   <tex>i\neq{j}.</tex> (*)</center>  | ||
| + | Случайная величина <tex>\mathbf{z}_i=\mathbf{v}_i^TA</tex> называется <tex>i</tex>-й главной  | ||
| + | компонентой случайной величины <tex>A</tex>. Матрица вращения <tex>V</tex>  | ||
| + | составлена из векторов-столбцов <tex>\mathbf{v}_1,\ldots,\mathbf{v}_n</tex>. Матрица  | ||
| + | главных компонент <tex>Z=A^TV</tex> имеет следующие свойства.  | ||
| + | |||
| + | {{Заготовка}}  | ||
| + | |||
| + | == Смотри также ==  | ||
| + | * [[Сингулярное разложение]]  | ||
| + | * [[Интегральный индикатор]]  | ||
| + | |||
| + | == Литература ==  | ||
| + | * Рао С.Р. Линейные статистические методы и их применения. М.: Наука. 1968. — С. 530-533.  | ||
| + | * Айвазян С.А., Бухштабер В.М., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Классификация и снижение размерности. М.: Финансы и статистика. 1989.  | ||
| + | * Jolliffe I.T. Principal Component Analysis, Springer Series in Statistics. Springer. 2002.  | ||
| + | |||
| + | == Внешние ссылки ==  | ||
| + | * [http://pca.narod.ru/ Нелинейный метод главных компонент]  | ||
| + | |||
| + | [[Категория:Регрессионный анализ]]  | ||
[[Категория:Интеллектуальный анализ данных]]  | [[Категория:Интеллектуальный анализ данных]]  | ||
[[Категория:Машинное обучение]]  | [[Категория:Машинное обучение]]  | ||
Версия 14:43, 16 марта 2008
Метод главных компонент  способ снижения размерности пространства данных. Он заключается в нахождении линейного ортогонального преобразования исходной матрицы данных в пространство меньшей размерности. При этом выбираются такая ортогональная система координат, которая обеспечивает наименьшую потерю информации в исходных данных. Последнее подразуменает минимальную среднеквадратичную ошибку при проекции данных в пространство заданной размерности.
Содержание | 
Определение метода главных компонент
  Одной из задач аппроксимации является задача приближения множества векторов-строк  матрицы 
 их проекциями на некоторую новую ортогональную систему координат.
Эта система отыскивается на множестве преобразований вращений 
 начальной системы координат.
При этом множество аппроксимируемых векторов 
, 
, отображается в новое множество векторов 
, где 
.
Оператором отображения
является ортонормальная матрица , то есть 
  единичная матрица.
Столбцы 
 называются главными компонентами матрицы 
.
Матрица 
 строится таким образом, что среднеквадратическая
разность между векторами 
 и проекцией этих векторов на
ортогональную систему координат, заданных 
 минимальна.
Наиболее удобным способом получения матрицы 
 является сингулярное разложение матрицы 
:
Метод главных компонент позволяет с помощью  первых главных компонент можно восстановить исходную матрицу с минимальной ошибкой.
Критерий минимального значения суммы квадратов расстояния от векторов-столбцов матрицы данных до их проекций на
первую главную компоненту называется критерием наибольшей информативности C.Р. Рао.
Кроме того, матрица 
 выполняет декоррелирующее преобразование, называемое также преобразованием Карунена-Лоэва.
В результате этого преобразования исчезает возможная корреляция между векторами-столбцами исходной матрицы 
.
где матрица  центрирована  из каждого ее столбца вычтено среднее значение по этому столбцу.
Понятие наибольшей информативности
Рассмотрим -мерную случайную величину 
 с ковариационной
матрицей 
. Обозначим 
 
соответствующие собственные числа и 
  собственные
векторы матрицы 
.
Заметим, что собственные числа и элементы собственных векторов
матрицы 
 всегда действительны. Тогда по теореме о собственных числах
Случайная величина  называется 
-й главной
компонентой случайной величины 
. Матрица вращения 
составлена из векторов-столбцов 
. Матрица
главных компонент 
 имеет следующие свойства.
Смотри также
Литература
- Рао С.Р. Линейные статистические методы и их применения. М.: Наука. 1968.  С. 530-533.
 - Айвазян С.А., Бухштабер В.М., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Классификация и снижение размерности. М.: Финансы и статистика. 1989.
 - Jolliffe I.T. Principal Component Analysis, Springer Series in Statistics. Springer. 2002.
 

