Коэффициент корреляции Пирсона

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Статистическая проверка наличия корреляции)
м
 
(7 промежуточных версий не показаны.)
Строка 1: Строка 1:
{{TOCright}}
{{TOCright}}
== Определение ==
== Определение ==
-
Коэффициент корреляции Пирсона характеризует существование [[Линейная зависимость|линейной зависимости]] между двумя величинами.
+
Коэффициент корреляции Пирсона характеризует существование линейной зависимости между двумя величинами.
-
Даны две выборки
+
Пусть даны две выборки <tex>x^m=\left( x_1, \cdots ,x_m \right), \; y^m=\left( y_1, \cdots ,y_m \right);</tex> коэффициент корреляции Пирсона рассчитывается по формуле:
-
<tex>x=\left( x_1, \cdots ,x_n \right), \; y=\left( y_1, \cdots ,y_n \right) </tex>;
+
::<tex>r_{xy} = \frac {\sum_{i=1}^{m} \left( x_i-\bar{x} \right)\left( y_i-\bar{y} \right)}{\sqrt{\sum_{i=1}^{m} \left( x_i-\bar{x} \right)^2 \sum_{i=1}^{m} \left( y_i-\bar{y} \right)^2}} = \frac {cov(x,y)}{\sqrt{s_x^2 s_y^2}},</tex>
-
Коэффициент корреляции Пирсона рассчитывается по формуле:
+
где <tex>\bar{x}, \bar{y}</tex> – выборочные средние <tex>x^m</tex> и <tex>y^m</tex>, <tex>s_x^2, s_y^2</tex> – выборочные дисперсии, <tex>r_{xy} \in \left[-1,1\right]</tex>.
-
<tex>r_{xy} = \frac {\sum_{i=1}^{n} \left( x_i-\bar{x} \right)\left( y_i-\bar{y} \right)}{\sqrt{\sum_{i=1}^{n} \left( x_i-\bar{x} \right)^2 \sum_{i=1}^{n} \left( y_i-\bar{y} \right)^2}} = \frac {cov(x,y)}{\sqrt{S_x^2S_y^2}} </tex>
+
Коэффициент корреляции Пирсона называют также теснотой линейной связи:
 +
*<tex>\left| r_{xy} \right| =1 \;\Rightarrow\; x, y</tex> линейно зависимы,
 +
*<tex>r_{xy}=0 \;\Rightarrow\; x, y</tex> линейно независимы.
-
где
+
== Статистическая проверка наличия корреляции ==
-
<tex>\bar{x}, \; \bar{y}</tex> - средние значения выборок x и y;
+
'''Гипотеза:''' <tex>H_0</tex>: отсутствует линейная связь между выборками <tex>x</tex> и <tex>y</tex> (<tex>r_{xy} = 0</tex>).
-
<tex>S_x, \; S_y</tex> - среднеквадратичные отклонения;
+
'''Статистика критерия: '''
-
<tex>r_{xy} \in \left[-1,1\right]</tex> − называют также теснотой линейной связи.
+
::<tex> T = \frac{r_{xy}\sqrt{n-2}}{sqrt{1-r^2_{xy}}} \sim t_{n-2} </tex> – [[распределение Стьюдента]] с <tex>n-2</tex> степенями свободы.
-
*<tex>\left| r_{xy} \right| =1</tex> , тогда <tex>x, y</tex> - линейно зависимы.
+
-
*<tex>r_{xy}=0</tex>, тогда <tex>x, y</tex> - линейно независимы.
+
-
== Статистическая проверка наличия корреляции ==
+
'''Критерий:'''
-
Гипотеза <tex>H_0</tex>: Отсутствие линейной связи между выборками x и y (<tex>r_{xy} = 0</tex>)
+
<tex>T \in [t_\alpha,t_{1-\alpha}]</tex>, где <tex>t_\alpha</tex> есть α-[[квантиль]] распределения Стьюдента.
-
 
+
-
Статистика критерия:
+
-
 
+
-
<tex> T = \frac{2xy\sqrt{n-2}}{sqrt{1-2x^2y^2}} \sim t_{n-2} </tex> - [[Распределение Стьюдента]] с <tex>n-2</tex> степенями свободы.
+
== Слабые стороны ==
== Слабые стороны ==
 +
[[Image: Correlation.png|300px|thumb| Четыре различных набора данных, коэффициент корреляции на которых равен 0.81]]
 +
* Неустойчивость к выбросам.
-
* [[Image: Anscombe.svg|150px|thumb| Четыре различных набора данных, коэффициент корреляции на которых равен 0.81]] Неустойчивость к выбросам;
+
* С помощью коэффициента корреляции Пирсона можно определить силу линейной зависимости между величинами, другие виды взаимосвязей выявляются методами [[Регрессионный анализ|регрессионного анализа]].
-
 
+
-
* С помощью коэффициента корреляции можно определить линейную зависимость между величинами, другие взаимосвязи выявляются методами [[Регрессионный анализ|регрессионного анализа]];
+
* Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот.
* Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот.
-
Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных: x,y,z. Исключим влияние переменной z:
+
Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных <tex>x, y, z.</tex> Исключим влияние переменной <tex>z</tex>:
-
:: <tex>r_{xy \setminus z}=\frac{r_{xy}-r_{xz}r_{yz}}{\sqrt{ \left(\ 1-r_{xz} \right)^2 \left(\ 1-r_{yz} \right)^2}} </tex>
+
:: <tex>r_{xy \setminus z}=\frac{r_{xy}-r_{xz}r_{yz}}{\sqrt{ \left(\ 1-r_{xz} \right)^2 \left(\ 1-r_{yz} \right)^2}} </tex> – [[Частная корреляция|частный коэффициент корреляции]].
Для исключения влияния большего числа переменных:
Для исключения влияния большего числа переменных:
-
:: <tex>r_{ij \setminus vars}=\frac{-R_{ij}}{\sqrt{R_{ii}R_{jj}}} </tex>
+
:: <tex>r_{ij \setminus vars}=\frac{-R_{ij}}{\sqrt{R_{ii}R_{jj}}},</tex>
 +
 
 +
:: <tex>R_{ij} = (-1)^{i+j}M_{ij},</tex>
 +
 
 +
где <tex>M_{ij} </tex> – главный минор матрицы коэффициентов корреляции переменных
-
<tex> R_{ij} = (-1)^{i+j}M_{ij} </tex>, где <tex>M_{ij} </tex> - гл. минор матрицы коэффициентов корреляции переменных <tex> R =
+
::<tex> R = \begin{pmatrix} 1 & r_{12} & \dots & r_{1k} \\r_{21} & 1 & & r_{2k}\\\vdots & & \ddots & \vdots \\r_{k1} & \dots & \dots & 1\end{pmatrix} .</tex>
-
\begin{pmatrix}
+
-
1 & r_{12} & \dots & r_{1k} \\
+
-
r_{21} & 1 & \dots & r_{2k}\\
+
-
\vdots & & & \vdots \\
+
-
r_{k1} & \dots & \dots & 1
+
-
\end{pmatrix}
+
-
</tex>;
+
== Литература ==
== Литература ==

Текущая версия

Содержание

Определение

Коэффициент корреляции Пирсона характеризует существование линейной зависимости между двумя величинами.

Пусть даны две выборки x^m=\left( x_1, \cdots ,x_m  \right), \; y^m=\left( y_1, \cdots ,y_m  \right); коэффициент корреляции Пирсона рассчитывается по формуле:

r_{xy} = \frac {\sum_{i=1}^{m} \left( x_i-\bar{x} \right)\left( y_i-\bar{y} \right)}{\sqrt{\sum_{i=1}^{m} \left( x_i-\bar{x} \right)^2 \sum_{i=1}^{m} \left( y_i-\bar{y} \right)^2}} = \frac {cov(x,y)}{\sqrt{s_x^2 s_y^2}},

где \bar{x}, \bar{y} – выборочные средние x^m и y^m, s_x^2,  s_y^2 – выборочные дисперсии, r_{xy} \in \left[-1,1\right].

Коэффициент корреляции Пирсона называют также теснотой линейной связи:

  • \left| r_{xy} \right| =1 \;\Rightarrow\; x, y линейно зависимы,
  • r_{xy}=0 \;\Rightarrow\; x, y линейно независимы.

Статистическая проверка наличия корреляции

Гипотеза: H_0: отсутствует линейная связь между выборками x и y (r_{xy} = 0).

Статистика критерия:

 T = \frac{r_{xy}\sqrt{n-2}}{sqrt{1-r^2_{xy}}} \sim t_{n-2} распределение Стьюдента с n-2 степенями свободы.

Критерий:

T \in [t_\alpha,t_{1-\alpha}], где t_\alpha есть α-квантиль распределения Стьюдента.

Слабые стороны

Четыре различных набора данных, коэффициент корреляции на которых равен 0.81
Четыре различных набора данных, коэффициент корреляции на которых равен 0.81
  • Неустойчивость к выбросам.
  • С помощью коэффициента корреляции Пирсона можно определить силу линейной зависимости между величинами, другие виды взаимосвязей выявляются методами регрессионного анализа.
  • Необходимо понимать различие понятий "независимость" и "некоррелированность". Из первого следует второе, но не наоборот.

Для того, чтобы выяснить отношение между двумя переменными, часто необходимо избавиться от влияния третьей переменной. Рассмотрим пример 3-х переменных x, y, z. Исключим влияние переменной z:

r_{xy \setminus z}=\frac{r_{xy}-r_{xz}r_{yz}}{\sqrt{ \left(\ 1-r_{xz} \right)^2 \left(\ 1-r_{yz} \right)^2}}   частный коэффициент корреляции.

Для исключения влияния большего числа переменных:

r_{ij \setminus vars}=\frac{-R_{ij}}{\sqrt{R_{ii}R_{jj}}},
R_{ij} = (-1)^{i+j}M_{ij},

где M_{ij} – главный минор матрицы коэффициентов корреляции переменных

 R = \begin{pmatrix} 1 & r_{12} & \dots & r_{1k} \\r_{21} & 1 & & r_{2k}\\\vdots & & \ddots & \vdots \\r_{k1} & \dots & \dots & 1\end{pmatrix} .

Литература

См. также

Ссылки

Личные инструменты