Участник:Tolstikhin/TEMP

Материал из MachineLearning.

Перейти к: навигация, поиск

Рассматривается задача классификации в \mathbb{R}^2 с двумя классами. Решать ее мы будем в рамках нормального дискриминантного анализа, то есть мы предполагаем, что каждый из классов имеет 2-мерное нормальное распределение. Напомним, что плотность n-мерного нормального распределения задается формулой:

p(\vec x) = \frac{1}{(2\pi)^{n/2}|\Sigma|^{1/2}} \exp{\bigl(-\textstyle\frac{1}{2}(\vec x - \vec\mu)^{\top}\Sigma^{-1}(\vec x - \vec \mu)\bigr)},\;\vec x,\vec \mu \in \mathbb{R}^n,\; \Sigma\in\mathbb{R}^{n\times n}.

Приведите конкретный пример параметров задачи — априорных вероятностей классов $P_1,P_2, штрафов \lambda_1, \lambda_2, ковариационных матриц \Sigma и средних \vec \mu для каждого из двух классов, — когда разделяющей поверхностью оптимального байесовского классификатора будет прямая x_2=x_1, и при этом для каждого из классов отношение больших полуосей линий уровня к меньшим полуосям равно \sqrt{2}.

Личные инструменты