Байесовские методы машинного обучения (курс лекций, Д.П. Ветров, Д.А. Кропотов)/2011/Задание 2

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
Текущая версия (18:26, 22 октября 2011) (править) (отменить)
м (Вариант 1)
 
(2 промежуточные версии не показаны)
Строка 1: Строка 1:
-
{{stop|Внимание! Текст задания находится в стадии формирования. Убедительная просьба не приступать к выполнению задания до тех пор, пока это предупреждение не будет удалено.}}
 
-
 
{{Main|Байесовские методы машинного обучения (курс лекций, Д.П. Ветров, Д.А. Кропотов)}}
{{Main|Байесовские методы машинного обучения (курс лекций, Д.П. Ветров, Д.А. Кропотов)}}
Строка 12: Строка 10:
== Вариант 1 ==
== Вариант 1 ==
# Доказать, что <tex>\frac{\partial}{\partial A}tr(ABAC) = C^TA^TB^T + B^TA^TC^T</tex>.
# Доказать, что <tex>\frac{\partial}{\partial A}tr(ABAC) = C^TA^TB^T + B^TA^TC^T</tex>.
-
# Вычислить <tex>\mathbb{E}_{\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)}(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a}) = \int(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a})\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)d\vec{x}</tex>.
+
# Вычислить <tex>\mathbb{E}_{\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)}(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a}) = \int(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a})\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)d\vec{x}</tex>. Здесь матрица <tex>B</tex> является симметричной и положительно определенной.
# Пусть <tex>p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma),\ p(\vec{y}|\vec{x})=\mathcal{N}(\vec{y}|A\vec{x},\Gamma)</tex>. Доказать, что <tex>p(\vec{y})=\mathcal{N}(\vec{y}|A\vec{\mu},\Gamma+A\Sigma A^T)</tex>.
# Пусть <tex>p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma),\ p(\vec{y}|\vec{x})=\mathcal{N}(\vec{y}|A\vec{x},\Gamma)</tex>. Доказать, что <tex>p(\vec{y})=\mathcal{N}(\vec{y}|A\vec{\mu},\Gamma+A\Sigma A^T)</tex>.
Строка 21: Строка 19:
== Вариант 3 ==
== Вариант 3 ==
 +
# Доказать, что <tex>\frac{\partial}{\partial x}\log\det A = tr(A^{-1}\frac{\partial A}{\partial x})</tex>. Здесь <tex>x</tex> — скалярная переменная. ''Подсказка: использовать разложение определителя матрицы по строке.''
 +
# Доказать, что оценка максимального правдоподобия для матрицы ковариации <tex>\Sigma</tex> нормального распределения равна <tex>\frac{1}{N}\sum_{n=1}^N(\vec{x}_n-\vec{\mu})(\vec{x}_n-\vec{\mu})^T</tex>. ''Подсказка: дифференцировать функцию правдоподобия по матрице точности <tex>\Lambda=\Sigma^{-1}</tex>''.
 +
# Пусть <tex>p(\vec{x})\propto\frac{\mathcal{N}(\vec{x}|\vec{\mu}_1,\Sigma_1)\mathcal{N}(\vec{x}|\vec{\mu}_2,\Sigma_2)}{\mathcal{N}(\vec{x}|\vec{\mu}_3,\Sigma_3)</tex>. Найти <tex>p(\vec{x})</tex>.
== Оформление задания ==
== Оформление задания ==
 +
Задание оформляется на бумаге с проведением всех выкладок. Выполненное задание можно отсканировать и послать по адресу ''bayesml@gmail.com'' с заголовком письма «Задание 2 <Номер_группы> <ФИО>» или сдать листы непосредственно на лекции по спецкурсу.

Текущая версия

Содержание


Начало выполнения задания: 19 октября 2011 г.
Срок сдачи: 2 ноября 2011 г. (среда), 23:59.

Целью задания является приобретение студентами навыков в матричных вычислениях. Задание состоит из трех вариантов. Распределение студентов по вариантам сохраняется с предыдущего задания.

Вариант 1

  1. Доказать, что \frac{\partial}{\partial A}tr(ABAC) = C^TA^TB^T + B^TA^TC^T.
  2. Вычислить \mathbb{E}_{\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)}(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a}) = \int(\vec{x}-\vec{a})^TB(\vec{x}-\vec{a})\mathcal{N}(\vec{x}|\vec{\mu},\Sigma)d\vec{x}. Здесь матрица B является симметричной и положительно определенной.
  3. Пусть p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma),\ p(\vec{y}|\vec{x})=\mathcal{N}(\vec{y}|A\vec{x},\Gamma). Доказать, что p(\vec{y})=\mathcal{N}(\vec{y}|A\vec{\mu},\Gamma+A\Sigma A^T).

Вариант 2

  1. Доказать, что \frac{\partial}{\partial x}A^{-1} = -A^{-1}\frac{\partial A}{\partial x}A^{-1}. Здесь x — скалярная переменная.
  2. Доказать тождество Вудберри: (A+UCV)^{-1}=A^{-1} - A^{-1}U(C^{-1}+VA^{-1}U)^{-1}VA^{-1}. Здесь U, V — прямоугольные матрицы. Подсказка: для доказательства достаточно просто перемножить две матрицы и убедиться, что их произведение равно единичной матрице.
  3. Пусть \vec{x}=[\vec{x}_a; \vec{x}_b] и p(\vec{x})=\mathcal{N}(\vec{x}|\vec{\mu},\Sigma). Доказать, что p(\vec{x}_a|\vec{x}_b)=\mathcal{N}(\vec{x}_a|\vec{\mu}_a-\Lambda_{aa}^{-1}\Lambda_{ab}(\vec{x}_b-\vec{\mu}_b),\Lambda_{aa}^{-1}).

Вариант 3

  1. Доказать, что \frac{\partial}{\partial x}\log\det A = tr(A^{-1}\frac{\partial A}{\partial x}). Здесь x — скалярная переменная. Подсказка: использовать разложение определителя матрицы по строке.
  2. Доказать, что оценка максимального правдоподобия для матрицы ковариации \Sigma нормального распределения равна \frac{1}{N}\sum_{n=1}^N(\vec{x}_n-\vec{\mu})(\vec{x}_n-\vec{\mu})^T. Подсказка: дифференцировать функцию правдоподобия по матрице точности \Lambda=\Sigma^{-1}.
  3. Пусть p(\vec{x})\propto\frac{\mathcal{N}(\vec{x}|\vec{\mu}_1,\Sigma_1)\mathcal{N}(\vec{x}|\vec{\mu}_2,\Sigma_2)}{\mathcal{N}(\vec{x}|\vec{\mu}_3,\Sigma_3). Найти p(\vec{x}).

Оформление задания

Задание оформляется на бумаге с проведением всех выкладок. Выполненное задание можно отсканировать и послать по адресу bayesml@gmail.com с заголовком письма «Задание 2 <Номер_группы> <ФИО>» или сдать листы непосредственно на лекции по спецкурсу.

Личные инструменты