Графические модели (курс лекций)/2017

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск

Kropotov (Обсуждение | вклад)
(Новая: __NOTOC__ {|border = "0" | valign="top"|300px | valign="top"|Курс посвящен математическим методам обработк...)
К следующему изменению →

Версия 19:08, 8 февраля 2017


Курс посвящен математическим методам обработки информации, основанных на использовании внутренних взаимосвязей в данных и их последующем анализе. Эти методы широко используются при решении задач из разных прикладных областей, включая обработку изображений и видео, анализ социальных сетей, распознавание речи, машинное обучение.

Целью курса является освоение математического аппарата для работы с графическими моделями. Предполагается, что в результате прохождения курса студенты обретут навыки самостоятельного построения графических моделей для решения задач из различных прикладных областей; будут способны решать задачи настройки параметров графических моделей по данным, определять подходящую структуру графической модели, выбирать методы, наиболее эффективные для работы с построенной моделью; получат опыт применения графических моделей для различных задач анализа изображений, сигналов, сетей.

Лектор: Д.П. Ветров,

Семинаристы: Д.А. Кропотов, Кирилл Струминский.

По всем вопросам, связанным с курсом, просьба писать на bayesml@gmail.com, в название письма обязательно добавлять [ВМК ГМ17].

Практические задания

Приём заданий по курсу осуществляется в системе anytask.org. Для получения инвайта по курсу просьба писать на почту курса.

Расписание занятий

В 2017 году курс читается на факультете ВМиК МГУ по пятницам в ауд. 526б, начало в 14-35 (лекция) и 16-20 (семинар).

Дата № занятия Занятие Материалы
10 февраля 2017 1 Лекция «Графические модели: байесовские и марковские сети, примеры применения» Презентация по байесовским рассуждениям и графическим моделям
Семинар «Фактор-графы, задачи вывода в ГМ, решение практических задач с помощью ГМ» Презентация по практическим задачам
17 февраля 2017 2 Лекция «Алгоритм Belief Propagation (BP) для вывода в ациклических графических моделях» Конспект по алгоритмам передачи сообщений
Семинар «Алгоритмы передачи сообщений»
3 марта 2017 3 Лекция «Помехоустойчивое кодирование, теорема Шеннона, линейные коды, коды с малой плотностью проверок на чётность» LDPC-коды в Википедии
Семинар «Вывод формул для алгоритма декодирования в LDPC-кодах, выдача задания по кодированию»
10 марта 2017 4 Лекция «Скрытые марковские модели. Алгоритм сегментации сигнала, обучение с учителем и без учителя» Презентация 1, Презентация 2
Семинар «Расширения скрытых марковских моделей»
17 марта 2017 5 Лекция «Линейные динамические системы. Фильтр Калмана. Расширенный фильтр Калмана.» Конспект по ЛДС
Семинар «Вывод формул фильтра Калмана»
24 марта 2017 6 Лекция «Алгоритмы на основе разрезов графов, \alpha-расширение.» Презентация, конспект по разрезам графов
Семинар «Алгоритмы разрезов графов»
31 марта 2017 7 Лекция «Алгоритм Tree-ReWeighted Message Passing (TRW) для вывода в циклических графических моделях» Конспект по TRW
Семинар «Двойственное разложение»
7 апреля 2017 8 Лекция «Структурный метод опорных векторов (SSVM)» Конспект по SSVM
Семинар «Оптимизация для структурного SVM» Статья по one-slack formulation
14 апреля 2017 9 Лекция «Вариационная передача сообщений» Методы вывода как алгоритмы передачи сообщений
Семинар «Фильтр частиц»
15 апреля 2016 10 Лекция «Подход Expectation Propagation для приближённого вывода в графических моделях»
Семинар «Модель TrueSkill» Презентация по TrueSkill

Система выставления оценок по курсу

В рамках курса предполагается два практических задания и два домашних задания. Каждое практическое задание оценивается из 5-ти баллов, домашнее задание – из 2-х баллов.

  1. При наличии несданных заданий максимальная возможная оценка за курс — это «удовлетворительно».
  2. Необходимым условием получения положительной оценки за курс является сдача не менее одного практического задания, не менее одного домашнего задания и сдача устного экзамена не менее чем на оценку «удовлетворительно».
  3. Итоговый балл за курс вычисляется по формуле \frac{5}{14}*Homework+Oral, где HomeWork — баллы, набранные за задания, а Oral — оценка за устный экзамен (0, 3, 4, 5). Для получения итоговой оценки 5 необходимо набрать 8 итоговых баллов, для оценки 4 — 6 баллов, для оценки 3 — 4 балла.
  4. Штраф за просрочку сдачи заданий начисляется из расчета 0.1 балла в день, но не более 3 баллов.


Литература

  1. Barber D. Bayesian Reasoning and Machine Learning. Cambridge University Press, 2012.
  2. Murphy K.P. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
  3. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.
  4. Mackay D.J.C. Information Theory, Inference, and Learning Algorithms. Cambridge University Press, 2003.
  5. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and Variational Inference. Foundations and Trends in Machine Learning, NOWPress, 2008.
  6. Koller D., Friedman N. Probabilistic Graphical Models: Principles and Techniques. The MIT Press, 2009.

Страницы курса прошлых лет

2016 год

2015 год

2014 год

2013 год

2012 год

2011 год

2009 год

См. также

Курс «Байесовские методы машинного обучения»

Спецсеминар «Байесовские методы машинного обучения»

Математические методы прогнозирования (кафедра ВМиК МГУ)

Онлайн-курс Стэнфордского университета по вероятностным графическим моделям

Личные инструменты