Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Моделирование смесью распределений.)
Строка 15: Строка 15:
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
 +
 +
=Экзамен зимней экзаменационной сессии=
 +
 +
Пройдет 15 января (воскресенье) в 9-00 в ауд. 510.
 +
 +
[[Media:Kitov-ML-exam-autumn_2017.pdf‎|Билеты]]
 +
=Программа курса=
=Программа курса=

Версия 13:16, 16 декабря 2016

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их компактного описания, визуализации и последующего предсказания новых аналогичных данных. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа и теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.

Экзамен зимней экзаменационной сессии

Пройдет 15 января (воскресенье) в 9-00 в ауд. 510.

Билеты


Программа курса

Первый семестр

Основные понятия и примеры прикладных задач.

Скачать презентацию (eng)

Скачать презентацию (рус)

Метрические методы регрессии и классификации.

Скачать презентацию (KNN базовый, eng)

Скачать презентацию (Оптимизация KNN, eng)

Скачать презентацию (рус)

Линейные методы снижения размерности.

+ вывод решения для задачи линейной регрессии методом наименьших квадратов. L1 и L2 регуляризация, вывод решения регрессии с L2 регуляризацией. Свойства существования и единственности решений.

Скачать презентацию (eng)

Сингулярное разложение.

Скачать презентацию (eng)

+разреженное кодирование, доказательство существования SVD разложения и доказательство оптимальности (по норме Фробениуса) приближения матрицы сокращенным SVD разложением.

Методы решающих деревьев.

Скачать презентацию (eng)

+семинар: Random Forest

Оценивание моделей.

Скачать презентацию (eng)

+ROC кривая для случайного классификатора.

Классификация линейными методами.

Скачать презентацию (eng)

Метод опорных векторов.

Скачать презентацию (eng)

Обобщение методов через ядра.

Скачать презентацию (eng)

Байесовская теория классификации.

Скачать презентацию (eng)

+доказательство, что Байесовское правило минимальной ошибки действительно приводит к минимизации вероятности неправильной классификации.

+ предположение наивного Байеса.

+ модель Бернулли

+ Мультиномиальная модель

+ особенности работы с текстами (лемматизация, биграммы, извлечение коллокаций)

Ядерное сглаживание для оценки плотности.

Скачать презентацию (eng)

Задачи регрессии.

Скачать презентацию (eng)

Второй семестр

Смеси распределений. EM-алгоритм.

Кластеризация.

Ансамбли алгоритмов.

Бустинг.

Нейросети.

Методы отбора признаков.

Нелинейные методы снижения размерности.

Частичное обучение (semi-supervised learning).

Активное обучение.

Рекомендательные системы.

Личные инструменты