Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

Версия от 10:33, 1 сентября 2016; Victor Kitov (Обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их компактного описания, визуализации и последующего предсказания новых аналогичных данных. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа и теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.

Курс во многом пересекается с курсом К.В.Воронцова по машинному обучению, с которым также рекомендуется ознакомиться.


Программа курса

Первый семестр

Основные понятия и примеры прикладных задач.

Скачать презентацию

Метрические методы регрессии и классификации.

Методы решающих деревьев.

Оценивание моделей.

Классификация линейными методами.

Линейная и нелинейная регрессия.

Обобщение методов через ядра.

Байесовская теория классификации.

Методы работы с пропущенными данными. Метод наивного Байеса.

Моделирование смесью распределений.

Ядерное сглаживание для оценки плотности.

Кластеризация.

Второй семестр

Ансамбли алгоритмов.

Бустинг.

Нейросети.

Методы отбора признаков.

Линейные методы снижения размерности.

Сингулярное разложение.

Нелинейные методы снижения размерности.

Кластеризация.

Частичное обучение (semi-supervised learning).

Личные инструменты