Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Весенний семестр)
(Кластеризация)
(12 промежуточных версий не показаны.)
Строка 4: Строка 4:
Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.
Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.
-
Лектор: [[Участник:Victor Kitov|Виктор Китов]]
+
Лектор: [https://victorkitov.github.io Виктор Китов]
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
-
Видеозаписи занятий: [https://youtube.com/playlist?list=PLVF5PzSHILHSFWXx47gm2Iu6OEUxpWLqt ссылка]
+
===О курсе===
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Строка 21: Строка 21:
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
-
 
=Экзамен=
=Экзамен=
Строка 83: Строка 82:
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
-
 
-
===[https://yadi.sk/i/oYsPa8953W6Fsj Сингулярное разложение]===
 
===[https://yadi.sk/i/ySqnbCn4XVlASw Тематические модели]===
===[https://yadi.sk/i/ySqnbCn4XVlASw Тематические модели]===
-
 
+
(обновлено 01.04.21)
-
[https://yadi.sk/i/d0KD1pGT3WN4PC Вывод EM для PLSA]
+
-
 
+
-
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство основных свойств].
+
===[https://yadi.sk/i/-Kg--noU3Q3USA Ядерно-сглаженные оценки плотности]===
===[https://yadi.sk/i/-Kg--noU3Q3USA Ядерно-сглаженные оценки плотности]===
===[https://yadi.sk/i/5Uu3pOIO3W7KtE Кластеризация]===
===[https://yadi.sk/i/5Uu3pOIO3W7KtE Кластеризация]===
 +
(обновлено 10.04.2021)
===[https://yadi.sk/i/K2EpGFqD3Q3UZM Обнаружение аномалий]===
===[https://yadi.sk/i/K2EpGFqD3Q3UZM Обнаружение аномалий]===
 +
 +
===[https://yadi.sk/i/oYsPa8953W6Fsj Сингулярное разложение]===
 +
 +
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство основных свойств].
===[https://yadi.sk/i/vx3ALyzy3WfCPE Рекомендательные системы]===
===[https://yadi.sk/i/vx3ALyzy3WfCPE Рекомендательные системы]===

Версия 10:07, 10 апреля 2021

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Лектор: Виктор Китов

Семинарист: Евгений Соколов

О курсе

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа, теории вероятностей, математической статистики и методов оптимизации. Практические задания должны выполняться с использованием языка Python и его научных библиотек.

Экзамен

Процедура экзамена и вопросы


Программа курса

Осенний семестр

Введение в машинное обучение

Метод ближайших центроидов и K ближайших соседей

Сложность моделей. Подготовка данных

Метрики близости

Оптимизация метода K ближайших соседей

Линейная регрессия и ее обобщения

Метод стохастического градиентного спуска

Линейная классификация

Оценивание классификаторов

Метод опорных векторов

+вывод двойственной задачи для классификации опорных векторов

Обобщения методов через ядра Мерсера

+начало доказательства, что ridge-регрессия допускает обобщение через ядра

Решающие деревья

Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей

Бустинг

Усовершенствования бустинга

+LogitBoost

Метод главных компонент

+Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.

Весенний семестр

Байесовское решающее правило. Примеры генеративных моделей

Отбор признаков

Выпуклые функции

Стандартные распределения

Смеси распределений

EM-алгоритм

Разделение смеси многомерных нормальных распределений

Тематические модели

(обновлено 01.04.21)

Ядерно-сглаженные оценки плотности

Кластеризация

(обновлено 10.04.2021)

Обнаружение аномалий

Сингулярное разложение

Доказательство основных свойств.

Рекомендательные системы

Активное обучение

Нелинейное снижение размерности

Частичное обучение

Рекомендуемые ресурсы по Python

Личные инструменты