Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Экзамен)
(Обобщения методов через ядра Мерсера)
(28 промежуточных версий не показаны.)
Строка 7: Строка 7:
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
Семинарист: [[Участник:EvgSokolov|Евгений Соколов]]
 +
 +
Видеозаписи занятий: [https://www.youtube.com/playlist?list=PLVF5PzSHILHR5d-stEZxHnxE8pr8_m9Ai ссылка]
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.
Строка 19: Строка 21:
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
* Анонимные отзывы и комментарии по лекциям [https://docs.google.com/forms/d/e/1FAIpQLSeeWRdRVQ82GPyu0FIW5RlWV9NwyWPWSlNBDrMHAHvsfln3aA/viewform можно оставлять здесь.]
-
 
-
 
-
=Экзамен=
 
-
[https://yadi.sk/i/9Qy9H7pVsbf5JA Билеты для экзамена. Осень 2019.]
 
-
(финальная версия, она же предварительная)
 
=Программа курса=
=Программа курса=
-
==Первый семестр==
+
==Осенний семестр==
===[https://yadi.sk/i/NWVXfPIV3Q3TtD Введение в машинное обучение]===
===[https://yadi.sk/i/NWVXfPIV3Q3TtD Введение в машинное обучение]===
===[https://yadi.sk/i/iBMngr1m3Q3U6A Метод ближайших центроидов и K ближайших соседей]===
===[https://yadi.sk/i/iBMngr1m3Q3U6A Метод ближайших центроидов и K ближайших соседей]===
-
 
-
===[https://yadi.sk/i/oHOFhRh63Q3U6i Другие метрические методы: метод парзеновского окна, регрессия Надарая-Ватсона]===
 
===[https://yadi.sk/i/GQ5uO2Jb3Q3U7K Сложность моделей. Подготовка данных]===
===[https://yadi.sk/i/GQ5uO2Jb3Q3U7K Сложность моделей. Подготовка данных]===
Строка 41: Строка 36:
===[https://yadi.sk/i/E4RT7Jyg3Q3U99 Оптимизация метода K ближайших соседей]===
===[https://yadi.sk/i/E4RT7Jyg3Q3U99 Оптимизация метода K ближайших соседей]===
-
===[https://yadi.sk/i/BzsGrci40Kwmgw Метод главных компонент]===
+
===[https://yadi.sk/i/woDoCFT5m-lSfA Линейная регрессия и ее обобщения]===
-
 
+
-
[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
+
-
 
+
-
===[https://yadi.sk/i/mYqnpKYH3Q3UB7 Линейная регрессия]===
+
===[https://yadi.sk/i/Ei8ia4l3RYbIqQ Метод стохастического градиентного спуска]===
===[https://yadi.sk/i/Ei8ia4l3RYbIqQ Метод стохастического градиентного спуска]===
===[https://yadi.sk/i/o6V18ir93Q3UBw Линейная классификация]===
===[https://yadi.sk/i/o6V18ir93Q3UBw Линейная классификация]===
 +
 +
===[https://yadi.sk/i/Yk0xH5y53v0q2g Оценивание классификаторов]===
===[https://yadi.sk/i/Pn-1M3sL3Q3UDq Метод опорных векторов]===
===[https://yadi.sk/i/Pn-1M3sL3Q3UDq Метод опорных векторов]===
-
+вывод двойственной задачи SVM
+
+[https://yadi.sk/i/nMG8tf6OaMaJbQ вывод двойственной задачи для классификации опорных векторов]
===[https://yadi.sk/i/xSEBiikXZsC8bw Обобщения методов через ядра Мерсера]===
===[https://yadi.sk/i/xSEBiikXZsC8bw Обобщения методов через ядра Мерсера]===
-
+ двойственная задача для регрессии опорных векторов (без гребневой регрессии)
+
+начало доказательства, что ridge-регрессия допускает обобщение через ядра
-
 
+
-
===[https://yadi.sk/i/UumctWjg3Q3UCY Оценивание классификаторов]===
+
===[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Решающие деревья]===
===[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Решающие деревья]===
===[https://yadi.sk/i/OpjStjO-6G9N1Q Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей]===
===[https://yadi.sk/i/OpjStjO-6G9N1Q Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей]===
 +
 +
===[https://yadi.sk/i/BzsGrci40Kwmgw Метод главных компонент]===
 +
 +
[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
===[https://yadi.sk/i/JLKQrfUW3Q3UHM Бустинг]===
===[https://yadi.sk/i/JLKQrfUW3Q3UHM Бустинг]===
Строка 67: Строка 62:
===[https://yadi.sk/i/rDn3NOIFtDc4WQ Усовершенствования бустинга]===
===[https://yadi.sk/i/rDn3NOIFtDc4WQ Усовершенствования бустинга]===
-
==Второй семестр==
+
==Весенний семестр==
===[https://yadi.sk/i/retsLM0q3Q3UK8 Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей]===
===[https://yadi.sk/i/retsLM0q3Q3UK8 Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей]===
Строка 74: Строка 69:
===[https://yadi.sk/i/NhBsfkgwqEbq6A Выпуклые функции]===
===[https://yadi.sk/i/NhBsfkgwqEbq6A Выпуклые функции]===
-
 
-
===[https://yadi.sk/i/aQANK0T-SCDsRA Перенос стиля изображений]===
 
===[https://yadi.sk/i/V1jMp7Ar3Q3UU2 EM-алгоритм]===
===[https://yadi.sk/i/V1jMp7Ar3Q3UU2 EM-алгоритм]===
Строка 100: Строка 93:
===[https://yadi.sk/i/tB-dyX_R3W7LAV Активное обучение]===
===[https://yadi.sk/i/tB-dyX_R3W7LAV Активное обучение]===
 +
 +
===[https://yadi.sk/i/b2Dz8kaV3Q3Ubg Нелинейное снижение размерности]===
 +
 +
===[https://yadi.sk/i/8yi21SL5ig_XHQ Частичное обучение]===

Версия 11:32, 9 ноября 2020

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Лектор: Виктор Китов

Семинарист: Евгений Соколов

Видеозаписи занятий: ссылка

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа, теории вероятностей, математической статистики и методов оптимизации. Практические задания должны выполняться с использованием языка Python и его научных библиотек.

Программа курса

Осенний семестр

Введение в машинное обучение

Метод ближайших центроидов и K ближайших соседей

Сложность моделей. Подготовка данных

Метрики близости

Оптимизация метода K ближайших соседей

Линейная регрессия и ее обобщения

Метод стохастического градиентного спуска

Линейная классификация

Оценивание классификаторов

Метод опорных векторов

+вывод двойственной задачи для классификации опорных векторов

Обобщения методов через ядра Мерсера

+начало доказательства, что ridge-регрессия допускает обобщение через ядра

Решающие деревья

Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей

Метод главных компонент

Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.

Бустинг

Усовершенствования бустинга

Весенний семестр

Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей

Отбор признаков

Выпуклые функции

EM-алгоритм

Смеси распределений

Разделение смеси многомерных нормальных распределений

Тематические модели

Вывод EM для PLSA

Сингулярное разложение

Доказательство основных свойств.

Ядерно-сглаженные оценки плотности

Кластеризация

Обнаружение аномалий

Рекомендательные системы

Активное обучение

Нелинейное снижение размерности

Частичное обучение

Рекомендуемые ресурсы по Python

Личные инструменты