Математические методы распознавания образов (курс лекций, В.В.Китов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Метод опорных векторов.)
(Обобщения методов через ядра Мерсера)
(43 промежуточные версии не показаны)
Строка 21: Строка 21:
 +
=Экзамен=
 +
[https://yadi.sk/i/C9ahiPUTHv-P4A Билеты для экзамена. Весна 2019.]
=Программа курса=
=Программа курса=
Строка 26: Строка 28:
==Первый семестр==
==Первый семестр==
-
===Введение в машинное обучение.===
+
===[https://yadi.sk/i/NWVXfPIV3Q3TtD Введение в машинное обучение]===
-
[https://yadi.sk/i/NWVXfPIV3Q3TtD Презентация].
+
-
===Метод ближайших центроидов и K ближайших соседей.===
+
===[https://yadi.sk/i/iBMngr1m3Q3U6A Метод ближайших центроидов и K ближайших соседей]===
-
[https://yadi.sk/i/iBMngr1m3Q3U6A Презентация].
+
-
===Другие метрические методы.===
+
===[https://yadi.sk/i/oHOFhRh63Q3U6i Другие метрические методы: метод парзеновского окна, регрессия Надарая-Ватсона]===
-
[https://yadi.sk/i/oHOFhRh63Q3U6i Презентация].
+
-
===Сложность моделей. Подготовка данных.===
+
===[https://yadi.sk/i/GQ5uO2Jb3Q3U7K Сложность моделей. Подготовка данных]===
-
[https://yadi.sk/i/GQ5uO2Jb3Q3U7K Презентация].
+
-
===Метрики близости.===
+
===[https://yadi.sk/i/kCIhwRuo3Q3U8S Метрики близости]===
-
[https://yadi.sk/i/kCIhwRuo3Q3U8S Презентация].
+
-
===Оптимизация метода K ближайших соседей.===
+
===[https://yadi.sk/i/E4RT7Jyg3Q3U99 Оптимизация метода K ближайших соседей]===
-
[https://yadi.sk/i/E4RT7Jyg3Q3U99 Презентация].
+
-
===Метод главных компонент.===
+
===[https://yadi.sk/i/BzsGrci40Kwmgw Метод главных компонент]===
-
 
+
-
[https://yadi.sk/i/BzsGrci40Kwmgw Презентация].
+
[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
[https://yadi.sk/i/CpG1xsrR3Q3UAZ Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.]
-
===Линейная регрессия.===
+
===[https://yadi.sk/i/mYqnpKYH3Q3UB7 Линейная регрессия]===
-
[https://yadi.sk/i/mYqnpKYH3Q3UB7 Презентация].
+
-
===Линейная классификация.===
+
===[https://yadi.sk/i/Ei8ia4l3RYbIqQ Метод стохастического градиентного спуска]===
-
[https://yadi.sk/i/o6V18ir93Q3UBw Презентация].
+
-
===Метод опорных векторов.===
+
===[https://yadi.sk/i/o6V18ir93Q3UBw Линейная классификация]===
-
[https://yadi.sk/i/Pn-1M3sL3Q3UDq Презентация].
+
 
 +
===[https://yadi.sk/i/Pn-1M3sL3Q3UDq Метод опорных векторов]===
+вывод двойственной задачи SVM
+вывод двойственной задачи SVM
-
===Обобщения методов через ядра Мерсера.===
+
===[https://yadi.sk/i/xSEBiikXZsC8bw Обобщения методов через ядра Мерсера]===
-
[https://yadi.sk/i/xSEBiikXZsC8bw Презентация].
+
+ двойственная задача для регрессии опорных векторов (без гребневой регрессии)
-
+ двойственная задача для гребневой регрессии
+
-
===Оценивание классификаторов.===
+
===[https://yadi.sk/i/UumctWjg3Q3UCY Оценивание классификаторов]===
-
[https://yadi.sk/i/UumctWjg3Q3UCY Презентация].
+
-
===Решающие деревья.===
+
===[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Решающие деревья]===
-
[https://yadi.sk/i/5Gd8HdQ93Q3UG2 Презентация].
+
-
===Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей.===
+
===[https://yadi.sk/i/OpjStjO-6G9N1Q Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей]===
-
[https://yadi.sk/i/AgqALhuW3Q3UGk Презентация].
+
-
===Бустинг.===
+
===[https://yadi.sk/i/JLKQrfUW3Q3UHM Бустинг]===
-
[https://yadi.sk/i/JLKQrfUW3Q3UHM Презентация].
+
-
===Усовершенствования бустинга.===
+
===[https://yadi.sk/i/rDn3NOIFtDc4WQ Усовершенствования бустинга]===
-
[https://yadi.sk/i/IvqkjPxl3Q3UJ4 Презентация].
+
==Второй семестр==
==Второй семестр==
-
[http://www.kdd.org/kdd2016/papers/files/rfp0697-chenAemb.pdf Статья со всеми деталями]
+
===[https://yadi.sk/i/retsLM0q3Q3UK8 Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей]===
-
===Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей.===
+
===[https://yadi.sk/i/sp_Jsg9-3XKuCL Отбор признаков]===
-
[https://yadi.sk/i/retsLM0q3Q3UK8 Презентация].
+
-
===Ядерно-сглаженные оценки плотности.===
+
===[https://yadi.sk/i/NhBsfkgwqEbq6A Выпуклые функции]===
-
[https://yadi.sk/i/-Kg--noU3Q3USA Презентация].
+
-
===Отбор признаков===
+
===[https://yadi.sk/i/aQANK0T-SCDsRA Перенос стиля изображений]===
-
[https://yadi.sk/i/sp_Jsg9-3XKuCL Презентация].
+
-
===Многослойный персептрон===
+
===[https://yadi.sk/i/V1jMp7Ar3Q3UU2 EM-алгоритм]===
-
[https://yadi.sk/i/KmCOkZZf3W4tWf Презентация].
+
-
===Алгоритм обратного распространения ошибки===
+
===[https://yadi.sk/i/FlxGC4Zg3Q3UUS Смеси распределений]===
-
[https://yadi.sk/i/Mh1hmuud3W4u9M Презентация].
+
-
===Применение нейросетей для работы с изображениями===
+
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
-
[https://yadi.sk/i/Ch65d5M93W5K9Z Презентация].
+
-
===Сингулярное разложение.===
+
===[https://yadi.sk/i/ySqnbCn4XVlASw Тематические модели]===
-
[https://yadi.sk/i/oYsPa8953W6Fsj Презентация].
+
-
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство всех основных свойств].
+
[https://yadi.sk/i/d0KD1pGT3WN4PC Вывод EM для PLSA]
-
===Рекомендательные системы.===
+
===[https://yadi.sk/i/oYsPa8953W6Fsj Сингулярное разложение]===
-
[https://yadi.sk/i/vx3ALyzy3WfCPE Презентация].
+
-
===Кластеризация===
+
[https://yadi.sk/i/60l0YQG93W6G6H Доказательство основных свойств].
-
[https://yadi.sk/i/5Uu3pOIO3W7KtE Презентация].
+
-
===Обнаружение аномалий===
+
===[https://yadi.sk/i/-Kg--noU3Q3USA Ядерно-сглаженные оценки плотности]===
-
[https://yadi.sk/i/K2EpGFqD3Q3UZM Презентация].
+
-
===Активное обучение===
+
===[https://yadi.sk/i/5Uu3pOIO3W7KtE Кластеризация]===
-
[https://yadi.sk/i/tB-dyX_R3W7LAV Презентация]
+
-
===EM-алгоритм.===
+
===[https://yadi.sk/i/K2EpGFqD3Q3UZM Обнаружение аномалий]===
-
[https://yadi.sk/i/V1jMp7Ar3Q3UU2 Презентация].
+
-
===Тематическая модель PLSA===
+
===[https://yadi.sk/i/vx3ALyzy3WfCPE Рекомендательные системы]===
-
[https://yadi.sk/i/d0KD1pGT3WN4PC Презентация].
+
 
 +
===[https://yadi.sk/i/tB-dyX_R3W7LAV Активное обучение]===
-
=Дополнительные материалы=
 
-
[https://yadi.sk/i/Z2dLjT0h3Q3UUz Разделение смеси многомерных нормальных распределений]
 
===Рекомендуемые ресурсы по Python===
===Рекомендуемые ресурсы по Python===

Версия 16:03, 14 ноября 2019

Содержание

Курс посвящен алгоритмам машинного обучения (machine learning), которые сами настраиваются на известных данных, выделяя их характерную структуру и взаимосвязи между ними, для их прогнозирования, анализа, компактного описания и визуализации. Основной акцент курса сделан на задачах предсказания дискретных величин (классификация) и непрерывных величин (регрессия), хотя в курсе также рассматриваются смежные области - эффективное снижение размерности пространства, выделение наиболее значимых признаков для предсказания, методы оценивания и сравнения вероятностных распределений, рекомендательные системы и планирование экспериментов.

Лектор: Виктор Китов

Семинарист: Евгений Соколов

Курс читается студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ, магистрам, зачисленным на эту кафедру, и не проходивших ранее аналогичных курсов, а также для всех желающих. На материал данного курса опираются последующие кафедральные курсы.

По изложению, рассматриваются математические основы методов, лежащие в их основе предположения о данных, взаимосвязи методов между собой и особенности их практического применения.

Курс сопровождается семинарами, раскрывающими дополнительные темы курса и отрабатывающими навыки практического применения рассматриваемых методов. Практическое использование методов машинного обучения в основном будет вестись с использованием языка python и соответствующих библиотек для научных вычислений.

От студентов требуются знания линейной алгебры, математического анализа, теории вероятностей, математической статистики и методов оптимизации. Практические задания должны выполняться с использованием языка Python и его научных библиотек.


Экзамен

Билеты для экзамена. Весна 2019.

Программа курса

Первый семестр

Введение в машинное обучение

Метод ближайших центроидов и K ближайших соседей

Другие метрические методы: метод парзеновского окна, регрессия Надарая-Ватсона

Сложность моделей. Подготовка данных

Метрики близости

Оптимизация метода K ближайших соседей

Метод главных компонент

Свойства симметричных матриц, положительно определенные матрицы, векторное дифференцирование.

Линейная регрессия

Метод стохастического градиентного спуска

Линейная классификация

Метод опорных векторов

+вывод двойственной задачи SVM

Обобщения методов через ядра Мерсера

+ двойственная задача для регрессии опорных векторов (без гребневой регрессии)

Оценивание классификаторов

Решающие деревья

Ансамбли прогнозирующих алгоритмов. Смещение и дисперсия моделей

Бустинг

Усовершенствования бустинга

Второй семестр

Байесовское решающее правило. Предположение наивного Байеса. Генеративные и дискриминативные модели. Примеры генеративных моделей

Отбор признаков

Выпуклые функции

Перенос стиля изображений

EM-алгоритм

Смеси распределений

Разделение смеси многомерных нормальных распределений

Тематические модели

Вывод EM для PLSA

Сингулярное разложение

Доказательство основных свойств.

Ядерно-сглаженные оценки плотности

Кластеризация

Обнаружение аномалий

Рекомендательные системы

Активное обучение

Рекомендуемые ресурсы по Python

Личные инструменты