MIPT ML 2016 Spring
Материал из MachineLearning.
Курс посвящен Основной задачей курса является
Лекторы: , Семинаристы: .
Вопросы и комментарии по курсу, а также сдаваемые задания нужно отправлять на почту ??. В название письма обязательно добавлять тег [ML_MIPT_15_Spring].
Формат темы письма:
- [ML_MIPT_15_Spring]Вопрос — для вопросов;
 - [ML_MIPT_15_Spring]Теория №, Фамилия Имя — для домашних заданий.
 
Содержание | 
Расписание занятий
В 2016 году курс читается по пятницам в корпусе , начало в (лекция) и (семинар).
| Дата | № занятия | Занятие | Материалы | 
|---|---|---|---|
| 12 февраля 2016 | 1 | Задачи обучения по прецедентам. Supervised, unsupervised и semi-supervised обучение. Понятия переобучения и обобщающей способности. Скользящий контроль (cross-validation). | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 19 февраля 2016 | 2 | Метрические алгоритмы классификации. Обобщённый метрический классификатор, понятие отступа. Метод ближайших соседей (kNN) и его обобщения. Подбор числа k по критерию скользящего контроля. Отбор эталонных объектов. алгоритм СТОЛП. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 26 февраля 2016 | 3 | Построение метрик и отбор признаков. Стандартные метрики. Оценивание качества метрики. Проклятие размерности. Жадный алгоритм отбора признаков. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 4 марта 2016 | 4 | Логические закономерности. Статистический критерий информативности Ic(',Xl): смысл и способы вычисления. Энтропийный критерий информативности, информационный выигрыш IGainc(',Xl). Многоклассовые варианты критериев. Индекс Gini. Задача перебора конъюнкций. “Градиентный” алгоритм синтеза конъюнкций и его частные случаи: жадный алгоритм, стохастический локальный поиск, стабилизация, редукция. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 11 марта 2016 | 5 | Бинаризация признаков, алгоритм выделения информативных зон. Решающие списки. Решающие деревья: принцип работы. Разбиение пространства объектов на подмножества, выделяемые конъюнкциями терминальных вершин. Алгоритм ID3. Пре-прунинг и пост-прунинг. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 18 марта 2016 | 6 | Знакомство с идеей композиции алгоритмов. Random Forest, Беггинг, RSM, стекинг. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 25 марта 2016 | 7 | Линейная классификация. Непрерывные аппроксимации пороговой функции потерь. Метод минимизации аппроксимированного эмпирического риска. SG, SAG. Связь минимизации аппроксимированного эмпирического риска и максимизации совместного правдоподобия данных и модели. Регуляризация (l1, l2, elastic net). Вероятностный смысл регуляризаторов. Примеры различных функций потерь и классификаторов. Эвристический вывод логистической функции потерь. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 1 апреля 2016 | 8 | Метод опорных векторов. Оптимизационная задача с ограничениями в виде неравенств и безусловная. Опорные векторы. Kernel trick. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 8 апреля 2016 | 9 |  Задача снижения размерности пространства признаков. Идея метода главных компонент
 (PCA). Связь PCA и сингулярного разложения матрицы признаков (SVD). Вычисление SVD в пространствах высокой размерности методом стохастического градиента (SG SVD).  | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 15 апреля 2016 | 10 | Многомерная линейная регрессия. Геометрический и аналитический вывод. Регуляризация в задаче регрессии. Непараметрическая регрессия. Формула Надарая-Ватсона. Регрессионные деревья. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 22 апреля 2016 | 11 | Байесовская классификация и регрессия. Функционал риска и функционал среднего риска. Оптимальный байесовский классификатор и теорема о минимизации среднего риска. Наивный байесовский классификатор. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 29 апреля 2016 | 12 | Восстановление плотности: параметрический и непараметрический подход. Метод Парзеновского окна. Параметрический подход на примере нормального дискриминантного анализа. Линейный дискриминант Фишера. Логистическая регрессия. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 6 мая 2016 | 13 | Задача прогнозирования временного ряда, примеры задач. Составление матрицы регрессии, адаптация весов регрессоров во времени. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 13 мая 2016 | 14 | Задача кластеризации. Аггломеративная и дивизионная кластеризация. Алгоритмы k-Means. Кластеризация с помощью EM-алгоритма (без вывода M-шага). Формула Ланса-Уилльямса. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | ||
| 20 мая 2016 | 15 | ЗМетод обратного распространения ошибок. Основная идея. Основные недостатки и способы их устранения. Выбор начального приближения, числа слоёв, числа нейронов скрытого слоя в градиентных методах настройки нейронных сетей. Методы ускорения сходимости. Метод оптимального прореживания нейронной сети. | Конспект (pdf) Презентация (pdf) | 
| Семинар «Инструментарий ml.» | Задачи (pdf) | 
Семинары
Семинарист 1
Таблица с результатами находится [www.vk.com здесь].
Новости:
Практические задания:
- 1
 - 2
 
Система выставления оценок по курсу:
- 1
 - 2
 
Семинарист 1
Таблица с результатами находится [www.vk.com здесь].
Новости:
Практические задания:
- 1
 - 2
 
Система выставления оценок по курсу:
- 1
 - 2
 
Литература
- К. В. Воронцов Математические методы обучения по прецедентам
 
Страницы курса прошлых лет
--

