Методы оптимизации в машинном обучении (курс лекций)/2017
Материал из MachineLearning.
(→Практические задания) |
(→Практические задания) |
||
Строка 33: | Строка 33: | ||
== Практические задания == | == Практические задания == | ||
Задание 1. [[Media:MOMO17_Practice1.pdf|Методы градиентного спуска и Ньютона]] ([[Media:MOMO17_Practice1.tex.zip|TeX]]). <br /> | Задание 1. [[Media:MOMO17_Practice1.pdf|Методы градиентного спуска и Ньютона]] ([[Media:MOMO17_Practice1.tex.zip|TeX]]). <br /> | ||
- | Задание 2. [[Media:MOMO17_Practice2.pdf|Продвинутые методы безусловной оптимизации]] ([[Media:MOMO17_Practice2.tex.zip|TeX]]). | + | Задание 2. [[Media:MOMO17_Practice2.pdf|Продвинутые методы безусловной оптимизации]] ([[Media:MOMO17_Practice2.tex.zip|TeX]]). <br /> |
Задание 3. [[Media:MOMO17_Practice3.pdf|Метод барьеров]] ([[Media:MOMO17_Practice3.tex.zip|TeX]]). | Задание 3. [[Media:MOMO17_Practice3.pdf|Метод барьеров]] ([[Media:MOMO17_Practice3.tex.zip|TeX]]). | ||
Версия 13:23, 1 ноября 2017
Настройка модели алгоритмов по данным — это задача оптимизации, от эффективности решения которой зависит практическая применимость метода машинного обучения. В эпоху больших данных многие классические алгоритмы оптимизации становятся неприменимы, т.к. здесь требуется решать задачи оптимизации функций за время меньшее, чем необходимо для вычисления значения функции в одной точке. Таким требованиям можно удовлетворить в случае грамотного комбинирования известных подходов в оптимизации с учётом конкретной специфики решаемой задачи. Курс посвящен изучению классических и современных методов решения задач непрерывной оптимизации (в том числе невыпуклой), а также особенностям применения этих методов в задачах оптимизации, возникающих в машинном обучении. Наличие у слушателей каких-либо предварительных знаний по оптимизации не предполагается, все необходимые понятия разбираются в ходе занятий. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Целью курса является выработка у слушателей навыков по подбору подходящего метода для своей задачи, наиболее полно учитывающего её особенности. Курс рассчитан на студентов старших курсов и аспирантов. Знание основ машинного обучения приветствуется, но не является обязательным — все необходимые понятия вводятся в ходе лекций.
Лектор: Д.А. Кропотов
Семинарист: А.О. Родоманов
Ассистент: Н.А. Шаповалов
Занятия проходят:
- на ВМК по понедельникам в ауд. 612, лекция с 10-30 до 12-05, семинар с 12-15 до 13-50.
- на базовой кафедре Интеллектуальных систем МФТИ по средам в ВЦ РАН в к.355, лекция с 10-30 до 12-05, семинар с 12-15 до 13-50.
Инвайты в AnyTask: UAb78YK для ВМК, YYGCLOZ для Физтеха.
Группа в Телеграмме для вопросов по курсу: https://t.me/joinchat/EYDfykF5ez-V1D39q3zi4Q.
Таблица с результатами находится здесь
Система выставления оценок по курсу
В рамках курса предполагается четыре практических задания, четыре домашних заданий и экзамен. Каждое задание и экзамен оцениваются по пятибалльной шкале. Домашнее задание после срока сдачи не принимается. За каждый день просрочки при сдаче практического задания начисляется штраф 0.1 балла, через две недели после срока сдачи практическое задание не принимается.
Итоговая оценка за курс является взвешенной суммой оценки за экзамен (вклад 40%), оценки за практические задания (вклад 40%) и оценки за домашние задания (вклад 20%). При этом для получения итоговой оценки 5 (соответственно >= 8 для студентов МФТИ) необходимо сдать на положительный балл все практичекие и все домашние задания, а также набрать на экзамене не ниже 4 баллов (соответственно >= 5 для МФТИ); для получения итоговой оценки 4 (соответственно >= 5 для МФТИ) необходимо сдать любые три практических задания и любые два домашних задания; для получения итоговой оценки 3 (соответственно >= 3 для МФТИ) необходимо сдать любые два практических задания и любое одно домашнее задание.
При выполнении каждого задания можно получить бонусные баллы за необязательные пункты, но при этом итоговые оценки за практическую часть курса и за домашнюю часть курса не могут превысить соответствующих максимальных оценок без учета бонусов. Например, если используется пятибальная шкала и количество (скажем, домашних) заданий равно четырем, то за счет бонусов оценки за задания могут быть следующими: 1) 5.5, 4, 4, 4; или 2) 5.5, 5, 5, 5. В первом случае итоговая оценка за домашние задания составляет 17.5, а во втором --- 20.0.
Домашние задания
Задание 1. Скорости сходимости и матрично-векторное дифференцирование (TeX).
Задание 2. Выпуклые множества и функции (TeX).
Задание 3. Условная оптимизация (TeX).
Практические задания
Задание 1. Методы градиентного спуска и Ньютона (TeX).
Задание 2. Продвинутые методы безусловной оптимизации (TeX).
Задание 3. Метод барьеров (TeX).
Лекции
№ п/п | Занятие | Материалы |
---|---|---|
1 | Введение в курс. Классы функций в оптимизации. Скорости сходимости | (Скорости сходимости) [Nocedal-Wright, pp. 617-620] |
2 | Неточная одномерная оптимизация. Метод градиентного спуска, выбор длины шага. | [Nocedal-Wright, Chapter 3] + [Поляк, Разделы 1.4 и 1.5] |
3 | Метод Ньютона. Способы коррекции гессиана до положительно-определённой матрицы | |
4 | Метод сопряженных градиентов | |
5 | Неточный/безгессианный метод Ньютона | |
6 | Квазиньютоновские методы. Метод L-BFGS | |
7 | Задачи условной оптимизации: теория. | |
8 | Метод внутренней точки | |
9 | Прямо-двойственный метод внутренней точки | |
10 | Негладкая оптимизация. Субградиентный метод | |
11 | Разреженные линейный модели. Проксимальные методы. | |
12 | Быстрый градиентный метод Нестерова | |
13 | Стохастическая оптимизация | |
14 | Продвинутая стохастическая оптимизация |
Семинары
№ п/п | Занятие | Материалы |
---|---|---|
1 | Скорости сходимости. Матрично-векторные скалярные произведения и нормы | Конспект |
2 | Матрично-векторное дифференцирование | Конспект |
3 | Методы градиентного спуска и Ньютона. Детали реализации и примеры работы | Презентация |
4 | Выпуклые множества и функции | Конспект |
5 | Самосогласованные функции и метод Ньютона | |
6 | Квазиньютоновские методы | Конспект |
7 | Условия Каруша--Куна--Таккера. Эквивалентные преобразования задач | Конспект |
8 | Стандартные классы выпуклых задач и двойственность | Конспект |
9 | Метод внутренней точки | |
10 | Субдифференциальное исчисление | |
11 | Вычисление проекций и проксимальных отображений | |
12 | Техника сглаживания. Часть 1 | |
13 | Техника сглажвания. Часть 2 | |
14 | Адаптивные длины шагов в стохастическом градиентном методе. Метод AdaGrad |
Литература
- S. Sra et al.. Optimization for Machine Learning, MIT Press, 2011.
- J. Nocedal, S. Wright. Numerical Optimization, Springer, 2006.
- A. Ben-Tal, A. Nemirovski. Optimization III. Lecture Notes, 2013.
- Б. Поляк. Введение в оптимизацию, Наука, 1983.
- S. Boyd, L. Vandenberghe. Convex Optimization, Cambridge University Press, 2004.
- Y. Nesterov. Introductory Lectures on Convex Optimization: A Basic Course, Springer, 2003.
- R. Fletcher. Practical Methods of Optimization, Wiley, 2000.
- A. Antoniou, W.-S. Lu. Practical Optimization: Algorithms and Engineering Applications, Springer, 2007.
- W. Press et al.. Numerical Recipes. The Art of Scientific Computing, Cambridge University Press, 2007.
Архив
См. также
Курс «Байесовские методы в машинном обучении»