Методы оптимизации в машинном обучении (курс лекций)
Материал из MachineLearning.
(Различия между версиями)
												
			
			 (программа)  | 
			|||
| Строка 36: | Строка 36: | ||
== Программа курса ==  | == Программа курса ==  | ||
| + | |||
| + | === Основные понятия и примеры задач ===  | ||
| + | |||
| + | * Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума;  | ||
| + | * Матричные вычисления, примеры;  | ||
| + | * Матричные разложения, их использование для решения СЛАУ;  | ||
| + | * Выпуклые множества и функции;  | ||
| + | * Классификация задач оптимизации, виды оракулов;  | ||
| + | * Примеры задач машинного обучения со «сложной» оптимизацией;  | ||
| + | * Итерационные процессы в оптимизации, виды сходимости, правила останова.  | ||
| + | |||
| + | === Методы одномерной оптимизации ===  | ||
| + | |||
| + | * Минимизация функции без производной: метод золотого сечения, метод парабол;  | ||
| + | * Гибридный метод минимизации Брента;  | ||
| + | * Использование производной в оптимизации, кубическая аппроксимация и модифицированный метод Брента, минимизация выпуклой функции;  | ||
| + | * Поиск ограничивающего сегмента;  | ||
| + | * Условия Голдштайна-Деккера для неточных методов одномерной оптимизации;  | ||
| + | * Неточные методы одномерной оптимизации, backtracking.  | ||
| + | |||
| + | === Базовые методы многомерной оптимизации ===  | ||
| + | |||
| + | * Метод покоординатного спуска;  | ||
| + | * Методы градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, зависимость от шкалы измерений признаков;  | ||
| + | * Метод Ньютона, подбор длины шага;  | ||
| + | * Фазы итерационного процесса, LDL-разложение, гибридный метод Ньютона;  | ||
| + | * Метод Levenberg-Marquardt, его использование для обучения нелинейной регрессии.  | ||
| + | |||
| + | === Продвинутые методы многомерной оптимизации ===  | ||
| + | |||
| + | * Квази-ньютоновские методы оптимизации: BFGS и L-BFGS.  | ||
| + | * Метод сопряженных градиентов;  | ||
| + | * Метод сопряженных градиентов с предопределением, его использование для решения разреженных СЛАУ большого объема.  | ||
| + | |||
| + | === Методы оптимизации с использованием глобальных верхних оценок ===  | ||
| + | |||
| + | * Идея метода, сходимость;  | ||
| + | * Построение оценок с помощью неравенства Йенсена, ЕМ-алгоритм, вариационный подход;  | ||
| + | * Построение оценок с помощью касательных, оценка Jaakkola-Jordan, nu-trick;  | ||
| + | * Применение оценок для обучения L1-регуляризованной линейной/логистической регрессии;  | ||
| + | * Выпукло-вогнутая процедура для задач безусловной и условной оптимизации, примеры использования.  | ||
| + | |||
| + | === Задачи оптимизации с ограничениями ===  | ||
| + | |||
| + | * Двойственная функция Лагранжа и Фенхеля, их основные свойства.  | ||
| + | * Необходимые и достаточные условия оптимальности в задачах условной оптимизации, теорема Куна-Таккера.  | ||
| + | * Двойственная задача, графическая интерпретация, смысл коэффициентов Лагранжа.  | ||
| + | * Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона.  | ||
| + | |||
| + | === Методы внутренней точки ===  | ||
| + | |||
| + | * Метод внутренней точки;  | ||
| + | * Прямодвойственный метод внутренней точки;  | ||
| + | * Быстрые алгоритмы умножения матрицы на вектор и их использование в методе внутренней точки.  | ||
| + | |||
| + | === Разреженные методы машинного обучения, L1-регуляризация ===  | ||
| + | |||
| + | * Примеры задач и виды разреженных регуляризаторов;  | ||
| + | * Проксимальный метод;  | ||
| + | * Метод покоординатного спуска и блочной покоординатной оптимизации;  | ||
| + | * Метод внутренней точки.  | ||
| + | |||
| + | === Методы cutting plane и bundle ===  | ||
| + | |||
| + | * Субградиент выпуклой функции.  | ||
| + | |||
| + | === Стохастическая оптимизация ===  | ||
| + | |||
== Литература ==  | == Литература ==  | ||
Версия 20:34, 4 сентября 2012
|   | Страница курса находится в стадии формирования | 
Автор курса: Д.А. Кропотов. Вопросы и комментарии по курсу просьба оставлять на вкладке «обсуждение» к этой странице или адресовать письмом на bayesml@gmail.com. В название письма просьба добавлять [МОМО12].
Расписание на 2012 учебный год
В осеннем семестре 2012 года спецкурс читается на ВМК по понедельникам в ауд. 506, начало в 18-05.
| Дата | Название лекции | Материалы | 
|---|---|---|
| 10 сентября 2012 | Введение в курс | |
| 17 сентября 2012 | Лекции не будет | |
| 24 сентября 2012 | Методы одномерной минимизации | 
Оценка за курс
В рамках курса студентам предлагается выполнить ряд практических заданий.
Программа курса
Основные понятия и примеры задач
- Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума;
 - Матричные вычисления, примеры;
 - Матричные разложения, их использование для решения СЛАУ;
 - Выпуклые множества и функции;
 - Классификация задач оптимизации, виды оракулов;
 - Примеры задач машинного обучения со «сложной» оптимизацией;
 - Итерационные процессы в оптимизации, виды сходимости, правила останова.
 
Методы одномерной оптимизации
- Минимизация функции без производной: метод золотого сечения, метод парабол;
 - Гибридный метод минимизации Брента;
 - Использование производной в оптимизации, кубическая аппроксимация и модифицированный метод Брента, минимизация выпуклой функции;
 - Поиск ограничивающего сегмента;
 - Условия Голдштайна-Деккера для неточных методов одномерной оптимизации;
 - Неточные методы одномерной оптимизации, backtracking.
 
Базовые методы многомерной оптимизации
- Метод покоординатного спуска;
 - Методы градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, зависимость от шкалы измерений признаков;
 - Метод Ньютона, подбор длины шага;
 - Фазы итерационного процесса, LDL-разложение, гибридный метод Ньютона;
 - Метод Levenberg-Marquardt, его использование для обучения нелинейной регрессии.
 
Продвинутые методы многомерной оптимизации
- Квази-ньютоновские методы оптимизации: BFGS и L-BFGS.
 - Метод сопряженных градиентов;
 - Метод сопряженных градиентов с предопределением, его использование для решения разреженных СЛАУ большого объема.
 
Методы оптимизации с использованием глобальных верхних оценок
- Идея метода, сходимость;
 - Построение оценок с помощью неравенства Йенсена, ЕМ-алгоритм, вариационный подход;
 - Построение оценок с помощью касательных, оценка Jaakkola-Jordan, nu-trick;
 - Применение оценок для обучения L1-регуляризованной линейной/логистической регрессии;
 - Выпукло-вогнутая процедура для задач безусловной и условной оптимизации, примеры использования.
 
Задачи оптимизации с ограничениями
- Двойственная функция Лагранжа и Фенхеля, их основные свойства.
 - Необходимые и достаточные условия оптимальности в задачах условной оптимизации, теорема Куна-Таккера.
 - Двойственная задача, графическая интерпретация, смысл коэффициентов Лагранжа.
 - Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона.
 
Методы внутренней точки
- Метод внутренней точки;
 - Прямодвойственный метод внутренней точки;
 - Быстрые алгоритмы умножения матрицы на вектор и их использование в методе внутренней точки.
 
Разреженные методы машинного обучения, L1-регуляризация
- Примеры задач и виды разреженных регуляризаторов;
 - Проксимальный метод;
 - Метод покоординатного спуска и блочной покоординатной оптимизации;
 - Метод внутренней точки.
 
Методы cutting plane и bundle
- Субградиент выпуклой функции.
 
Стохастическая оптимизация
Литература
- Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2011.
 - S. Boyd. Convex Optimization, Cambridge University Press, 2004.
 - A. Antoniou, W.-S. Lu. Practical Optimization: Algorithms and Engineering Applications, Springer, 2007.
 - R. Fletcher. Practical Methods of Optimization, Wiley, 2000.
 - Numerical Recipes. The Art of Scientific Computing, 1992.
 
См. также
Курс «Байесовские методы в машинном обучении»

