Методы оптимизации в машинном обучении (курс лекций)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(программа)
Текущая версия (08:55, 7 сентября 2015) (править) (отменить)
 
(62 промежуточные версии не показаны)
Строка 1: Строка 1:
-
__NOTOC__
+
#REDIRECT [[Методы оптимизации в машинном обучении (курс лекций)/2015]]
-
 
+
-
{{stop|Страница курса находится в стадии формирования}}
+
-
 
+
-
{|
+
-
|[[Изображение:Momo_intro.jpg|300px]]
+
-
| valign="top"|Курс посвящен классическим и современным методам решения задач непрерывной оптимизации, а также особенностям их применения в задачах оптимизации, возникающих в машинном обучении. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Предполагается, что по окончании курса слушатели смогут не только подобрать подходящий метод для своей задачи, но и разработать свой метод оптимизации, наиболее полно учитывающий особенности конкретной задачи.
+
-
 
+
-
Курс рассчитан на студентов старших курсов и аспирантов. Знание основ машинного обучения приветствуется, но не является обязательным — все необходимые понятия вводятся в ходе лекций.
+
-
|}
+
-
 
+
-
Автор курса: [[Участник:Kropotov|Д.А. Кропотов]]. Вопросы и комментарии по курсу просьба оставлять на вкладке «обсуждение» к этой странице или адресовать письмом на ''bayesml@gmail.com''. В название письма просьба добавлять [МОМО12].
+
-
 
+
-
== Расписание на 2012 учебный год ==
+
-
В осеннем семестре 2012 года спецкурс читается на [[ВМиК МГУ|ВМК]] по понедельникам в ауд. 506, начало в 18-05.
+
-
 
+
-
{| class = "standard"
+
-
|+
+
-
! width="10%" | Дата
+
-
! width="60%" | Название лекции
+
-
! width="30%" | Материалы
+
-
|-
+
-
| 10 сентября 2012
+
-
| Введение в курс ||
+
-
|-
+
-
| 17 сентября 2012
+
-
| ''Лекции не будет'' ||
+
-
|-
+
-
| 24 сентября 2012
+
-
| Методы одномерной минимизации ||
+
-
|-
+
-
|}
+
-
 
+
-
== Оценка за курс ==
+
-
В рамках курса студентам предлагается выполнить ряд практических заданий.
+
-
 
+
-
== Программа курса ==
+
-
 
+
-
=== Основные понятия и примеры задач ===
+
-
 
+
-
* Градиент и гессиан функции многих переменных, их свойства, необходимые и достаточные условия безусловного экстремума;
+
-
* Матричные вычисления, примеры;
+
-
* Матричные разложения, их использование для решения СЛАУ;
+
-
* Выпуклые множества и функции;
+
-
* Классификация задач оптимизации, виды оракулов;
+
-
* Примеры задач машинного обучения со «сложной» оптимизацией;
+
-
* Итерационные процессы в оптимизации, виды сходимости, правила останова.
+
-
 
+
-
=== Методы одномерной оптимизации ===
+
-
 
+
-
* Минимизация функции без производной: метод золотого сечения, метод парабол;
+
-
* Гибридный метод минимизации Брента;
+
-
* Использование производной в оптимизации, кубическая аппроксимация и модифицированный метод Брента, минимизация выпуклой функции;
+
-
* Поиск ограничивающего сегмента;
+
-
* Условия Голдштайна-Деккера для неточных методов одномерной оптимизации;
+
-
* Неточные методы одномерной оптимизации, backtracking.
+
-
 
+
-
=== Базовые методы многомерной оптимизации ===
+
-
 
+
-
* Метод покоординатного спуска;
+
-
* Методы градиентного спуска: наискорейший спуск, спуск с неточной одномерной оптимизацией, зависимость от шкалы измерений признаков;
+
-
* Метод Ньютона, подбор длины шага;
+
-
* Фазы итерационного процесса, LDL-разложение, гибридный метод Ньютона;
+
-
* Метод Levenberg-Marquardt, его использование для обучения нелинейной регрессии.
+
-
 
+
-
=== Продвинутые методы многомерной оптимизации ===
+
-
 
+
-
* Квази-ньютоновские методы оптимизации: BFGS и L-BFGS.
+
-
* Метод сопряженных градиентов;
+
-
* Метод сопряженных градиентов с предопределением, его использование для решения разреженных СЛАУ большого объема.
+
-
 
+
-
=== Методы оптимизации с использованием глобальных верхних оценок ===
+
-
 
+
-
* Идея метода, сходимость;
+
-
* Построение оценок с помощью неравенства Йенсена, ЕМ-алгоритм, вариационный подход;
+
-
* Построение оценок с помощью касательных, оценка Jaakkola-Jordan, nu-trick;
+
-
* Применение оценок для обучения L1-регуляризованной линейной/логистической регрессии;
+
-
* Выпукло-вогнутая процедура для задач безусловной и условной оптимизации, примеры использования.
+
-
 
+
-
=== Задачи оптимизации с ограничениями ===
+
-
 
+
-
* Двойственная функция Лагранжа и Фенхеля, их основные свойства.
+
-
* Необходимые и достаточные условия оптимальности в задачах условной оптимизации, теорема Куна-Таккера.
+
-
* Двойственная задача, графическая интерпретация, смысл коэффициентов Лагранжа.
+
-
* Решение задач условной оптимизации с линейными ограничениями вида равенство, метод Ньютона.
+
-
 
+
-
=== Методы внутренней точки ===
+
-
 
+
-
* Метод внутренней точки;
+
-
* Прямодвойственный метод внутренней точки;
+
-
* Быстрые алгоритмы умножения матрицы на вектор и их использование в методе внутренней точки.
+
-
 
+
-
=== Разреженные методы машинного обучения, L1-регуляризация ===
+
-
 
+
-
* Примеры задач и виды разреженных регуляризаторов;
+
-
* Проксимальный метод;
+
-
* Метод покоординатного спуска и блочной покоординатной оптимизации;
+
-
* Метод внутренней точки.
+
-
 
+
-
=== Методы cutting plane и bundle ===
+
-
 
+
-
* Субградиент выпуклой функции.
+
-
 
+
-
=== Стохастическая оптимизация ===
+
-
 
+
-
 
+
-
== Литература ==
+
-
# [http://www.ebook3000.com/Programming/General/Optimization-for-Machine-Learning_151684.html Optimization for Machine Learning]. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2011.
+
-
# S. Boyd. [http://www.stanford.edu/~boyd/cvxbook/ Convex Optimization], Cambridge University Press, 2004.
+
-
# A. Antoniou, W.-S. Lu. [http://www.twirpx.com/file/602599/ Practical Optimization: Algorithms and Engineering Applications], Springer, 2007.
+
-
# R. Fletcher. [http://www.twirpx.com/file/515359/ Practical Methods of Optimization], Wiley, 2000.
+
-
# [http://astronu.jinr.ru/wiki/upload/d/d6/NumericalRecipesinC.pdf Numerical Recipes. The Art of Scientific Computing], 1992.
+
-
 
+
-
== См. также ==
+
-
[[GM|Курс «Графические модели»]]
+
-
 
+
-
[[Bmmo|Курс «Байесовские методы в машинном обучении»]]
+
-
 
+
-
[[Спецсеминар "Байесовские методы машинного обучения"|Спецсеминар «Байесовские методы машинного обучения»]]
+
-
 
+
-
[[Математические методы прогнозирования (кафедра ВМиК МГУ)]]
+
-
 
+
-
[[Категория:Учебные курсы]]
+

Текущая версия

  1. REDIRECT Методы оптимизации в машинном обучении (курс лекций)/2015
Личные инструменты