Машинное обучение (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(ссылки, ссылки, ссылки, ссылки, ссылки)
(реструктуризация курса)
Строка 24: Строка 24:
=== Лекция 1. Вводная лекция ===
=== Лекция 1. Вводная лекция ===
* Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
* Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
-
* Типы задач: [[классификация]], [[распознавание]], [[кластеризация]], [[прогнозирование]]. Примеры прикладных задач.
+
* Типы задач: [[классификация]], [[регрессия]], [[прогнозирование]], [[кластеризация]]. Примеры прикладных задач.
* Основные понятия: [[модель алгоритмов]], [[метод обучения]], [[функция потерь]] и функционал качества, [[принцип минимизации эмпирического риска]], [[обобщающая способность]], [[скользящий контроль]].
* Основные понятия: [[модель алгоритмов]], [[метод обучения]], [[функция потерь]] и функционал качества, [[принцип минимизации эмпирического риска]], [[обобщающая способность]], [[скользящий контроль]].
-
* Вероятностная постановка задачи и [[принцип максимума правдоподобия]].
+
* Вероятностная постановка задачи, [[принцип максимума правдоподобия]] и его связь с принципом минимизации эмпирического риска.
=== Лекция 2. Байесовские алгоритмы классификации ===
=== Лекция 2. Байесовские алгоритмы классификации ===
Строка 41: Строка 41:
* [[Линейный дискриминант Фишера]].
* [[Линейный дискриминант Фишера]].
* Проблемы [[мультиколлинеарность|мультиколлинеарности]] и [[переобучение|переобучения]]. [[Регуляризация]] ковариационной матрицы. [[Метод редукции размерности]] Шурыгина. Робастное оценивание.
* Проблемы [[мультиколлинеарность|мультиколлинеарности]] и [[переобучение|переобучения]]. [[Регуляризация]] ковариационной матрицы. [[Метод редукции размерности]] Шурыгина. Робастное оценивание.
-
* Факультатив/семинар: матричное дифференцирование.
+
* Факультатив или семинар: матричное дифференцирование.
=== Лекция 4. Разделение смеси распределений ===
=== Лекция 4. Разделение смеси распределений ===
Строка 49: Строка 49:
* Смесь многомерных нормальных распределений. [[Сеть радиальных базисных функций]] (RBF) и применение EM-алгоритма для её настройки.
* Смесь многомерных нормальных распределений. [[Сеть радиальных базисных функций]] (RBF) и применение EM-алгоритма для её настройки.
-
=== Лекция 5. Метрические алгоритмы классификации ===
+
=== Лекция 5. Линейные алгоритмы классификации, однослойный перцептрон ===
 +
* Естественный нейрон, [[модель МакКаллока-Питтса]], функции активации.
 +
* [[Линейный классификатор]], непрерывные аппроксимации пороговых функций потерь.
 +
* Квадратичная функция потерь, [[метод наименьших квадратов]], связь с линейным дискриминантом Фишера.
 +
* [[Метод стохастического градиента]] и частные случаи: [[адаптивный линейный элемент]] ADALINE, [[перцептрон Розенблатта]], [[правило Хэбба]].
 +
* [[Теорема Новикова]] о сходимости.
 +
 
 +
=== Лекция 6. Логистическая регрессия ===
 +
* Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
 +
* [[Логистическая регрессия]]. Принцип максимума правдоподобия и логарифмическая функция потерь.
 +
* Настройка порога решающего правила по критерию числа ошибок I и II рода, [[кривая ошибок]] (lift curve), отказы от классификации.
 +
* Пример прикладной задачи: кредитный скоринг и скоринговые карты.
 +
 
 +
=== Лекция 7. Нейронные сети ===
 +
* [[Проблема исключающего или]]. Проблема полноты. Полнота двухслойных сетей в пространстве булевских функций. Теоремы Колмогорова, Стоуна, Горбаня (без доказательства).
 +
* [[Алгоритм обратного распространения ошибок]]. Недостатки алгоритма, способы их устранения.
 +
* Проблема переобучения.
 +
* Проблема [[паралич сети|«паралича» сети]].
 +
* [[Редукция весов]] (weight decay).
 +
* Подбор структуры сети. Методы постепенного усложнения сети.
 +
* [[Метод оптимального прореживания сети]] (optimal brain damage).
 +
 
 +
=== Лекция 8. Метод опорных векторов ===
 +
* Оптимальная разделяющая гиперплоскость. Понятие [[зазор]]а между классами (margin).
 +
* Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие [[Опорный вектор|опорных векторов]].
 +
* Случай отсутствия линейной разделимости. Связь с минимизацией эмпирического риска, кусочно-линейная функция потерь. Двойственная задача. Отличие от предыдущего случая. Выбор константы ''C''.
 +
* [[Функция ядра]] (kernel functions), [[спрямляющее пространство]], [[теорема Мерсера]].
 +
* Способы построения ядер. Примеры ядер.
 +
* Сопоставление SVM и RBF-сети.
 +
 
 +
=== Лекция 9. Оптимизационные техники решения задачи SVM ===
 +
* Обучение SVM методом последовательной минимизации. Псевдокод: [[алгоритм SMO]].
 +
* Обучение SVM методом активных ограничений. Псевдокод: [[алгоритм INCAS]].
 +
* SVM-регрессия.
 +
 
 +
=== Лекция 10. Метрические алгоритмы классификации ===
* [[Метод ближайших соседей]] (''k''NN) и его обобщения.
* [[Метод ближайших соседей]] (''k''NN) и его обобщения.
* Подбор числа ''k'' по критерию скользящего контроля.
* Подбор числа ''k'' по критерию скользящего контроля.
Строка 56: Строка 91:
* Настройка весов объектов. Отбор эталонных объектов. Псевдокод: [[алгоритм СТОЛП]].
* Настройка весов объектов. Отбор эталонных объектов. Псевдокод: [[алгоритм СТОЛП]].
* [[Проклятие размерности]]. Настройка весов признаков.
* [[Проклятие размерности]]. Настройка весов признаков.
-
* Концепция [[CBR]].
+
* Вывод на основе прецедентов ([[CBR]]).
-
 
+
-
=== Лекция 6. Кластеризация ===
+
-
* Постановка задачи [[кластеризация|кластеризации]]. Примеры прикладных задач.
+
-
* [[Графовые алгоритмы кластеризации]]. Алгоритм связных компонент.
+
-
* Псевдокод алгоритма: [[кратчайший незамкнутый путь]].
+
-
* Псевдокод алгоритма: [[ФОРЭЛ]].
+
-
* Функционалы качества кластеризации.
+
-
* Статистические алгоритмы: [[EM-алгоритм]]. Псевдокод алгоритма [[k-means]].
+
-
=== Лекция 7. Иерерхическая кластеризация и многомерное шкалирование ===
+
=== Лекция 11. Непараметрическая регрессия ===
-
* Псевдокод алгоритма: [[агломеративная кластеризация]]. [[Формула Ланса-Вильямса]].
+
-
* Алгоритм построения [[дендрограмма|дендрограммы]]. Определение числа кластеров.
+
-
* Свойства сжатия/растяжения, монотонности и редуктивности. Псевдокод редуктивной версии алгоритма.
+
-
Потоковые (субквадратичные) алгоритмы кластеризации.
+
-
* [[Многомерное шкалирование]]. Размещение одной точки методом Ньютона-Рафсона. Субквадратичный алгоритм.
+
-
* Визуализация: [[карта сходства]], [[диаграмма Шепарда]].
+
-
* Совмещение многомерного шкалирования и иерархической кластеризации.
+
-
* Примеры прикладных задач.
+
-
 
+
-
=== Лекция 8. Непараметрическая регрессия ===
+
* Локально взвешенный [[метод наименьших квадратов]] и [[оценка Надарая-Ватсона]].
* Локально взвешенный [[метод наименьших квадратов]] и [[оценка Надарая-Ватсона]].
* [[Сглаживание]].
* [[Сглаживание]].
Строка 83: Строка 100:
* Проблема «проклятия размерности» и проблема выбора метрики.
* Проблема «проклятия размерности» и проблема выбора метрики.
-
=== Лекция 9. Многомерная линейная регрессия ===
+
=== Лекция 12. Многомерная линейная регрессия ===
* Задача регрессии, [[многомерная линейная регрессия]].
* Задача регрессии, [[многомерная линейная регрессия]].
* [[Метод наименьших квадратов]]. [[Сингулярное разложение]].
* [[Метод наименьших квадратов]]. [[Сингулярное разложение]].
Строка 91: Строка 108:
* [[Робастная регрессия]].
* [[Робастная регрессия]].
-
=== Лекция 10. Шаговая регрессия ===
+
=== Лекция 13. Шаговая регрессия ===
* [[Модифицированная ортогонализация Грама-Шмидта]], достоинства и недостатки.
* [[Модифицированная ортогонализация Грама-Шмидта]], достоинства и недостатки.
* [[Отбор признаков]] в процессе ортогонализации, критерии выбора и останова.
* [[Отбор признаков]] в процессе ортогонализации, критерии выбора и останова.
-
* [[Метод наименьших углов]], его связь с лассо и шаговой регрессией.
+
* [[Метод наименьших углов]] (LARS), его связь с лассо и шаговой регрессией.
-
=== Лекция 11. Нелинейная параметрическая регрессия ===
+
=== Лекция 14. Нелинейная параметрическая регрессия ===
* [[Метод Ньютона-Рафсона]], [[метод Ньютона-Гаусса]].
* [[Метод Ньютона-Рафсона]], [[метод Ньютона-Гаусса]].
* Одномерные нелинейные преобразования признаков: [[метод обратной настройки]] (backfitting) Хасти-Тибширани.
* Одномерные нелинейные преобразования признаков: [[метод обратной настройки]] (backfitting) Хасти-Тибширани.
* [[Обобщённая линейная модель]] (GLM).
* [[Обобщённая линейная модель]] (GLM).
 +
* [[Логистическая регрессия]] как частный случай GLM, [[метод наименьших квадратов с итеративным пересчетом весов]] (IRLS).
 +
 +
=== Лекция 15. Прогнозирование ===
 +
* Аддитивная модель временного ряда: тренд, сезонность, цикличность. Модель Бокса-Дженкинса. Модель ARIMA — авторегрессии и интегрированного скользящего среднего.
 +
* Адаптивные модели. Примеры экономических приложений.
* Неквадратичные функции потерь, примеры прикладных задач.
* Неквадратичные функции потерь, примеры прикладных задач.
-
 
-
=== Лекция 12. Логистическая регрессия ===
 
-
* [[Линейный классификатор]]. «Наивное» сведение задачи классификации к задаче регрессии, его недостатки.
 
-
* Гладкие аппроксимации пороговой функции потерь.
 
-
* Обоснование [[Логистическая регрессия|логистической регрессии]]: теорема об экспонентных плотностях.
 
-
* [[Метод наименьших квадратов с итеративным пересчетом весов]] (IRLS).
 
-
* Настройка порога решающего правила по критерию числа ошибок I и II рода, [[кривая ошибок]] (lift curve), отказы от классификации.
 
-
* Пример прикладной задачи: кредитный скоринг и скоринговые карты.
 
-
 
-
=== Лекция 13. Элементы теории обобщающей способности ===
 
-
* [[Принцип равномерной сходимости]]. [[Скользящий контроль]]. [[Теория Вапника-Червоненкиса]].
 
-
* [[Функция роста]] и [[ёмкость]].
 
-
* Ёмкость некоторых семейств алгоритмов.
 
-
* [[Метод структурной минимизации риска]].
 
-
* [[Принцип минимума длины описания]].
 
-
* Достаточная длина обучающей выборки.
 
-
* Причины завышенности оценок Вапника-Червоненкиса.
 
-
* Эффекты локализации (расслоения) семейства алгоритмов и различности алгоритмов.
 
-
* Оценки, зависящие от данных. Оценки, зависящие от отступов. Принцип самоограничения сложности. Понятие стабильности обучения.
 
-
* Эмпирическое оценивание обобщающей способности. Анализ вариации и смещения.
 
-
 
-
=== Лекция 14. Оценивание и выбор моделей ===
 
-
* Внутренние и [[внешние критерии]].
 
-
* [[Скользящий контроль]].
 
-
* [[Критерий непротиворечивости]].
 
-
* [[Регуляризация]].
 
-
* Критерии, основанные на оценках обобщающей способности: Вапника-Червоненкиса, [[критерий Акаике]] (AIC), [[байесовский информационный критерий]] (BIC).
 
-
* Статистические критерии: [[коэффициент детерминации]], [[критерий Фишера]], [[анализ остатков]].
 
-
 
-
=== Лекция 15. Методы отбора признаков ===
 
-
* Сложность задачи [[отбор признаков|отбора признаков]]. [[Полный перебор]].
 
-
* [[Метод добавления и удаления]] (шаговая регрессия).
 
-
* [[Поиск в глубину]] (метод ветвей и границ).
 
-
* Усечённый [[поиск в ширину]] ([[многорядный итерационный алгоритм МГУА]]).
 
-
* [[Генетический алгоритм]], его сходство с МГУА.
 
-
* [[Случайный поиск с адаптацией]] (СПА).
 
== Второй семестр ==
== Второй семестр ==
-
=== Лекция 1. Однослойный персептрон ===
+
=== Лекция 1. Кластеризация ===
-
* Естественный нейрон, [[модель МакКаллока-Питтса]].
+
* Постановка задачи [[кластеризация|кластеризации]]. Примеры прикладных задач.
-
* [[Персептрон Розенблатта]].
+
* [[Графовые алгоритмы кластеризации]]. Алгоритм связных компонент.
-
* [[Метод стохастического градиента]]. [[Теорема Новикова]] о сходимости.
+
* Псевдокод алгоритма: [[кратчайший незамкнутый путь]].
-
* Связь однослойного персептрона с логистической регрессией и обоснование сигмоидной функции потерь.
+
* Псевдокод алгоритма: [[ФОРЭЛ]].
-
* [[Проблема исключающего или]]. Проблема полноты. Полнота двухслойных сетей в пространстве булевских функций. Теоремы Колмогорова, Стоуна, Горбаня (без доказательства).
+
* Функционалы качества кластеризации.
 +
* Статистические алгоритмы: [[EM-алгоритм]]. Псевдокод алгоритма [[k-means]].
-
=== Лекция 2. Многослойные нейронные сети ===
+
=== Лекция 2. Иерерхическая кластеризация и многомерное шкалирование ===
-
* [[Алгоритм обратного распространения ошибок]]. Недостатки алгоритма, способы их устранения.
+
* [[Агломеративная кластеризация]]: псевдокод алгоритма, [[формула Ланса-Вильямса]] и её частные случаи.
-
* Проблема переобучения.
+
* Алгоритм построения [[дендрограмма|дендрограммы]]. Определение числа кластеров.
-
* Проблема [[паралич сети|«паралича» сети]].
+
* Свойства сжатия/растяжения, монотонности и редуктивности. Псевдокод редуктивной версии алгоритма.
-
* [[Редукция весов]] (weight decay).
+
Потоковые (субквадратичные) алгоритмы кластеризации.
-
* Подбор структуры сети.
+
* [[Многомерное шкалирование]]. Размещение одной точки методом Ньютона-Рафсона. Субквадратичный алгоритм.
-
* [[Метод оптимального прореживания сети]] (optimal brain damage).
+
* Визуализация: [[карта сходства]], [[диаграмма Шепарда]].
 +
* Совмещение многомерного шкалирования и иерархической кластеризации.
 +
* Примеры прикладных задач.
=== Лекция 3. Обучающееся векторное квантование (сети Кохонена) ===
=== Лекция 3. Обучающееся векторное квантование (сети Кохонена) ===
Строка 160: Строка 149:
* [[Сети встречного распространения]], их применение для кусочно-постоянной и гладкой аппроксимации функций.
* [[Сети встречного распространения]], их применение для кусочно-постоянной и гладкой аппроксимации функций.
-
=== Лекция 4. Метод опорных векторов ===
+
=== Лекция 4. Алгоритмические композиции ===
-
* Оптимальная разделяющая гиперплоскость. Понятие [[зазор]]а между классами (margin).
+
-
* Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие [[Опорный вектор|опорных векторов]].
+
-
* Случай отсутствия линейной разделимости. Двойственная задача. Отличие от предыдущего случая. Выбор константы ''C''.
+
-
* [[Функция ядра]] (kernel functions), [[спрямляющее пространство]], [[теорема Мерсера]].
+
-
* Способы построения ядер. Примеры ядер.
+
-
* Сопоставление SVM и RBF-сети.
+
-
 
+
-
=== Лекция 5. Оптимизационные техники решения задачи SVM ===
+
-
* Обучение SVM методом последовательной оптимизации минимумов. Псевдокод: [[алгоритм SMO]].
+
-
* Обучение SVM методом активных ограничений. Псевдокод: [[алгоритм INCAS]].
+
-
* SVM-регрессия.
+
-
 
+
-
=== Лекция 6. Алгоритмические композиции ===
+
* Основные понятия: [[базовый алгоритм]] ([[алгоритмический оператор]]), [[корректирующая операция]].
* Основные понятия: [[базовый алгоритм]] ([[алгоритмический оператор]]), [[корректирующая операция]].
* Линейные (выпуклые) алгоритмические композиции.
* Линейные (выпуклые) алгоритмические композиции.
Строка 180: Строка 156:
* [[Решающий список]] (комитет старшинства). Эвристический алгоритм.
* [[Решающий список]] (комитет старшинства). Эвристический алгоритм.
-
=== Лекция 7. Бустинг, бэггинг и аналоги ===
+
=== Лекция 5. Бустинг, бэггинг и аналоги ===
* [[Взвешенное голосование]].
* [[Взвешенное голосование]].
* Экспоненциальная аппроксимация пороговой функции потерь. Теорема о сходимости [[бустинг]]а.
* Экспоненциальная аппроксимация пороговой функции потерь. Теорема о сходимости [[бустинг]]а.
Строка 187: Строка 163:
* Стохастические методы: [[бэггинг]] и [[метод случайных подпространств]].
* Стохастические методы: [[бэггинг]] и [[метод случайных подпространств]].
-
=== Лекция 8. Метод комитетов ===
+
=== Лекция 6. Метод комитетов ===
* Общее понятие: [[комитет]] системы ограничений. Комитеты большинства, простое и взвешенное голосование (''z,p''-комитеты).
* Общее понятие: [[комитет]] системы ограничений. Комитеты большинства, простое и взвешенное голосование (''z,p''-комитеты).
* Теоремы о существовании комитетного решения.
* Теоремы о существовании комитетного решения.
Строка 194: Строка 170:
* Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.
* Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.
-
=== Лекция 9. Нелинейные алгоритмические композиции ===
+
=== Лекция 7. Нелинейные алгоритмические композиции ===
* [[Смесь экспертов]], [[область компетентности]] алгоритма.
* [[Смесь экспертов]], [[область компетентности]] алгоритма.
* Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
* Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
* Построение смесей экспертов с помощью EM-алгоритма.
* Построение смесей экспертов с помощью EM-алгоритма.
* Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.
* Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.
 +
 +
=== Лекция 8. Оценивание и выбор моделей ===
 +
* Внутренние и [[внешние критерии]].
 +
* [[Скользящий контроль]].
 +
* [[Критерий непротиворечивости]].
 +
* [[Регуляризация]].
 +
* Критерии, основанные на оценках обобщающей способности: Вапника-Червоненкиса, [[критерий Акаике]] (AIC), [[байесовский информационный критерий]] (BIC).
 +
* Статистические критерии: [[коэффициент детерминации]], [[критерий Фишера]], [[анализ остатков]].
 +
 +
=== Лекция 9. Методы отбора признаков ===
 +
* Сложность задачи [[отбор признаков|отбора признаков]]. [[Полный перебор]].
 +
* [[Метод добавления и удаления]] (шаговая регрессия).
 +
* [[Поиск в глубину]] (метод ветвей и границ).
 +
* Усечённый [[поиск в ширину]] ([[многорядный итерационный алгоритм МГУА]]).
 +
* [[Генетический алгоритм]], его сходство с МГУА.
 +
* [[Случайный поиск с адаптацией]] (СПА).
=== Лекция 10. Логические алгоритмы классификации ===
=== Лекция 10. Логические алгоритмы классификации ===

Версия 10:07, 29 августа 2008

Содержание

Машинное обучение возникло на стыке прикладной статистики, оптимизации, дискретного анализа, и за последние 30 лет оформилось в самостоятельную математическую дисциплину. Методы машинного обучения составляют основу ещё более молодой дисциплины — интеллектуального анализа данных (data mining).

В курсе рассматриваются основные задачи обучения по прецедентам: классификация, кластеризация, регрессия, понижение размерности. Изучаются методы их решения, как классические, так и новые, созданные за последние 10–15 лет. Упор делается на глубокое понимание математических основ, взаимосвязей, достоинств и ограничений рассматриваемых методов. Отдельные теоремы приводятся с доказательствами.

Все методы излагаются по единой схеме:

  • исходные идеи и эвристики;
  • их формализация и математическая теория;
  • описание алгоритма в виде слабо формализованного псевдокода;
  • анализ достоинств, недостатков и границ применимости;
  • пути устранения недостатков;
  • сравнение с другими методами;
  • примеры прикладных задач.

Данный курс существенно расширяет и углубляет набор тем, рекомендованный международным стандартом ACM/IEEE Computing Curricula 2001 по дисциплине «Машинное обучение и нейронные сети» (machine learning and neural networks) в разделе «Интеллектуальные системы» (intelligent systems).

Курс читается студентам 3 курса кафедры «Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ с 2004 года и студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ с 2007 года. На материал данного курса существенно опираются последующие курсы, читаемые студентам на этих кафедрах.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.

Первый семестр

Лекция 1. Вводная лекция

Лекция 2. Байесовские алгоритмы классификации

Лекция 3. Параметрическое оценивание плотности

Лекция 4. Разделение смеси распределений

  • Смесь распределений.
  • EM-алгоритм: основная идея, понятие скрытых переменных. «Вывод» алгоритма без обоснования сходимости. Псевдокод EM-алгоритма. Критерий останова. Выбор начального приближения. Выбор числа компонентов смеси.
  • Стохастический EM-алгоритм.
  • Смесь многомерных нормальных распределений. Сеть радиальных базисных функций (RBF) и применение EM-алгоритма для её настройки.

Лекция 5. Линейные алгоритмы классификации, однослойный перцептрон

Лекция 6. Логистическая регрессия

  • Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
  • Логистическая регрессия. Принцип максимума правдоподобия и логарифмическая функция потерь.
  • Настройка порога решающего правила по критерию числа ошибок I и II рода, кривая ошибок (lift curve), отказы от классификации.
  • Пример прикладной задачи: кредитный скоринг и скоринговые карты.

Лекция 7. Нейронные сети

Лекция 8. Метод опорных векторов

  • Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin).
  • Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие опорных векторов.
  • Случай отсутствия линейной разделимости. Связь с минимизацией эмпирического риска, кусочно-линейная функция потерь. Двойственная задача. Отличие от предыдущего случая. Выбор константы C.
  • Функция ядра (kernel functions), спрямляющее пространство, теорема Мерсера.
  • Способы построения ядер. Примеры ядер.
  • Сопоставление SVM и RBF-сети.

Лекция 9. Оптимизационные техники решения задачи SVM

  • Обучение SVM методом последовательной минимизации. Псевдокод: алгоритм SMO.
  • Обучение SVM методом активных ограничений. Псевдокод: алгоритм INCAS.
  • SVM-регрессия.

Лекция 10. Метрические алгоритмы классификации

Лекция 11. Непараметрическая регрессия

Лекция 12. Многомерная линейная регрессия

Лекция 13. Шаговая регрессия

Лекция 14. Нелинейная параметрическая регрессия

Лекция 15. Прогнозирование

  • Аддитивная модель временного ряда: тренд, сезонность, цикличность. Модель Бокса-Дженкинса. Модель ARIMA — авторегрессии и интегрированного скользящего среднего.
  • Адаптивные модели. Примеры экономических приложений.
  • Неквадратичные функции потерь, примеры прикладных задач.

Второй семестр

Лекция 1. Кластеризация

Лекция 2. Иерерхическая кластеризация и многомерное шкалирование

Потоковые (субквадратичные) алгоритмы кластеризации.

Лекция 3. Обучающееся векторное квантование (сети Кохонена)

Лекция 4. Алгоритмические композиции

Лекция 5. Бустинг, бэггинг и аналоги

Лекция 6. Метод комитетов

  • Общее понятие: комитет системы ограничений. Комитеты большинства, простое и взвешенное голосование (z,p-комитеты).
  • Теоремы о существовании комитетного решения.
  • Сопоставление комитета линейных неравенств с нейронной сетью.
  • Максимальная совместная подсистема, минимальный комитет. Теоремы об NP-полноте задачи поиска минимального комитета.
  • Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.

Лекция 7. Нелинейные алгоритмические композиции

  • Смесь экспертов, область компетентности алгоритма.
  • Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
  • Построение смесей экспертов с помощью EM-алгоритма.
  • Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.

Лекция 8. Оценивание и выбор моделей

Лекция 9. Методы отбора признаков

Лекция 10. Логические алгоритмы классификации

Лекция 11. Решающие списки и деревья

Лекция 12. Взвешенное голосование логических закономерностей

  • Принцип голосования. Проблема различности (диверсификации) закономерностей.
  • Методы синтеза конъюнктивных закономерностей. Псевдокод: алгоритм КОРА, алгоритм ТЭМП.
  • Алгоритм бустинга. Теорема сходимости.
  • Примеры прикладных задач: кредитный скоринг, прогнозирование ухода клиентов.

Лекция 13. Алгоритмы вычисления оценок

Лекция 14. Поиск ассоциативных правил

Файлы

Экзаменационные билеты

Практикум

Личные инструменты