Машинное обучение (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(реструктуризация курса)
(уточнение)
Строка 16: Строка 16:
Курс читается студентам 3 курса кафедры [[Интеллектуальные системы (кафедра МФТИ)|«Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ]] с 2004 года и студентам 3 курса кафедры [[Математические методы прогнозирования (кафедра ВМиК МГУ)|«Математические методы прогнозирования» ВМиК МГУ]] с 2007 года.
Курс читается студентам 3 курса кафедры [[Интеллектуальные системы (кафедра МФТИ)|«Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ]] с 2004 года и студентам 3 курса кафедры [[Математические методы прогнозирования (кафедра ВМиК МГУ)|«Математические методы прогнозирования» ВМиК МГУ]] с 2007 года.
-
На материал данного курса существенно опираются последующие курсы, читаемые студентам на этих кафедрах.
+
На материал данного курса существенно опираются последующие кафедральные курсы.
 +
На кафедре ММП ВМиК МГУ параллельно с данным курсом и в дополнение к нему читается спецкурс [[Теория надёжности обучения по прецедентам (курс лекций, К.В.Воронцов)|Теория надёжности обучения по прецедентам]].
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание [[Математическая статистика|математической статистики]], [[Методы оптимизации|методов оптимизации]] и какого-либо языка программирования желательно, но не обязательно.
От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание [[Математическая статистика|математической статистики]], [[Методы оптимизации|методов оптимизации]] и какого-либо языка программирования желательно, но не обязательно.
Строка 22: Строка 23:
== Первый семестр ==
== Первый семестр ==
-
=== Лекция 1. Вводная лекция ===
+
=== Вводная лекция ===
* Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
* Постановка задач обучения по прецедентам. Объекты и признаки. Типы шкал: бинарные, номинальные, порядковые, количественные.
* Типы задач: [[классификация]], [[регрессия]], [[прогнозирование]], [[кластеризация]]. Примеры прикладных задач.
* Типы задач: [[классификация]], [[регрессия]], [[прогнозирование]], [[кластеризация]]. Примеры прикладных задач.
Строка 28: Строка 29:
* Вероятностная постановка задачи, [[принцип максимума правдоподобия]] и его связь с принципом минимизации эмпирического риска.
* Вероятностная постановка задачи, [[принцип максимума правдоподобия]] и его связь с принципом минимизации эмпирического риска.
-
=== Лекция 2. Байесовские алгоритмы классификации ===
+
=== Байесовские алгоритмы классификации ===
* Оптимальный [[байесовский классификатор]].
* Оптимальный [[байесовский классификатор]].
* Функционал среднего риска. Ошибки I и II рода.
* Функционал среднего риска. Ошибки I и II рода.
Строка 36: Строка 37:
* Непараметрическое оценивание плотности распределения по Парзену-Розенблатту. Выбор функции ядра. Выбор ширины окна, переменная ширина окна. Робастное оценивание плотности. [[Метод парзеновского окна]].
* Непараметрическое оценивание плотности распределения по Парзену-Розенблатту. Выбор функции ядра. Выбор ширины окна, переменная ширина окна. Робастное оценивание плотности. [[Метод парзеновского окна]].
-
=== Лекция 3. Параметрическое оценивание плотности ===
+
=== Параметрическое оценивание плотности ===
* [[Нормальный дискриминантный анализ]]. [[Многомерное нормальное распределение]], геометрическая интерпретация. Выборочные оценки параметров многомерного нормального распределения.
* [[Нормальный дискриминантный анализ]]. [[Многомерное нормальное распределение]], геометрическая интерпретация. Выборочные оценки параметров многомерного нормального распределения.
* [[Квадратичный дискриминант]]. Вид разделяющей поверхности. [[Подстановочный алгоритм]], его недостатки и способы их устранения.
* [[Квадратичный дискриминант]]. Вид разделяющей поверхности. [[Подстановочный алгоритм]], его недостатки и способы их устранения.
Строка 43: Строка 44:
* Факультатив или семинар: матричное дифференцирование.
* Факультатив или семинар: матричное дифференцирование.
-
=== Лекция 4. Разделение смеси распределений ===
+
=== Разделение смеси распределений ===
* [[Смесь распределений]].
* [[Смесь распределений]].
* [[EM-алгоритм]]: основная идея, понятие скрытых переменных. «Вывод» алгоритма без обоснования сходимости. Псевдокод EM-алгоритма. Критерий останова. Выбор начального приближения. Выбор числа компонентов смеси.
* [[EM-алгоритм]]: основная идея, понятие скрытых переменных. «Вывод» алгоритма без обоснования сходимости. Псевдокод EM-алгоритма. Критерий останова. Выбор начального приближения. Выбор числа компонентов смеси.
Строка 49: Строка 50:
* Смесь многомерных нормальных распределений. [[Сеть радиальных базисных функций]] (RBF) и применение EM-алгоритма для её настройки.
* Смесь многомерных нормальных распределений. [[Сеть радиальных базисных функций]] (RBF) и применение EM-алгоритма для её настройки.
-
=== Лекция 5. Линейные алгоритмы классификации, однослойный перцептрон ===
+
=== Линейные алгоритмы классификации, однослойный перцептрон ===
* Естественный нейрон, [[модель МакКаллока-Питтса]], функции активации.
* Естественный нейрон, [[модель МакКаллока-Питтса]], функции активации.
* [[Линейный классификатор]], непрерывные аппроксимации пороговых функций потерь.
* [[Линейный классификатор]], непрерывные аппроксимации пороговых функций потерь.
Строка 56: Строка 57:
* [[Теорема Новикова]] о сходимости.
* [[Теорема Новикова]] о сходимости.
-
=== Лекция 6. Логистическая регрессия ===
+
=== Логистическая регрессия ===
* Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
* Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
* [[Логистическая регрессия]]. Принцип максимума правдоподобия и логарифмическая функция потерь.
* [[Логистическая регрессия]]. Принцип максимума правдоподобия и логарифмическая функция потерь.
Строка 62: Строка 63:
* Пример прикладной задачи: кредитный скоринг и скоринговые карты.
* Пример прикладной задачи: кредитный скоринг и скоринговые карты.
-
=== Лекция 7. Нейронные сети ===
+
=== Нейронные сети ===
* [[Проблема исключающего или]]. Проблема полноты. Полнота двухслойных сетей в пространстве булевских функций. Теоремы Колмогорова, Стоуна, Горбаня (без доказательства).
* [[Проблема исключающего или]]. Проблема полноты. Полнота двухслойных сетей в пространстве булевских функций. Теоремы Колмогорова, Стоуна, Горбаня (без доказательства).
* [[Алгоритм обратного распространения ошибок]]. Недостатки алгоритма, способы их устранения.
* [[Алгоритм обратного распространения ошибок]]. Недостатки алгоритма, способы их устранения.
Строка 71: Строка 72:
* [[Метод оптимального прореживания сети]] (optimal brain damage).
* [[Метод оптимального прореживания сети]] (optimal brain damage).
-
=== Лекция 8. Метод опорных векторов ===
+
=== Метод опорных векторов ===
* Оптимальная разделяющая гиперплоскость. Понятие [[зазор]]а между классами (margin).
* Оптимальная разделяющая гиперплоскость. Понятие [[зазор]]а между классами (margin).
* Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие [[Опорный вектор|опорных векторов]].
* Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие [[Опорный вектор|опорных векторов]].
Строка 79: Строка 80:
* Сопоставление SVM и RBF-сети.
* Сопоставление SVM и RBF-сети.
-
=== Лекция 9. Оптимизационные техники решения задачи SVM ===
+
=== Оптимизационные техники решения задачи SVM ===
* Обучение SVM методом последовательной минимизации. Псевдокод: [[алгоритм SMO]].
* Обучение SVM методом последовательной минимизации. Псевдокод: [[алгоритм SMO]].
* Обучение SVM методом активных ограничений. Псевдокод: [[алгоритм INCAS]].
* Обучение SVM методом активных ограничений. Псевдокод: [[алгоритм INCAS]].
* SVM-регрессия.
* SVM-регрессия.
-
=== Лекция 10. Метрические алгоритмы классификации ===
+
=== Метрические алгоритмы классификации ===
* [[Метод ближайших соседей]] (''k''NN) и его обобщения.
* [[Метод ближайших соседей]] (''k''NN) и его обобщения.
* Подбор числа ''k'' по критерию скользящего контроля.
* Подбор числа ''k'' по критерию скользящего контроля.
Строка 93: Строка 94:
* Вывод на основе прецедентов ([[CBR]]).
* Вывод на основе прецедентов ([[CBR]]).
-
=== Лекция 11. Непараметрическая регрессия ===
+
=== Непараметрическая регрессия ===
* Локально взвешенный [[метод наименьших квадратов]] и [[оценка Надарая-Ватсона]].
* Локально взвешенный [[метод наименьших квадратов]] и [[оценка Надарая-Ватсона]].
* [[Сглаживание]].
* [[Сглаживание]].
Строка 100: Строка 101:
* Проблема «проклятия размерности» и проблема выбора метрики.
* Проблема «проклятия размерности» и проблема выбора метрики.
-
=== Лекция 12. Многомерная линейная регрессия ===
+
=== Многомерная линейная регрессия ===
* Задача регрессии, [[многомерная линейная регрессия]].
* Задача регрессии, [[многомерная линейная регрессия]].
* [[Метод наименьших квадратов]]. [[Сингулярное разложение]].
* [[Метод наименьших квадратов]]. [[Сингулярное разложение]].
Строка 108: Строка 109:
* [[Робастная регрессия]].
* [[Робастная регрессия]].
-
=== Лекция 13. Шаговая регрессия ===
+
=== Шаговая регрессия ===
* [[Модифицированная ортогонализация Грама-Шмидта]], достоинства и недостатки.
* [[Модифицированная ортогонализация Грама-Шмидта]], достоинства и недостатки.
* [[Отбор признаков]] в процессе ортогонализации, критерии выбора и останова.
* [[Отбор признаков]] в процессе ортогонализации, критерии выбора и останова.
* [[Метод наименьших углов]] (LARS), его связь с лассо и шаговой регрессией.
* [[Метод наименьших углов]] (LARS), его связь с лассо и шаговой регрессией.
-
=== Лекция 14. Нелинейная параметрическая регрессия ===
+
=== Нелинейная параметрическая регрессия ===
* [[Метод Ньютона-Рафсона]], [[метод Ньютона-Гаусса]].
* [[Метод Ньютона-Рафсона]], [[метод Ньютона-Гаусса]].
* Одномерные нелинейные преобразования признаков: [[метод обратной настройки]] (backfitting) Хасти-Тибширани.
* Одномерные нелинейные преобразования признаков: [[метод обратной настройки]] (backfitting) Хасти-Тибширани.
Строка 119: Строка 120:
* [[Логистическая регрессия]] как частный случай GLM, [[метод наименьших квадратов с итеративным пересчетом весов]] (IRLS).
* [[Логистическая регрессия]] как частный случай GLM, [[метод наименьших квадратов с итеративным пересчетом весов]] (IRLS).
-
=== Лекция 15. Прогнозирование ===
+
=== Прогнозирование временных рядов ===
* Аддитивная модель временного ряда: тренд, сезонность, цикличность. Модель Бокса-Дженкинса. Модель ARIMA — авторегрессии и интегрированного скользящего среднего.
* Аддитивная модель временного ряда: тренд, сезонность, цикличность. Модель Бокса-Дженкинса. Модель ARIMA — авторегрессии и интегрированного скользящего среднего.
* Адаптивные модели. Примеры экономических приложений.
* Адаптивные модели. Примеры экономических приложений.
Строка 126: Строка 127:
== Второй семестр ==
== Второй семестр ==
-
=== Лекция 1. Кластеризация ===
+
=== Кластеризация: эвристические и статистические алгоритмы ===
* Постановка задачи [[кластеризация|кластеризации]]. Примеры прикладных задач.
* Постановка задачи [[кластеризация|кластеризации]]. Примеры прикладных задач.
* [[Графовые алгоритмы кластеризации]]. Алгоритм связных компонент.
* [[Графовые алгоритмы кластеризации]]. Алгоритм связных компонент.
Строка 134: Строка 135:
* Статистические алгоритмы: [[EM-алгоритм]]. Псевдокод алгоритма [[k-means]].
* Статистические алгоритмы: [[EM-алгоритм]]. Псевдокод алгоритма [[k-means]].
-
=== Лекция 2. Иерерхическая кластеризация и многомерное шкалирование ===
+
=== Иерерхическая кластеризация и многомерное шкалирование ===
* [[Агломеративная кластеризация]]: псевдокод алгоритма, [[формула Ланса-Вильямса]] и её частные случаи.
* [[Агломеративная кластеризация]]: псевдокод алгоритма, [[формула Ланса-Вильямса]] и её частные случаи.
* Алгоритм построения [[дендрограмма|дендрограммы]]. Определение числа кластеров.
* Алгоритм построения [[дендрограмма|дендрограммы]]. Определение числа кластеров.
Строка 144: Строка 145:
* Примеры прикладных задач.
* Примеры прикладных задач.
-
=== Лекция 3. Обучающееся векторное квантование (сети Кохонена) ===
+
=== Сети Кохонена и обучающееся векторное квантование ===
* [[Сеть Кохонена]]. [[Конкурентное обучение]], стратегии WTA и WTM.
* [[Сеть Кохонена]]. [[Конкурентное обучение]], стратегии WTA и WTM.
* [[Самоорганизующаяся карта Кохонена]]. Применение для визуального анализа данных.
* [[Самоорганизующаяся карта Кохонена]]. Применение для визуального анализа данных.
* [[Сети встречного распространения]], их применение для кусочно-постоянной и гладкой аппроксимации функций.
* [[Сети встречного распространения]], их применение для кусочно-постоянной и гладкой аппроксимации функций.
-
=== Лекция 4. Алгоритмические композиции ===
+
=== Алгоритмические композиции ===
* Основные понятия: [[базовый алгоритм]] ([[алгоритмический оператор]]), [[корректирующая операция]].
* Основные понятия: [[базовый алгоритм]] ([[алгоритмический оператор]]), [[корректирующая операция]].
* Линейные (выпуклые) алгоритмические композиции.
* Линейные (выпуклые) алгоритмические композиции.
Строка 156: Строка 157:
* [[Решающий список]] (комитет старшинства). Эвристический алгоритм.
* [[Решающий список]] (комитет старшинства). Эвристический алгоритм.
-
=== Лекция 5. Бустинг, бэггинг и аналоги ===
+
=== Бустинг, бэггинг и аналоги ===
* [[Взвешенное голосование]].
* [[Взвешенное голосование]].
* Экспоненциальная аппроксимация пороговой функции потерь. Теорема о сходимости [[бустинг]]а.
* Экспоненциальная аппроксимация пороговой функции потерь. Теорема о сходимости [[бустинг]]а.
Строка 163: Строка 164:
* Стохастические методы: [[бэггинг]] и [[метод случайных подпространств]].
* Стохастические методы: [[бэггинг]] и [[метод случайных подпространств]].
-
=== Лекция 6. Метод комитетов ===
+
=== Метод комитетов ===
* Общее понятие: [[комитет]] системы ограничений. Комитеты большинства, простое и взвешенное голосование (''z,p''-комитеты).
* Общее понятие: [[комитет]] системы ограничений. Комитеты большинства, простое и взвешенное голосование (''z,p''-комитеты).
* Теоремы о существовании комитетного решения.
* Теоремы о существовании комитетного решения.
Строка 170: Строка 171:
* Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.
* Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.
-
=== Лекция 7. Нелинейные алгоритмические композиции ===
+
=== Нелинейные алгоритмические композиции ===
* [[Смесь экспертов]], [[область компетентности]] алгоритма.
* [[Смесь экспертов]], [[область компетентности]] алгоритма.
* Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
* Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
Строка 176: Строка 177:
* Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.
* Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.
-
=== Лекция 8. Оценивание и выбор моделей ===
+
=== Оценивание и выбор моделей ===
* Внутренние и [[внешние критерии]].
* Внутренние и [[внешние критерии]].
* [[Скользящий контроль]].
* [[Скользящий контроль]].
Строка 184: Строка 185:
* Статистические критерии: [[коэффициент детерминации]], [[критерий Фишера]], [[анализ остатков]].
* Статистические критерии: [[коэффициент детерминации]], [[критерий Фишера]], [[анализ остатков]].
-
=== Лекция 9. Методы отбора признаков ===
+
=== Методы отбора признаков ===
* Сложность задачи [[отбор признаков|отбора признаков]]. [[Полный перебор]].
* Сложность задачи [[отбор признаков|отбора признаков]]. [[Полный перебор]].
* [[Метод добавления и удаления]] (шаговая регрессия).
* [[Метод добавления и удаления]] (шаговая регрессия).
Строка 192: Строка 193:
* [[Случайный поиск с адаптацией]] (СПА).
* [[Случайный поиск с адаптацией]] (СПА).
-
=== Лекция 10. Логические алгоритмы классификации ===
+
=== Логические алгоритмы классификации ===
* Понятие [[логическая закономерность|логической закономерности]]. Эвристическое, статичтическое, энтропийное определение [[информативность|информативности]]. Асимптотическая эквивалентность статичтического и энтропийного определения. Принципиальные отличия эвристического и статичтического определения.
* Понятие [[логическая закономерность|логической закономерности]]. Эвристическое, статичтическое, энтропийное определение [[информативность|информативности]]. Асимптотическая эквивалентность статичтического и энтропийного определения. Принципиальные отличия эвристического и статичтического определения.
* Разновидности закономерностей: шары, гиперплоскости, гиперпараллелепипеды (конъюнкции).
* Разновидности закономерностей: шары, гиперплоскости, гиперпараллелепипеды (конъюнкции).
Строка 198: Строка 199:
* «Градиентный» алгоритм синтеза конъюнкций, частные случаи: жадный алгоритм, [[стохастический локальный поиск]], [[стабилизация]], [[редукция]].
* «Градиентный» алгоритм синтеза конъюнкций, частные случаи: жадный алгоритм, [[стохастический локальный поиск]], [[стабилизация]], [[редукция]].
-
=== Лекция 11. Решающие списки и деревья ===
+
=== Решающие списки и деревья ===
* [[Решающий список]]. Жадный алгоритм синтеза списка.
* [[Решающий список]]. Жадный алгоритм синтеза списка.
* [[Решающее дерево]]. Псевдокод: жадный [[алгоритм ID3]]. Недостатки алгоритма и способы их устранения. Проблема переобучения.
* [[Решающее дерево]]. Псевдокод: жадный [[алгоритм ID3]]. Недостатки алгоритма и способы их устранения. Проблема переобучения.
Строка 206: Строка 207:
* [[Переключающиеся решающие деревья]] (alternating decision tree).
* [[Переключающиеся решающие деревья]] (alternating decision tree).
-
=== Лекция 12. Взвешенное голосование логических закономерностей ===
+
=== Взвешенное голосование логических закономерностей ===
* Принцип голосования. Проблема различности (диверсификации) закономерностей.
* Принцип голосования. Проблема различности (диверсификации) закономерностей.
* Методы синтеза конъюнктивных закономерностей. Псевдокод: [[алгоритм КОРА]], [[алгоритм ТЭМП]].
* Методы синтеза конъюнктивных закономерностей. Псевдокод: [[алгоритм КОРА]], [[алгоритм ТЭМП]].
Строка 212: Строка 213:
* Примеры прикладных задач: кредитный скоринг, прогнозирование ухода клиентов.
* Примеры прикладных задач: кредитный скоринг, прогнозирование ухода клиентов.
-
=== Лекция 13. Алгоритмы вычисления оценок ===
+
=== Алгоритмы вычисления оценок ===
* [[Принцип частичной прецедентности]]. Структура [[АВО]].
* [[Принцип частичной прецедентности]]. Структура [[АВО]].
* [[Тупиковые тесты]].
* [[Тупиковые тесты]].
Строка 219: Строка 220:
* Применение бустинга, ТЭМП и СПА для оптимизации АВО.
* Применение бустинга, ТЭМП и СПА для оптимизации АВО.
-
=== Лекция 14. Поиск ассоциативных правил ===
+
=== Поиск ассоциативных правил ===
* Пример прикладной задачи: [[анализ рыночных корзин]].
* Пример прикладной задачи: [[анализ рыночных корзин]].
* Понятие [[Ассоциативное правило|ассоциативного правила]] и его связь с понятием логической закономерности.
* Понятие [[Ассоциативное правило|ассоциативного правила]] и его связь с понятием логической закономерности.

Версия 10:16, 29 августа 2008

Содержание

Машинное обучение возникло на стыке прикладной статистики, оптимизации, дискретного анализа, и за последние 30 лет оформилось в самостоятельную математическую дисциплину. Методы машинного обучения составляют основу ещё более молодой дисциплины — интеллектуального анализа данных (data mining).

В курсе рассматриваются основные задачи обучения по прецедентам: классификация, кластеризация, регрессия, понижение размерности. Изучаются методы их решения, как классические, так и новые, созданные за последние 10–15 лет. Упор делается на глубокое понимание математических основ, взаимосвязей, достоинств и ограничений рассматриваемых методов. Отдельные теоремы приводятся с доказательствами.

Все методы излагаются по единой схеме:

  • исходные идеи и эвристики;
  • их формализация и математическая теория;
  • описание алгоритма в виде слабо формализованного псевдокода;
  • анализ достоинств, недостатков и границ применимости;
  • пути устранения недостатков;
  • сравнение с другими методами;
  • примеры прикладных задач.

Данный курс существенно расширяет и углубляет набор тем, рекомендованный международным стандартом ACM/IEEE Computing Curricula 2001 по дисциплине «Машинное обучение и нейронные сети» (machine learning and neural networks) в разделе «Интеллектуальные системы» (intelligent systems).

Курс читается студентам 3 курса кафедры «Интеллектуальные системы / интеллектуальный анализ данных» ФУПМ МФТИ с 2004 года и студентам 3 курса кафедры «Математические методы прогнозирования» ВМиК МГУ с 2007 года. На материал данного курса существенно опираются последующие кафедральные курсы. На кафедре ММП ВМиК МГУ параллельно с данным курсом и в дополнение к нему читается спецкурс Теория надёжности обучения по прецедентам.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации и какого-либо языка программирования желательно, но не обязательно.

Первый семестр

Вводная лекция

Байесовские алгоритмы классификации

Параметрическое оценивание плотности

Разделение смеси распределений

  • Смесь распределений.
  • EM-алгоритм: основная идея, понятие скрытых переменных. «Вывод» алгоритма без обоснования сходимости. Псевдокод EM-алгоритма. Критерий останова. Выбор начального приближения. Выбор числа компонентов смеси.
  • Стохастический EM-алгоритм.
  • Смесь многомерных нормальных распределений. Сеть радиальных базисных функций (RBF) и применение EM-алгоритма для её настройки.

Линейные алгоритмы классификации, однослойный перцептрон

Логистическая регрессия

  • Гипотеза экспоненциальности функций правдоподобия классов. Теорема о линейности байесовского оптимального классификатора. Оценивание апостериорных вероятностей классов с помощью сигмоидной функции активации.
  • Логистическая регрессия. Принцип максимума правдоподобия и логарифмическая функция потерь.
  • Настройка порога решающего правила по критерию числа ошибок I и II рода, кривая ошибок (lift curve), отказы от классификации.
  • Пример прикладной задачи: кредитный скоринг и скоринговые карты.

Нейронные сети

Метод опорных векторов

  • Оптимальная разделяющая гиперплоскость. Понятие зазора между классами (margin).
  • Случай линейной разделимости. Задача квадратичного программирования и двойственная задача. Понятие опорных векторов.
  • Случай отсутствия линейной разделимости. Связь с минимизацией эмпирического риска, кусочно-линейная функция потерь. Двойственная задача. Отличие от предыдущего случая. Выбор константы C.
  • Функция ядра (kernel functions), спрямляющее пространство, теорема Мерсера.
  • Способы построения ядер. Примеры ядер.
  • Сопоставление SVM и RBF-сети.

Оптимизационные техники решения задачи SVM

  • Обучение SVM методом последовательной минимизации. Псевдокод: алгоритм SMO.
  • Обучение SVM методом активных ограничений. Псевдокод: алгоритм INCAS.
  • SVM-регрессия.

Метрические алгоритмы классификации

Непараметрическая регрессия

Многомерная линейная регрессия

Шаговая регрессия

Нелинейная параметрическая регрессия

Прогнозирование временных рядов

  • Аддитивная модель временного ряда: тренд, сезонность, цикличность. Модель Бокса-Дженкинса. Модель ARIMA — авторегрессии и интегрированного скользящего среднего.
  • Адаптивные модели. Примеры экономических приложений.
  • Неквадратичные функции потерь, примеры прикладных задач.

Второй семестр

Кластеризация: эвристические и статистические алгоритмы

Иерерхическая кластеризация и многомерное шкалирование

Потоковые (субквадратичные) алгоритмы кластеризации.

Сети Кохонена и обучающееся векторное квантование

Алгоритмические композиции

Бустинг, бэггинг и аналоги

Метод комитетов

  • Общее понятие: комитет системы ограничений. Комитеты большинства, простое и взвешенное голосование (z,p-комитеты).
  • Теоремы о существовании комитетного решения.
  • Сопоставление комитета линейных неравенств с нейронной сетью.
  • Максимальная совместная подсистема, минимальный комитет. Теоремы об NP-полноте задачи поиска минимального комитета.
  • Алгоритм построения комитета, близкого к минимальному. Верхняя оценка числа членов комитета.

Нелинейные алгоритмические композиции

  • Смесь экспертов, область компетентности алгоритма.
  • Выпуклые функции потерь. Методы построения смесей: последовательный и иерархический.
  • Построение смесей экспертов с помощью EM-алгоритма.
  • Нелинейная монотонная корректирующая операция. Случай классификации. Случай регрессии.

Оценивание и выбор моделей

Методы отбора признаков

Логические алгоритмы классификации

Решающие списки и деревья

Взвешенное голосование логических закономерностей

  • Принцип голосования. Проблема различности (диверсификации) закономерностей.
  • Методы синтеза конъюнктивных закономерностей. Псевдокод: алгоритм КОРА, алгоритм ТЭМП.
  • Алгоритм бустинга. Теорема сходимости.
  • Примеры прикладных задач: кредитный скоринг, прогнозирование ухода клиентов.

Алгоритмы вычисления оценок

Поиск ассоциативных правил

Файлы

Экзаменационные билеты

Практикум

Личные инструменты