Математические основы теории прогнозирования (курс лекций)

Материал из MachineLearning.

Перейти к: навигация, поиск
Внимание! Консультация перед экзаменом по части Журавлева Ю.И. состоится 26 мая (четверг) в ауд. П-5, начало в 10-30. Вопросы по части Ветрова Д.П. просьба оставлять на вкладке «Обсуждение» к этой странице.



Курс посвящен основным математическим методам решения задач машинного обучения (распознавания, классификации, прогнозирования, анализа данных). Эти методы широко используются при решении задач из разных прикладных областей (экономика, финансы, медицина, бизнес, геология, химия и др.), например, прогноз результатов лечения, предсказание свойств химических соединений, распознавание речи, анализ поведения, диагностика состояния оборудования, прогноз урожайности и т.д. Задачей курса также является ознакомление с основными математическими теориями, которые используются при построении алгоритмов распознавания, такими как алгебра, математическая статистика, методы оптимизации, дискретная математика и др.

Контрольная работа

Для получения допуска к экзамену необходимо успешно написать контрольную работу. Оценка за контрольную работу будет учитываться на экзамене.

Примерный вариант задания на контрольной (PDF)

Комментарии по результатам первой контрольной работы (PDF)

Список студентов, допущенных к экзамену по результатам двух попыток написаний контрольной работы

В фамилиях и номерах групп возможны неточности, т.к. почерк не всегда легко разобрать.

Группа 420 Группа 421 Группа 422 Группа 424 Группа 425 Группа 427 Группа 428 СФ
Степанец А. Чернышов Ю. Плакунов А. Крутов В. Капитанова В. Касимова А. Гисков Г. Сребняк
Исламгулов И. Гончаров А. Беликов Кривобородов Е. Джумаев С. Борзилов Спихальский Д.
Бикинеев А. Жданов В. Носеевич Г. Куликов В. Лисицкий В. Бакулин М. Черникова Т.
Бакмеев А. Еремина О. Вдовин П. Творогов Бурцев М. Кадысев М. Мандрыкин М.
Федорова А. Ермишин Касьяненко Ульянов А. Родионов А. Варманов С. Карпулевич Е.
Станченко Зипа Зотов И. Иванкова Джигайло П. Фомичев Н. Рязанцев Д.
Лихогруд Лебедев Субботин Н. Кудасов Боловинцева Зуев А. Куприн И.
Веселый Пестун М. Зайцев Родимова П. Рощупкин А. Майков А. Щербамкин Е.
Бурдаков Д. Афанасьев В. Гребенкина Медведев А. Мытрова М. Лагута А. Рябов С.
Новиков К. Русланова А. Лопухина Клычков Д. Жаров С. Бочкарев П. Пироженко А.
Смоляров И. Сахаров А. Мартьянов Кондратова Власенко А. Коваленко А. Крылов В.
Никеров А. Клименко Щербинина А. Струнов Волков Платонов В. Сергеев Н.
Васильев А. Раздобаров Перту Л. Баранов Л.
Воробьев Д. Снегирев Л. Кошелев В. Суханова
Сильвестров А. Ермаков Камаев
Киселев Щербина Сиващенко
Меркулов Д. Утехин
Аноховский С. Стариков
Пантелеев И. Бартунов С.
Терещенко В. Буздалов
Рязанов В.
Павлович

Следующие студенты не допущены к экзамену:

Мяков, 421
Корольков С., 422
Селезнев В., 428
Маргасюк А., 421
Толалуев, 428
Нетребко Станислав, 424
Тупицин Николай, 425
Швец Павел, 420

Эти студенты должны будут написать контрольную работу на экзамене (вне зависимости от допуска к экзаменационной сессии). Непосредственно сам экзамен для этих студентов начнется на первой пересдаче.

Все студенты, которых нет в двух списках выше, должны связаться с Д.П. Ветровым.

Экзамен

К экзамену допускаются только те студенты, которые успешно справились с контрольной работой. На экзамене при подготовке билета разрешается пользоваться любыми материалами. При ответе ничем пользоваться нельзя.

Студенты, которые пишут контрольную, должны прийти на экзамен 28 мая к 9-00 (вне зависимости от номера группы). При написании контрольной можно пользоваться только бумажными источниками!

Вопросы к экзамену (PDF, 145Кб)

Программа курса

ЧАСТЬ 1 (лектор Д.П. Ветров)

Различные постановки задач машинного обучения

Обзор задач анализа данных: классификация, регрессия, кластеризация, идентификация, прогнозирование. Примеры. Историческая справка. Основные проблемы теории распознавания образов: переобучение, противоречивость информации, малый объем выборки. Иллюстративные примеры переобучения, связь переобучения и объема выборки.

Ликбез: основные понятия теории вероятностей (математическое ожидание, дисперсия, ковариационная матрица, плотность вероятности, функция правдоподобия)

Презентация (PDF, 229 КБ)

Методы линейной и логистической регрессии. Регуляризация обучения.

Метод максимального правдоподобия. Формальные обозначения, генеральная совокупность, критерии качества обучения как точности на генеральной совокупности. Вывод выражения для идеальных решающих правил. Способы введения функции правдоподобия для задачи регрессии и классификации. Выражение для коэффициентов линейной регрессии, хэт-матрица. Метод наименьших квадратов с итеративно-перевзвешивающимися весами. Необходимость ридж-оценивания для устранения вырожденности гессиана.

Ликбез: нормальное распределение, псевдообращение матриц и нормальное псевдорешение.

Презентация (PDF, 593 КБ)

Метод опорных векторов

Линейный классификатор. Гиперплоскость, максимизирующая зазор между классами. Обучение классификатора как задача квадратичного программирования. Получение двойственной задачи для задачи квадратичного программирования. Ядровой переход. Опорные объекты. Настройка параметров метода.

Ликбез: решение задач условной оптимизации, правило множителей Лагранжа, переход к двойственной задаче.

Презентация (PDF, 393 Кб)

Конспект лекции из другого курса (PDF, 204 Кб)

Скрытые марковские модели (СММ). Алгоритм сегментации сигнала.

Примеры задач сегментации сигналов. Обучение СММ с учителем. Поиск наиболее вероятной последовательности состояний. ЕМ-алгоритм и его использование для решения задачи кластеризации.

Ликбез: динамическое программирование

Презентация (PDF, 723 Кб)

Уменьшение размерности описания данных. Метод главных компонент

Проблема анализа многомерных данных. Метод главных компонент. Выбор размерности редуцированного пространства. Эффективные формулы метода главных компонент для случая, когда число объектов меньше числа признаков. Ядровая версия метода главных компонент.

Конспект лекции (PDF, 881Кб)

ЧАСТЬ 2 (лектор Ю.И. Журавлев)

Стандартная задача распознавания. Алгоритм «Кора».

Тестовый алгоритм. Система уравнений, определяющих тупиковые тесты. Таблица обучения с двумя классами объектов. Основные упрощающие формулы при умножении левых частей тестовых уравнений.

Обоснование способа построения всех тупиковых тестов через приведение системы тестовых уравнений к неупрощаемой ДНФ.

Алгоритм вычисления оценок (АВО). Шаги определения, полный перечень параметров. Итоговая формула для числа голосов.

Эффективные формулы вычисления оценок в АВО.

Представление алгоритма как композиции распознающего оператора и фиксированного решающего правила. Алгебры над алгоритмами. Отмеченные точки в контрольной матрице. Построение корректного алгоритма, если найдена совокупность операторов, отмечающих все единичные точки информационных векторов контрольной матрицы.

Конспекты лекций 2008 года (PDF, 402Кб)

Литература

  1. Журавлёв Ю.И. Избранные научные труды. – М.: «Магистр», 1998.– 420с.
  2. Журавлев Ю.И., Рязанов В.В., Сенько О.В. Распознавание. Математические методы. Программная система. Практические применения, М.: Фазис, 2006. (ISBN 5-7036-0108-8)
  3. Дьяконов А.Г. Алгебра над алгоритмами вычисления оценок: Учебное пособие. – М.: Издательский отдел ф-та ВМиК МГУ им. М.В. Ломоносова, 2006. – 72с. (ISBN 5-89407-252-2)
  4. Ветров Д.П., Кропотов Д.А. Байесовские методы машинного обучения, учебное пособие по спецкурсу, 2007 (Часть 1, PDF 1.22МБ; Часть 2, PDF 1.58МБ)
  5. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.

Ссылки

Машинное обучение (курс лекций, К.В. Воронцов)

Алгоритмы, модели, алгебры (курс лекций, Ю.И. Журавлев, А.Г. Дьяконов)

Байесовские методы машинного обучения (спецкурс, Д.П. Ветров, Д.А. Кропотов, А.А. Осокин)

Структурные методы анализа изображений и сигналов (спецкурс, Д.П. Ветров, Д.А. Кропотов, А.А. Осокин)

Форум студентов ВМиК с обсуждением курса

Информация о курсе на викиресурсе Esyr

Математические методы прогнозирования (кафедра ВМиК МГУ)

Личные инструменты