Математические основы теории прогнозирования (курс лекций)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (- объявление о показе работ)
(Презентации к лекциям)
Строка 72: Строка 72:
|-
|-
| align="center"|7 || [[Media:MOTP12_7.pdf|Презентация (PDF, 493Кб)]]
| align="center"|7 || [[Media:MOTP12_7.pdf|Презентация (PDF, 493Кб)]]
 +
|-
 +
| align="center"|8 || [[Media:MOTP12_8.pdf|Презентация (PDF, 493Кб)]]
|-
|-
|}
|}

Версия 09:39, 5 мая 2012


   Курс посвящен изучению современных методов диагностики и прогнозирования, основанных на машинном обучении, а также современных методов интеллектуального анализа данных. Даётся обзор современных методов распознавания, включая статистические, нейросетевые, комбинаторно-логические, алгебраические модели, модель опорных векторов. Рассматривается основная проблематика методов машинного обучения, включая эффект переобучения. Изучаются вопросы оценки точности классифицирующих правил или прогностических функций. Рассматривается метод ROC анализа. Изучаются методы интеллектуального анализа данных, включая методы кластерного анализа, многомерного шкалирования, а также метод главных компонент. Рассматриваются математические модели анализа надёжности.

Лектор: д.ф.-м.н. Сенько Олег Валентинович

Контрольная работа

В программе курса предусмотрена письменная контрольная работа. Успешное написание контрольной работы является обязательным условием допуска к экзамену по курсу. При отсутствии допуска студент пишет контрольную работу на экзамене и в случае успеха сдает экзамен на первой пересдаче.

При написании контрольной работы разрешается пользоваться любыми бумажными материалами, а также калькуляторами. Использование электронных устройств (кроме калькуляторов) запрещено.

Тестовый вариант (PDF, 21Кб)

Список студентов, допущенных к экзамену по результатам контрольной работы (с учетом переписывания)

В фамилиях и номерах групп возможны неточности, т.к. почерк не всегда легко разобрать.

Группа 420 Группа 421 Группа 422 Группа 424 Группа 425 Группа 427 Группа 428
Костин Новикова Пискун Алейников Свиридов Шубин Тарасевич
Кисляков Новоторцев Глонина Леонова Самохина Фролов Асташкин
Калужин Акимов Самойлов Ветров Попеско Луговской Мордань
Александрычева Шальнов Самосадный Светлов Переходько Петушкова Гомзин
Банников Карпухин Калистратова Рогова Пузиков Ющенко Синева
Исламгулов Меркулов Артемов Костарев Второв Киров Ефимов
Романенков Батанов Шилов Мошкина Степанов Федоренко Устинова
Куркин Ерофеев Плотников Парамонов Шариков Акциперов Терзи
Челнокова Птенцов Бабак Копин Пустовалов Агаев
Гурьянов Булгаков Вайсман Гладкова Бадретдинов
Зачесов Ермишкин Пояркова Сепевенко Ушаков
Сапатов Лоза Коцыняк Шуберт
Пироженко Нечаев Лукин
Сумин Ростовский Федотов
Самсонов Голушко
Конев Фионов

Презентации к лекциям

Лекция Материалы
1 Презентация (PDF, 364Кб)
2 Презентация (PDF, 302Кб)
3 Презентация (PDF, 204Кб)
4 Презентация (PDF, 267Кб)
5 Презентация (PDF, 493Кб)
6 Презентация (PDF, 493Кб)
7 Презентация (PDF, 493Кб)
8 Презентация (PDF, 493Кб)

Программа курса

Различные постановки задач машинного обучения

Постановка задач машинного обучения. Задачи распознавания и прогнозирования числовых переменных по признаковым описаниям. Настройка алгоритмов по выборкам прецедентов. Обучающая выборка. Обобщающая способность. Области использования методов машинного обучения.

Байесовские классификаторы

Верхние пределы точности. Оптимальные прогностические решения и классифицирующие правила. Байесовские классификаторы.

Методы оценки обобщающей способности алгоритмов

Кросс-проверка, скользящий контроль. Проблема переобучения.

Теоретические оценки обобщающей способности

Теория Вапника-Червоненкиса. Трёхкомпонентное разложение обобщённой ошибки.

ROC анализ

Структура распознающего алгоритма. Распознающий оператор и решающее правило. Кривые ROC анализа.

Методы распознавания, используемые в традиционном статистическом анализе

Методы, основанные на теореме Байеса. Восстановление плотностей вероятности: параметрические методы, ядерные методы. Линейный дискриминант Фишера. Метод ближайших соседей.

Множественная линейная регрессия

Оптимизация с помощью метода наименьших квадратов. Свойства оптимальных линейных регрессий.

Методы, основанные на принципе разделения

Линейная машина.

Метод опорных векторов

Линейный классификатор. Гиперплоскость, максимизирующая зазор между классами. Обучение классификатора как задача квадратичного программирования. Получение двойственной задачи для задачи квадратичного программирования. Ядровой переход. Опорные объекты. Настройка параметров метода.

Уменьшение размерности описания данных. Метод главных компонент

Проблема анализа многомерных данных. Метод главных компонент. Выбор размерности редуцированного пространства.

Литература

  1. Журавлев Ю.И., Рязанов В.В., Сенько О.В. Распознавание. Математические методы. Программная система. Практические применения, М.: Фазис, 2006. (ISBN 5-7036-0108-8)
  2. Ветров Д.П., Кропотов Д.А. Байесовские методы машинного обучения, учебное пособие по спецкурсу, 2007 (Часть 1, PDF 1.22МБ; Часть 2, PDF 1.58МБ)
  3. Bishop C.M. Pattern Recognition and Machine Learning. Springer, 2006.

Страницы курса прошлых лет

2011 год

Ссылки

Машинное обучение (курс лекций, К.В. Воронцов)

Байесовские методы машинного обучения (спецкурс, Д.П. Ветров, Д.А. Кропотов, А.А. Осокин)

Форум студентов ВМиК с обсуждением курса

Математические методы прогнозирования (кафедра ВМиК МГУ)