Обучение с подкреплением (курс лекций) / 2022

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск

Cydoroga (Обсуждение | вклад)
(Новая: 250px В отличие от классического машинного обучения, в обучении с подкреплени...)
К следующему изменению →

Версия 12:28, 16 сентября 2022

В отличие от классического машинного обучения, в обучении с подкреплением алгоритму на вход не поступает обучающая выборка. Вместо этого, обучение проводится "методом проб и ошибок": агент должен сам собрать данные в ходе взаимодействия с окружающим миром (средой) и на основе собранного опыта научиться максимизировать получаемый отклик - подкрепление, или награду. Курс направлен на изучение алгоритмов последних лет, показывающих state-of-the-art результаты во многих задачах дискретного и непрерывного управления за счёт совмещения классической теории с парадигмой глубинного обучения.

Читается в 3-м семестре для магистров каф. ММП.

Преподаватели: Кропотов Дмитрий, Темирчев Павел, Илья Синильщиков, Алексей Медведев

Расписание:

  • лекции: по пятницам в 14-35, ауд. 729
  • семинары: по пятницам в 16:20, ауд. 729

Канал в Telegram: ссылка

По курсу предусмотрен экзамен, дата и время будут анонсированы позже.

Содержание

Критерии оценки

В курсе предусмотрено шесть лабораторных работ в формате ноутбуков и устный экзамен. Итоговая оценка по курсу в 10-балльной шкале рассчитывается по формуле:

Итоговая оценка = Округл.вверх (0.3 * Экз + 0.7 * Лаб)

Оценке 5 в пятибалльной шкале соответствует оценка 8 и выше, оценке 4 - оценка [6, 8), оценке 3 - промежуток [4, 6). Помимо баллов необходимо также выполнить следующие условия:

Итог Необходимые условия
5 сдано не менее 5 заданий, оценка за экзамен >= 6
4 сдано не менее 4 заданий, оценка за экзамен >= 4
3 сдано не менее 3 заданий, оценка за экзамен >= 4

Домашние задания

Максимальный балл за лабораторные - 100 баллов; итоговая оценка за лабораторные получается делением на десять. За некоторые задания можно будет получить бонусные баллы, о чем будет объявляться при выдаче задания.

Сдавать лабораторные можно в течение недели после мягкого дедлайна (работы сданные в этот период облагаются штрафом: см. таблицу ниже). Лабораторные, сданные позже недели после мягкого дедлайна, не приносят баллов, но учитываются в необходимых условиях для конкретной оценки (см. выше).

Лабораторная Ориентировочная дата выдачи
(может быть изменена!)
Срок Баллы Штраф
за день опоздания
CEM 16 сентября 1 неделя 10 -0.3
Dyn. prog. 23 сентября 1 неделя 10 -0.3
DQN 7 октября 2 недели 20 -0.6
A2C 28 октября 2 недели 20 -0.6
PPO 18 ноября 2 недели 20 -0.6
MCTS 9 декабря 2 недели 20 -0.6

Экзамен

Экзамен состоится очно, дата проведения будет объявлена позже. На экзамене все студенты берут случайный билет. В течение часа студент самостоятельно пишет ответ на экзаменационный вопрос, при этом можно пользоваться любыми материалами. Далее студент устно отвечает билет экзаменатору и обсуждаются различные вопросы по курсу уже без использования материалов. Для положительной оценки за экзамен необходимо также справиться с вопросами из теоретического минимума.

Здесь будет список вопросов к экзамену

Расписание занятий

Занятие Материалы Дополнительные материалы
Лекция

16 сентября

Введение в курс. Кросс-энтропийный метод (CEM).
Семинар

16 сентября

Библиотека OpenAI gym. Реализация табличного кросс-энтропийного метода.
Лекция

23 сентября

Динамическое программирование. Value Iteration, Policy Iteration.
Семинар

23 сентября

Динамическое программирование. Value Iteration, Policy Iteration.
Лекция

30 сентября

Табличные методы. TD-обучение.
Семинар

30 сентября

Табличное Q-обучение.
Лекция

7 октября

Deep Q-Network (DQN) и его модификации.
Семирнар

7 октября

Модификации DQN.
Лекция

14 октября

Distributional RL. Quantile Regression DQN (QR-DQN).
Семинар

14 октября

Distributional RL - продолжение.
Лекция

21 октября

Многорукие бандиты.
Семинар

21 октября

Внутренняя мотивация для исследования среды.
Лекция

28 октября

Policy gradient подход. Advantage Actor-Critic (A2C).
Семинар

28 октября

REINFORCE.
Лекция

11 ноября

Trust-Region Policy Optimization (TRPO).
Лекция

18 ноября

Proximal Policy Optimization (PPO).
Семинар

18 ноября

Generalized Advantage Estimation (GAE).
Лекция

25 ноября

Непрерывное управление.
Семинар

25 ноября

Soft Actor Critic. Управление, как вероятностный вывод.
Лекция

2 декабря

Имитационное обучение.
Семинар

2 декабря

Обратное обучение с подкреплением.
Лекция

9 декабря

Monte Carlo Tree Search.
Семинар

9 декабря

AlphaZero, MuZero.
Лекция

16 декабря

Linear Quadratic Regulator (LQR). Model-based RL.
Семинар

16 декабря

Dreamer

Страницы курса прошлых лет

2020й год
2021й год

Материалы

Личные инструменты