Обучение с подкреплением

Материал из MachineLearning.

Перейти к: навигация, поиск

Содержание

Обучение с подкреплением, идея которого была почерпнута в смежной области психологии, является подразделом машинного обучения, изучающим, как агент должен действовать в окружении, чтобы максимизировать некоторый долговременный выигрыш. Алгоритмы с частичным обучением пытаются найти стратегию, приписывающую состояниям окружающей среды действия, которые должен предпринять агент в этих состояниях. В экономике и теории игр обчение с подкреплением рассматривается в качестве интерпретации того, как может установиться равновесие.

Окружение обычно формулируется как марковский процесс принятия решений (МППР) с конечным множеством состояний, и в этом смысле алгоритмы обучения с подкреплением тесно связаны с динамическим программированием. Вероятнности выигрышей и перехода состояний в МППР обычно являются величинами случайными, но стационарными в рамках задачи.

При обучении с подкреплением, в отличии от обучения с учителем,не предоставляются верные пары „входные данные-ответ“, а принятие субоптимальнх решений (дающих локальный экстремум) не ограничивается явно. Обучение с подкреплением пытается найти компромис между исследованием неизученных областей и применением имеющихся знаний. Баланс изучения-применения при обучении с подкреплением исследовался в задаче многорукого бандита.

Формально простейшая модель обучения с подкреплением состоит из:

  1. множества состояний окружения S;
  2. множества действий A;
  3. множества вещественнозначных скалярных „выигрышей“.

В произвольный момент времени t агент характеризуется состоянием s_t \in S и множеством возможных действий A(s_t). Выбирая действие a \in A(s_t), он переходит в состояние s_{t+1} и получает выигрыш r_{t+1}. Основываясь на таком взаимодействии с окружающей средой, агент, обучающийся с подкреплением, должен выработать стратегию \pi: S \to A, которая максимизирует величину R=r_0+r_1+\cdots+r_n в случае МППР, имеющей терминальное состояние, или величину

R=\sum_t \gamma^t r_t

для МППР без терминальных состояний (где 0 \leq \gamma \leq 1 —- дисконтирующий множитель для „предстоящего выигрыша“).

Таким образом, обучение с подкреплением особенно хорошо подходит для решения задач, связанных с выбором между долгосрочной и краткосрочной выгодой. Оно успешно применялось в различных задчах, таких как робототехника, упраление лифтами, телекоммуникации,шашки и нарды (Sutton 1998, Глава 11).

Алгоритмы

Статья в настоящий момент дорабатывается.
Дорофеев Н.Ю. 12:31, 5 ноября 2008 (MSK)


Личные инструменты