Обсуждение участника:Peter Romov

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (Adding welcome message to new user's talk page)
(Цена отказа от классификации)
 
(6 промежуточных версий не показаны.)
Строка 1: Строка 1:
{{MediaWiki:NewUserMessage|Peter Romov}}
{{MediaWiki:NewUserMessage|Peter Romov}}
 +
 +
== Цена отказа от классификации ==
 +
 +
Средняя цена ответа (риск) s в то время когда правильный y: <tex>R(s) = \sum_y \lambda_{ys} P(y|x) =\sum_y \lambda_{ys} \frac{P_y p_y(x)}{p(x)} = \sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}</tex>. Риск мы хотим минимизировать. Если его минимизировать по всем <tex>s \in \mathcal{Y}</tex>, то получится знакомая формула: <tex>a(x) = \arg \min_{s \in \mathcal{Y}} \sum_y \lambda_{ys} P_y p_y(x)</tex>. Сумма в знаменателе (значение <tex>p(x)</tex>) является константой по s и на нее можно забить при минимизации.
 +
 +
А теперь представьте что помимо выбора элемента <tex>s \in \mathcal{Y}</tex> у нас имеется возможность отказаться от классификации, заплатив <tex>\lambda_{\text{rej}}</tex>, будем говорить что при этом <tex>s = 0</tex>. Если правильный ответ распределен <tex>P(y|x)</tex>, а мы решили отказаться от классификации, сколько в среднем заплатим? Матожидание константы, т.е. средний риск отказа <tex>R(0) = \lambda{\text{rej}}</tex>.
 +
 +
Минимизируем риск с учетом возможности отказа:
 +
<tex>a(x) = \arg\min_{s \in \mathcal{Y} \cup \{0\}} R(s) = \arg \min\left(\lambda_{\text{rej}} (s=0), \{\sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}\}_{s\in\mathcal{Y}} \right) = \arg\min_s\left(\lambda_{\text{rej}} \sum_{y} P_{y}p_{y}(x) (s=0), \{\sum_y \lambda_{ys} P_y p_y(x)\}_{s\in\mathcal{Y}} \right)</tex>.
 +
 +
Если же принять соглашения, что <tex>\lambda_{yy} = 0,\, \lambda_{ys} = \lambda_y (y \neq s),\, \lambda_0 = \lambda_{\text{rej}}</tex>, то немного причесав все это можно получить
 +
<tex>a(x) = \arg \max_s \left( \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) (s=0), \{\lambda_sP_sp_s(x)\}_{s\in\mathcal{Y}} \right)</tex> --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим <tex>s^\ast = \arg\max_{s \in \mathcal{Y}}\lambda_sP_sp_s(x)</tex>, если вдруг <tex>\lambda_{s^\ast}P_{s^\ast}p_{s^\ast}(x) < \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x)</tex> то решаем отказаться от классификации.
 +
 +
Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов <tex>R(a)</tex>. За правильность рассуждений и отсутствие косяков не ручаюсь.

Текущая версия

Peter Romov, поздравляем с успешной регистрацией на MachineLearning.ru

Перед началом работы рекомендуем ознакомиться с двумя основными документами:

  • Концепция Ресурса — короткий документ, в котором объясняется, чем наш Ресурс отличается от Википедии, как его можно использовать для совместной научной и учебной работы, и каким он должен стать в перспективе;
  • Инструктаж — длинный документ, в котором мы постарались собрать все сведения, необходимые для работы с Ресурсом, включая правила вики-разметки и сведения об основных категориях Ресурса.

Ссылки на эти и другие справочные материалы собраны на странице Справка.

В нашем сообществе принято представляться. Поэтому, прежде чем приступить к созданию или редактированию страниц, заполните, пожалуйста, свою страницу участника. Сделать это очень просто — достаточно кликнуть на Ваше имя Участника (оно показывается в самой верхней строке на любой странице Ресурса). Желательно, чтобы кроме обычных формальностей (фамилии, имени, отчества, места работы или учёбы, степени, звания, и т.д.) Вы указали свои научные интересы. Удобнее всего сделать это в виде списка ссылок на интересные Вам статьи или категории нашего Ресурса. Не беда, если некоторые из них окажутся «красными ссылками» — это означает, что таких статей пока нет, и у Вас есть шанс их написать. Кстати, вики-движок собирает все «красные ссылки» в список требуемых статей — в него тоже стоит заглянуть. Для создания новой статьи достаточно кликнуть по «красной ссылке» или набрать её название в строке поиска.

По любым вопросам, связанным с работой нашего Ресурса, обращайтесь к Администраторам (см. список администраторов).

С уважением,
ваш M.L.Ru

Цена отказа от классификации

Средняя цена ответа (риск) s в то время когда правильный y: R(s) = \sum_y \lambda_{ys} P(y|x) =\sum_y \lambda_{ys} \frac{P_y p_y(x)}{p(x)} = \sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}. Риск мы хотим минимизировать. Если его минимизировать по всем s \in \mathcal{Y}, то получится знакомая формула: a(x) = \arg \min_{s \in \mathcal{Y}} \sum_y \lambda_{ys} P_y p_y(x). Сумма в знаменателе (значение p(x)) является константой по s и на нее можно забить при минимизации.

А теперь представьте что помимо выбора элемента s \in \mathcal{Y} у нас имеется возможность отказаться от классификации, заплатив \lambda_{\text{rej}}, будем говорить что при этом s = 0. Если правильный ответ распределен P(y|x), а мы решили отказаться от классификации, сколько в среднем заплатим? Матожидание константы, т.е. средний риск отказа R(0) = \lambda{\text{rej}}.

Минимизируем риск с учетом возможности отказа: a(x) = \arg\min_{s \in \mathcal{Y} \cup \{0\}} R(s) = \arg \min\left(\lambda_{\text{rej}} (s=0), \{\sum_y \lambda_{ys} \frac{P_y p_y(x)}{\sum_{\tilde y} P_{\tilde y}p_{\tilde y}(x)}\}_{s\in\mathcal{Y}} \right) = \arg\min_s\left(\lambda_{\text{rej}} \sum_{y} P_{y}p_{y}(x) (s=0), \{\sum_y \lambda_{ys} P_y p_y(x)\}_{s\in\mathcal{Y}} \right).

Если же принять соглашения, что \lambda_{yy} = 0,\, \lambda_{ys} = \lambda_y (y \neq s),\, \lambda_0 = \lambda_{\text{rej}}, то немного причесав все это можно получить a(x) = \arg \max_s \left( \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) (s=0), \{\lambda_sP_sp_s(x)\}_{s\in\mathcal{Y}} \right) --- классификатор, получающийся в результате минимизации вышевведенного риска. То есть, находим s^\ast = \arg\max_{s \in \mathcal{Y}}\lambda_sP_sp_s(x), если вдруг \lambda_{s^\ast}P_{s^\ast}p_{s^\ast}(x) < \sum_y (\lambda_y-\lambda_{\text{rej}})P_y p_y(x) то решаем отказаться от классификации.

Думаю то же самое можно получить, введя функционал среднего риска на множестве классификаторов R(a). За правильность рассуждений и отсутствие косяков не ручаюсь.

Личные инструменты