Участник:Tolstikhin/TODO

Материал из MachineLearning.

Перейти к: навигация, поиск

Статьи к прочтению

  1. Convexity, Classification, and Risk Bounds - Peter Bartlett
  2. AdaBoost is Consistent - Peter bartlett

Concentration Inequalities

  1. Концентрация меры, неравенство Талаграна.
    Текст, в котором я попытался наглядно продемонстрировать применение метода Талаграна (неравенства Талаграна) для изучения концентрации случайных величин вокруг их медиан. В качестве примера приводится задача о длине максимальной возрастающей подпоследовательности случайной последовательности. В заключение приводится оценка для функционала равномерного отклонения частот, полученная с помощью метода Талаграна.
    Полученная в последнем разделе текста оценка весьма завышена. Более аккуратный подход даёт следующее неравенство: Z(X\cup \bar{X})\leq c + \frac{L}{\ell k}f_c\bigl(S(c),X\cup\bar{X})\sqrt{n(\mu X, \mathbb{X})}.
  2. Энтропийный подход Ledoux.
    Скоро появится обзорный текст по примеру текста выше.

Rademacher Complexity

  1. Оценка равномерного по классу алгоритмов отклонения частот с помощью Радемахеровского среднего.
    В тексте представлен способ оценивать равномерное по классу алгоритмов A отклонение частот с помощью Радемахеровского среднего (Rademacher avarage) класса A в слабой вероятностной аксиоматике. В тексте рассмотрен случай равных по объему обучающих и контрольных выборок (\ell=k).
  2. Неравенство для математического ожидания равномерного отклонения и радемахеровского среднего.
    В тексте представлено утверждение, связывающее в слабой вероятностной аксиоматике математическое ожидание равномерного по классу алгоритмов А отклонения частот от вероятностей с Радемахеровским средним. Случай \ell\neq k.
Личные инструменты