Публикация:Вапник 1979 Восстановление зависимостей

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м
м
 
(6 промежуточных версий не показаны.)
Строка 1: Строка 1:
-
{{msg:Монография
+
<includeonly>{{Монография|PageName = П:Вапник 1979 Восстановление зависимостей
|автор = Вапник В. Н.
|автор = Вапник В. Н.
|название = Восстановление зависимостей по эмпирическим данным
|название = Восстановление зависимостей по эмпирическим данным
|издатель = М.:&nbsp;Наука
|издатель = М.:&nbsp;Наука
|год = 1979
|год = 1979
-
|BibtexKey = vapnik79vosstanovlenie
+
|страниц = 448
-
|PageName = Публикация:Вапник 1979 Восстановление зависимостей <!-- {{subst:FULLPAGENAME}} -->
+
}}</includeonly><noinclude>{{Монография|BibtexKey = vapnik79vosstanovlenie
-
}}<noinclude>
+
|автор = Вапник, В. Н.
 +
|название = Восстановление зависимостей по эмпирическим данным
 +
|издатель = М.:&nbsp;Наука
 +
|год = 1979
 +
|страниц = 448
 +
}}
== Аннотация ==
== Аннотация ==
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]].
Основополагающая монография по статистической [[Теория Вапника-Червоненкиса|теории восстановления зависимостей]].
-
Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов. Вводятся понятия функции роста, энтропии и ёмкости системы событий.
+
Рассматриваются задачи [[классификация|классификации]], [[регрессионный анализ|восстановления регрессии]] и интерпретации результатов косвенных экспериментов.
-
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска.
+
 
-
Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки.
+
Вводятся понятия [[функция роста|функции роста]], [[энтропия|энтропии]] и [[размерность Вапника-Червоненкиса|ёмкости]] системы событий.
 +
Доказывается, что ёмкость семейства [[Линейный классификатор|линейных решающих правил]] равна числу свободных параметров.
 +
 
 +
Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод [[Минимизация эмпирического риска|минимизации эмпирического риска]].
 +
Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины [[обучающая выборка|обучающей выборки]].
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
{{S|В доказательствах}} используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.
 +
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.
-
Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.
+
 
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности.
Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности.
-
Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
+
Новый метод, в отличие от ранее предложенного метода [[Структурная минимизация риска|структурной минимизации риска]], оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.
-
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.
+
 
 +
Описывается ряд алгоритмов распознавания образов, восстановления регрессии, [[Селекция выборки|селекции выборки]].
== Ссылки ==
== Ссылки ==
-
[[Категория: Теория вычислительного обучения (публикации)]]
+
* [http://www.clrc.rhul.ac.uk/people/vlad В. Н. Вапник] — домашняя страница
 +
* [http://www.clrc.rhul.ac.uk/people/chervonenkis А. Я. Червоненкис] — домашняя страница
 +
* [http://www.ipu.ru/s_001/s_001_003_009_00000000000.htm Выдающиеся ученые ИПУ РАН] страница на сайте Института проблем управления РАН
 +
 
 +
== Литература ==
 +
# {{П:Вапник 74}}
 +
 
 +
[[Категория: Теория вычислительного обучения (публикации)|Вапник]]
</noinclude>
</noinclude>

Текущая версия

Вапник, В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.

BibTeX:
 @book{vapnik79vosstanovlenie,
   author = "Вапник, В. Н.",
   title = "Восстановление зависимостей по эмпирическим данным",
   publisher = "М.: Наука",
   year = "1979",
   numpages = "448",
   language = russian
 }

Аннотация

Основополагающая монография по статистической теории восстановления зависимостей. Рассматриваются задачи классификации, восстановления регрессии и интерпретации результатов косвенных экспериментов.

Вводятся понятия функции роста, энтропии и ёмкости системы событий. Доказывается, что ёмкость семейства линейных решающих правил равна числу свободных параметров.

Выводятся оценки скорости равномерной сходимости частоты ошибок к их вероятности, позволяющие обосновать метод минимизации эмпирического риска. Эти оценки нетривиальны только в том случае, когда ёмкость семейства алгоритмов много меньше длины обучающей выборки. В доказательствах используется комбинаторная техника, основанная на оценивании разности частот в двух подвыборках одинаковой длины.

Выводятся необходимые и достаточные условия равномерной сходимости частот появления событий к их вероятностям; доказывается, что частота сходится к вероятности равномерно по системе событий тогда и только тогда, когда доля энтропии, приходящейся на один элемент выборки, стремится к нулю с ростом длины выборки.

Предлагается метод упорядоченной минимизации суммарного риска, предназначенный для выбора модели алгоритмов оптимальной сложности. Новый метод, в отличие от ранее предложенного метода структурной минимизации риска, оценивает качество восстановления зависимости в конечном множестве точек, а не на всем пространстве, поэтому обладает более высокой точностью.

Описывается ряд алгоритмов распознавания образов, восстановления регрессии, селекции выборки.

Ссылки

Литература

  1. Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. — М.: Наука, 1974. — 416 с.  (подробнее)