Алгоритм обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (стилевые правки)
(уточнение)
 
(2 промежуточные версии не показаны)
Строка 1: Строка 1:
-
'''Алгоритм обучения''' (learning algorithm), синоним '''Метод обучения''' — в&nbsp;задачах [[обучение по прецедентам|обучения по прецедентам]] алгоритм&nbsp;<tex>\mu</tex>, который принимает на входе [[обучающая выборка|обучающую выборку]] данных&nbsp;<tex>D</tex>, строит и выдаёт на выходе функцию&nbsp;<tex>f</tex>, реализующую отображение из множества объектов&nbsp;<tex>X</tex> во множество ответов&nbsp;<tex>Y</tex>.
+
'''Алгоритм обучения''' (learning algorithm), синоним '''Метод обучения''' — в&nbsp;задачах [[обучение по прецедентам|обучения по прецедентам]] — [[алгоритм]]&nbsp;<tex>\mu</tex>, который принимает на входе [[обучающая выборка|обучающую выборку]] данных&nbsp;<tex>D</tex>, строит и выдаёт на выходе функцию&nbsp;<tex>f</tex> из заданной модели <tex>F</tex>, реализующую отображение из множества объектов&nbsp;<tex>X</tex> во множество ответов&nbsp;<tex>Y</tex>.
-
Построенная функция называется
+
Построенная функция <tex>f</tex> должна аппроксимировать (восстанавливать) зависимость ответов от объектов, в целом неизвестную, и заданную лишь в конечном числе точек — объектов обучающей выборки <tex>D=\bigl((x_1,y_1),\ldots,(x_m,y_m)\bigr)\in X^m</tex>.
 +
 
 +
Построенная функция <tex>f</tex> называется
классификатором (в&nbsp;задачах [[классификация|классификации]]) или
классификатором (в&nbsp;задачах [[классификация|классификации]]) или
функцией регрессии (в&nbsp;задачах [[регрессионный анализ|восстановления регрессии]]).
функцией регрессии (в&nbsp;задачах [[регрессионный анализ|восстановления регрессии]]).
В&nbsp;общем случае её называют по-разному:
В&nbsp;общем случае её называют по-разному:
алгоритмом (преимущественно в&nbsp;русскоязычных работах),
алгоритмом (преимущественно в&nbsp;русскоязычных работах),
-
''концептом'' (concept) или ''гипотезой'' (в&nbsp;некоторых зарубежных работах),
+
''концептом'' (concept) или ''гипотезой'' (hypothesis) в&nbsp;зарубежных работах,
реже — аппроксимирующей функцией или моделью.
реже — аппроксимирующей функцией или моделью.
На страницах Ресурса '''MachineLearning.RU''' предлагается придерживаться следующей терминологии:
На страницах Ресурса '''MachineLearning.RU''' предлагается придерживаться следующей терминологии:
-
* ''алгоритм обучения'' или ''метод обучения'' — отображение <tex>\mu:\: D\mapsto f</tex>;
+
* ''алгоритм обучения'' или ''метод обучения'' — отображение <tex>\mu:\: X^m\to F</tex>, которое произвольной [[обучающая выборка|выборке]] <tex>D=(x_1,\ldots,x_m)\in X^m</tex> длины <tex>m</tex> ставит в соответствие некоторую функцию <tex>f\in F</tex>;
* алгоритм, классификатор, функция регрессии — отображение <tex>f:\: X\to Y</tex>;
* алгоритм, классификатор, функция регрессии — отображение <tex>f:\: X\to Y</tex>;
-
* [[модель]] — семейство отображений&nbsp;<tex>F</tex>, из которого метод обучения&nbsp;<tex>\mu</tex> выбирает функцию&nbsp;<tex>f</tex>.
+
* [[семейство алгоритмов]] или [[модель зависимости]] — семейство функций&nbsp;<tex>F</tex>, из которого метод обучения&nbsp;<tex>\mu</tex> выбирает функцию&nbsp;<tex>f</tex>.
Для задач [[обучение с учителем|обучения с учителем]] каноническим примером ''метода обучения'' является
Для задач [[обучение с учителем|обучения с учителем]] каноническим примером ''метода обучения'' является
Строка 25: Строка 27:
* [[Обучение по прецедентам]]
* [[Обучение по прецедентам]]
* [http://www.ccas.ru/voron/teaching.html ''Воронцов К. В.'' Математические методы обучения по прецедентам]. Курс лекций. [[МФТИ]]. 2006
* [http://www.ccas.ru/voron/teaching.html ''Воронцов К. В.'' Математические методы обучения по прецедентам]. Курс лекций. [[МФТИ]]. 2006
 +
 +
[[Категория:Машинное обучение]]
 +
[[Категория:Энциклопедия анализа данных]]

Текущая версия

Алгоритм обучения (learning algorithm), синоним Метод обучения — в задачах обучения по прецедентамалгоритм \mu, который принимает на входе обучающую выборку данных D, строит и выдаёт на выходе функцию f из заданной модели F, реализующую отображение из множества объектов X во множество ответов Y.

Построенная функция f должна аппроксимировать (восстанавливать) зависимость ответов от объектов, в целом неизвестную, и заданную лишь в конечном числе точек — объектов обучающей выборки D=\bigl((x_1,y_1),\ldots,(x_m,y_m)\bigr)\in X^m.

Построенная функция f называется классификатором (в задачах классификации) или функцией регрессии (в задачах восстановления регрессии). В общем случае её называют по-разному: алгоритмом (преимущественно в русскоязычных работах), концептом (concept) или гипотезой (hypothesis) в зарубежных работах, реже — аппроксимирующей функцией или моделью.

На страницах Ресурса MachineLearning.RU предлагается придерживаться следующей терминологии:

  • алгоритм обучения или метод обучения — отображение \mu:\: X^m\to F, которое произвольной выборке D=(x_1,\ldots,x_m)\in X^m длины m ставит в соответствие некоторую функцию f\in F;
  • алгоритм, классификатор, функция регрессии — отображение f:\: X\to Y;
  • семейство алгоритмов или модель зависимости — семейство функций F, из которого метод обучения \mu выбирает функцию f.

Для задач обучения с учителем каноническим примером метода обучения является метод минимизации эмпирического риска. Он заключается в том, чтобы в заданной модели F найти функцию, минимизирующую величину средней ошибки на обучающей выборке, называемую также эмпирическим риском:

f = \mathrm{arg}\min_{f\in F} Q(f,D).

В типичных случаях метод обучения реализуется путём численной минимизации функционала Q.

Ссылки

Личные инструменты