Участник:Ruzik/Песочница
Материал из MachineLearning.
(Различия между версиями)
												
			
			| Строка 7: | Строка 7: | ||
<tex>x^j \, {:=} \, \frac{x^j \, - \, x_{\min}^j}{x_{\max}^j \, - \, x_{\min}^j}</tex> <br />  | <tex>x^j \, {:=} \, \frac{x^j \, - \, x_{\min}^j}{x_{\max}^j \, - \, x_{\min}^j}</tex> <br />  | ||
==Метод стохастического градиента (Stochastic Gradient)==  | ==Метод стохастического градиента (Stochastic Gradient)==  | ||
| - | ''Градиентные методы''   | + | ''Градиентные методы'' - это широкий класс оптимизационных алгоритмов, используемых не только в машинном обучении.  | 
Здесь градиентный подход будет рассмотрен в качестве способа подбора вектора синаптических весов w в линейном классификаторе (ссылка).  | Здесь градиентный подход будет рассмотрен в качестве способа подбора вектора синаптических весов w в линейном классификаторе (ссылка).  | ||
Пусть <tex>y^*: \: X \to Y</tex> - целевая зависимость, известная только на объектах обучающей выборки:  | Пусть <tex>y^*: \: X \to Y</tex> - целевая зависимость, известная только на объектах обучающей выборки:  | ||
<tex>X^l \, = \, (x_i,y_i)_{i=1}^l, \; y_i \, = \, y^*(x_i)</tex>.  | <tex>X^l \, = \, (x_i,y_i)_{i=1}^l, \; y_i \, = \, y^*(x_i)</tex>.  | ||
Найдём алгоритм <tex>a(x, w)</tex>, аппроксимирующий зависимость <tex>y^*</tex>.  | Найдём алгоритм <tex>a(x, w)</tex>, аппроксимирующий зависимость <tex>y^*</tex>.  | ||
Версия 10:13, 3 января 2010
 
 
 
 
 
 
 
Метод стохастического градиента (Stochastic Gradient)
Градиентные методы - это широкий класс оптимизационных алгоритмов, используемых не только в машинном обучении.
Здесь градиентный подход будет рассмотрен в качестве способа подбора вектора синаптических весов w в линейном классификаторе (ссылка).
Пусть  - целевая зависимость, известная только на объектах обучающей выборки:
.
Найдём алгоритм 
, аппроксимирующий зависимость 
.

