Робастное оценивание
Материал из MachineLearning.
Строка 5: | Строка 5: | ||
Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения. | Рассмотрим пример. Для оценки <tex>p</tex> неизвестных параметров <tex>\theta_1,\; \dots ,\theta_p</tex> используется <tex>n</tex> наблюдений <tex>y_1,\; \dots,y_n</tex>, причем они связаны между собой следующим неравенством <tex>\mathbf{y}=X\mathbf{\theta}+\mathbf{u}</tex>, где элементы матрицы <tex>X</tex> суть известные коэффициенты, а <tex>\mathbf{u}</tex> - вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения. | ||
- | <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex> | + | Тогда решение сводится к следующему: <tex>|\mathbf{y}-X\mathbf{\theta}|^2 \rightarrow \min</tex> |
- | <tex>X</tex> <tex>p</tex> | + | Если матрица <tex>X</tex> - матрица полного ранга <tex>p</tex>, то <tex>\hat \theta={(X^{T}X)}^{-1}X^T\mathbf{y}</tex>, |
- | + | а оценки <tex>\hat y_i</tex> будут высиляться по следующей формуле <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, | |
- | <tex>\hat y_i</tex> | + | где <tex>H=X{(X^{T}X)}^{-1}X^T</tex>, далее <tex>H</tex> - матрица подгонки. |
- | + | ||
- | <tex>\hat{\mathbf{y}} = H\mathbf{y}</tex>, <tex>H=X{(X^{T}X)}^{-1}X^T</tex> | + | |
- | + | ||
- | <tex>H</tex> | + | |
<tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex> | <tex>\hat y_i</tex> <tex>r_i=y_i-\hat y_i</tex> |
Версия 18:55, 5 января 2010
Содержание |
Введение
Вычисление робастных оценок
Рассмотрим пример. Для оценки неизвестных параметров
используется
наблюдений
, причем они связаны между собой следующим неравенством
, где элементы матрицы
суть известные коэффициенты, а
- вектор независимых случайных величин,имеющих (приблизительное)одинаковые функции распределения.
Тогда решение сводится к следующему:
Если матрица - матрица полного ранга
, то
,
а оценки
будут высиляться по следующей формуле
,
где
, далее
- матрица подгонки.
(
)
Литература
- Хьюбер П. Робастность в статистике. — М.: Мир, 1984.
Ссылки
- Робастность в статистике.
- Робастность статистических процедур.
- Публикации по робастным методам оценивания параметров и проверке статистических гипотез на сайте профессора НГТУ Лемешко Б.Ю..
- Robust statistics.
![]() | Данная статья является непроверенным учебным заданием.
До указанного срока статья не должна редактироваться другими участниками проекта MachineLearning.ru. По его окончании любой участник вправе исправить данную статью по своему усмотрению и удалить данное предупреждение, выводимое с помощью шаблона {{Задание}}. См. также методические указания по использованию Ресурса MachineLearning.ru в учебном процессе. |