Участник:Kropotov

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (фото МРФ)
(2 промежуточные версии не показаны)
Строка 3: Строка 3:
{| style="border:0px;"
{| style="border:0px;"
|-
|-
-
|[[Изображение:Kropotov_MRF.jpg|300px]]   
+
|[[Изображение:KropotovFace2.jpg|100px]]   
|'''Кропотов Дмитрий Александрович'''
|'''Кропотов Дмитрий Александрович'''
-
м.н.с. [[Вычислительный центр им. А. А. Дородницына Российской академии наук|Вычислительного Центра РАН]]
+
н.с. каф. [[ММП]] [[ВМК]] [[МГУ]]
<imagemap>
<imagemap>
Строка 22: Строка 22:
* Практический интеллектуальный анализ данных
* Практический интеллектуальный анализ данных
-
== Публикации ==
+
== Избранные публикации ==
-
Список публикаций см. [[Участник:Kropotov/Публикации|здесь]].
+
* Кропотов Д.А. ''Эффективный метод обучения L1-регуляризованной байесовской линейной регрессии'', ИОИ-2012 [http://mmro.ru/files/2012-iip-09.pdf link]
 +
* D. Kropotov, D. Vetrov, L. Wolf, T. Hassner. ''Variational Relevance Vector Machine for Tabular Data'' // ACML 2010. [http://jmlr.csail.mit.edu/proceedings/papers/v13/ link]
 +
* A. Osokin, D. Vetrov, D. Kropotov. ''3D Reconstruction of Mouse Brain from a Sequence of 2D Brain Slices in Application to Allen Brain Atlas'' // Lecture Notes in Bioinformatics, Vol. 6160, Springer, 2010, pp. 291-303. [http://www.springerlink.com/content/978-3-642-14570-4 link]
 +
* Ветров Д.П., Кропотов Д.А., Осокин А.А. ''Автоматическое определение количества компонент в ЕМ-алгоритме восстановления смеси нормальных распределений'' // ЖВМиМФ, т. 50, №4, 2010, с. 1-14. [http://www.springerlink.com/content/p3j0060km3357131/ link]
 +
* Ветров Д.П., Кропотов Д.А. ''Алгоритм множественного трекинга лабораторных животных'' // ММРО-2009. [[Media:Kropotov09_MMRO_Multitracking.pdf|(PDF, 832 Кб)]]
 +
* D.Kropotov, D.Vetrov. ''General Solutions for Information-Based and Bayesian Approaches to Model Selection in Linear Regression and Their Equivalence'' // PRIA, Vol. 19, No. 3, 2009, pp. 447-455. [http://www.springerlink.com/content/w1722x4387p64334/ link]
 +
* E.Lomakina-Rumyantseva, P.Voronin, D.Kropotov, D.Vetrov, A.Konushin. ''Video Tracking and Behaviour Segmentation of Laboratory Rodents'' // PRIA, Vol. 19, No. 4, 2009, pp. 616-622. [http://www.springerlink.com/content/a50g36n04m4066n8/ link]
 +
* D. Kropotov, D. Vetrov. ''An Automatic Relevance Determination Procedure Based on Akaike Information Criterion for Linear Regression Problems'' // ICML Workshop on Sparse Optimization and Variable Selection, 2008. [http://irina.rish.googlepages.com/schedule link]
 +
* Kropotov D., Vetrov D. ''On One Method of Non-Diagonal Regularization in Sparse Bayesian Learning'' // ICML 2007. [http://oregonstate.edu/conferences/event/icml2007/paperlist.html link]
 +
* Васильев О.М., Ветров Д.П., Кропотов Д.А. ''Представление и обнаружение знаний в экспертных системах для задач распознавания образов'' // ЖВМиМФ, том 47, №8, 2007 [http://www.springerlink.com/content/r34m75848260m358/ link]
== Учебные курсы ==
== Учебные курсы ==
-
Курс [[ГМ|«Графические модели»]]<br>
+
* Курс [[Бммо|«Байесовские методы машинного обучения»]]<br>
-
Спецкурс [[Бммо|«Байесовские методы машинного обучения»]]<br>
+
* Курс [[ГМ|«Графические модели»]]<br>
-
Спецсеминар [[Спецсеминар "Байесовские методы машинного обучения"|«Байесовские методы машинного обучения»]]<br>
+
* Курс [[MOTP|«Математические основы теории прогнозирования»]]<br>
-
Курс [[MOTP|«Математические основы теории прогнозирования»]]
+
* Курс [[па|«Прикладная алгебра»]]<br>
-
 
+
* Спецкурс [[Момо|«Методы оптимизации в машинном обучении»]]<br>
-
== Программные реализации ==
+
* Спецсеминар [[Спецсеминар "Байесовские методы машинного обучения"|«Байесовские методы машинного обучения»]]
-
 
+
-
==== Обобщенные линейные модели ====
+
-
 
+
-
{| style="border:0px;"
+
-
|-
+
-
| valign = "top" | Реализация под MatLab ряда классических алгоритмов решения задач классификации и регрессии на основе обобщенных линейных моделей, таких как байесовская линейная/логистическая регрессия, метод релевантных векторов и вариационный метод релевантных векторов. Эти алгоритмы просты в использовании и, как правило, обладают высокой скоростью работы. С их помощью можно решать задачи классификации и регрессии, а также осуществлять отбор значимых признаков.
+
-
 
+
-
Скачать: [[Media:Glm_105.RAR|glm V1.05 (RAR, 243 Кб)]]
+
-
 
+
-
| valign = "top" | [[Изображение:sinc_rvr.jpg|150px|thumb|Пример решения задачи регрессии: восстановление зашумленной функции sinc]]
+
-
|}
+
-
 
+
-
==== Метод релевантных векторов для данных в виде многомерных массивов ====
+
-
 
+
-
{| style="border:0px;"
+
-
|-
+
-
| valign = "top" | Реализация под MatLab алгоритма решения задач классификации и регрессии, в которых каждый объект выборки представлен многомерным массивом признаков (в частности, матрицей признаков), и представляет интерес поиск информативных строк в этом многомерном массиве. Реализованный алгоритм — это вариационный метод релевантных векторов для табулярных данных, описанный в статье [http://jmlr.csail.mit.edu/proceedings/papers/v13/kropotov10a/kropotov10a.pdf (Kropotov et al., 2010)].
+
-
 
+
-
Скачать: [[Media:gridrvm_110.rar|gridrvm V1.10 (RAR, 180 Кб)]]
+
-
 
+
-
| valign = "top" | [[Изображение:grid.jpg|150px|thumb|Матрица признаков одного объекта]]
+
-
| valign = "top" | [[Изображение:grid_sparse.jpg|150px|thumb|Только часть строк и столбцов матрицы являются информативными]]
+
-
|}
+
-
 
+
-
==== Смесь нормальных распределений ====
+
-
 
+
-
{| style="border:0px;"
+
-
|-
+
-
| valign = "top" | Реализация под MatLab алгоритмов решения задачи кластеризации с помощью восстановления смеси нормальных распределений с использованием EM-алгоритма, а также вариационного подхода, описанного в книге [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ (Bishop, 2006)]. Количество кластеров может быть определено автоматически по данным с помощью скользящего контроля или с помощью подхода на основе автоматического определения релевантности, описанного в статье [http://www.springerlink.com/content/p3j0060km3357131/ (Vetrov et al., 2010)]. Применение вариационного подхода для восстановления смеси нормальных распределений также позволяет автоматически определить число кластеров в данных.
+
-
 
+
-
Скачать: [[Media:Gmm_110.rar|gmm V1.10 (RAR, 102 Кб)]]
+
-
 
+
-
|[[Изображение:gmm_initial_approximation.jpg|150px|thumb|Пример кластеризации: начальное приближение с 20 кластерами]]
+
-
|[[Изображение:gmm_final_clustering.jpg|150px|thumb|Пример кластеризации: финальная кластеризация на 5 кластеров]]
+
-
|}
+
-
 
+
-
<small>Реализации выполнены при поддержке [[РФФИ]] (проекты 09-01-12060, 09-01-92474).</small>
+
<!--
<!--

Версия 14:41, 8 октября 2014


    Кропотов Дмитрий Александрович

н.с. каф. ММП ВМК МГУ

Научные интересы

  • Байесовские методы машинного обучения
  • Методы обучения и вывода в графических моделях
  • Методы оптимизации в машинном обучении
  • Практический интеллектуальный анализ данных

Избранные публикации

  • Кропотов Д.А. Эффективный метод обучения L1-регуляризованной байесовской линейной регрессии, ИОИ-2012 link
  • D. Kropotov, D. Vetrov, L. Wolf, T. Hassner. Variational Relevance Vector Machine for Tabular Data // ACML 2010. link
  • A. Osokin, D. Vetrov, D. Kropotov. 3D Reconstruction of Mouse Brain from a Sequence of 2D Brain Slices in Application to Allen Brain Atlas // Lecture Notes in Bioinformatics, Vol. 6160, Springer, 2010, pp. 291-303. link
  • Ветров Д.П., Кропотов Д.А., Осокин А.А. Автоматическое определение количества компонент в ЕМ-алгоритме восстановления смеси нормальных распределений // ЖВМиМФ, т. 50, №4, 2010, с. 1-14. link
  • Ветров Д.П., Кропотов Д.А. Алгоритм множественного трекинга лабораторных животных // ММРО-2009. (PDF, 832 Кб)
  • D.Kropotov, D.Vetrov. General Solutions for Information-Based and Bayesian Approaches to Model Selection in Linear Regression and Their Equivalence // PRIA, Vol. 19, No. 3, 2009, pp. 447-455. link
  • E.Lomakina-Rumyantseva, P.Voronin, D.Kropotov, D.Vetrov, A.Konushin. Video Tracking and Behaviour Segmentation of Laboratory Rodents // PRIA, Vol. 19, No. 4, 2009, pp. 616-622. link
  • D. Kropotov, D. Vetrov. An Automatic Relevance Determination Procedure Based on Akaike Information Criterion for Linear Regression Problems // ICML Workshop on Sparse Optimization and Variable Selection, 2008. link
  • Kropotov D., Vetrov D. On One Method of Non-Diagonal Regularization in Sparse Bayesian Learning // ICML 2007. link
  • Васильев О.М., Ветров Д.П., Кропотов Д.А. Представление и обнаружение знаний в экспертных системах для задач распознавания образов // ЖВМиМФ, том 47, №8, 2007 link

Учебные курсы

Личные инструменты