Нестатистические методы анализа данных и классификации (курс лекций, В.В.Рязанов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск

Версия 15:49, 25 марта 2010

Программа курса

Осенний семестр

  1. Задача распознавания (классификации) по прецедентам. Тупиковые тесты и их вычисление, случаи вещественных признаков.
  2. Логические модели распознавания (тестовый алгоритм, алгоритмы вычисления оценок, алгоритм «Кора», модели с представительными наборами, практические реализации).
  3. Формулы эффективного вычисления оценок.
  4. Оптимизация моделей распознавания. Релаксационный, комбинаторный и эвристические алгоритмы поиска максимальной совместной подсистемы системы линейных неравенств.
  5. Логические закономерности классов, эвристический критерий качества логических закономерностей.
  6. Сведение задачи поиска логических закономерностей классов к задаче целочисленного линейного программирования.
  7. Логические закономерности классов, стандартный критерий качества логических закономерностей и его оптимизация.
  8. Генетические методы поиска, генетический алгоритм поиска логических закономерностей классов.
  9. Веса признаков и прецедентов, логические корреляции. Минимизация признакового пространства.
  10. Логические описания классов. Минимальные и кратчайшие описания классов.
  11. Алгоритмы распознавания, основанные на голосовании по системам логических закономерностей, построение устойчивых на обучении оценок.
  12. Построение минимальных по сложности логических закономерностей классов.
  13. Гладкие аппроксимации логических закономерностей.
  14. Бинарные решающие деревья. Допустимые разбиения единичного куба.
  15. Алгоритм построения допустимого разбиения, представление допустимого разбиения бинарным решающим деревом.
  16. Прямые методы построения бинарных решающих деревьев, критерии ветвления.

Весенний семестр

  1. Задачи кластерного анализа, меры близости, функции подобия.
  2. Критерии качества кластеризации при заданном числе кластеров: дисперсионный и родственные критерии, основанные на матрицах рассеяния, след в качестве критерия, основанные на матрицах рассеяния, определитель матрицы внутригруппового рассеяния.
  3. Критерии кластеризации при неизвестном числе кластеров, меры концентрации.
  4. Итеративная оптимизация критериев кластеризации на примере дисперсионного критерия.
  5. Алгоритмы иерархической группировки.
  6. Критерии устойчивости кластеризаций и их вычисление
  7. Алгоритмы кластеризации, основанные на поиске центров сгущений (алгоритмы к-средних, нечетких к-средних, ФОРЕЛЬ, построения оптимальных покрытий).
  8. Эвристические алгоритмы кластеризации, алгоритмы «к-эталонов» и «взаимного поглощения».
  9. Восстановление компонент смеси по заданной обучающей выборке.
  10. Нейросетевые алгоритмы обучения и самообучения. Метод встречного распространения, сеть Хопфильда, алгоритмы Хэбба.
  11. Логические корректоры для решения задач классификации.
  12. Решение задач кластерного анализа коллективами алгоритмов, метод коллективных к-средних.
  13. Комитетный синтез коллективных кластеризаций, критерии качества коллективных кластеризаций.
  14. Нахождение оптимальных коллективных решений задачи кластерного анализа.
  15. Эвристические методы построения коллективных кластеризаций и практические алгоритмы
  16. Методы восстановления регрессионных зависимостей по прецедентам, основанные на решении задач распознавания и дискретной оптимизации
Личные инструменты