Вероятностные тематические модели (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м (уточнение)
м (Обновлены все лекции, после осени 2019-МФТИ)
Строка 21: Строка 21:
== Задача тематического моделирования ==
== Задача тематического моделирования ==
-
Презентация: [[Media:Voron19mipt-ptm-intro.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 12.09.2019}}.
+
Презентация: [[Media:Voron19mipt-ptm-intro.pdf|(PDF, 1,5 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Цели и задачи тематического моделирования.'''
'''Цели и задачи тематического моделирования.'''
Строка 42: Строка 42:
== Разведочный информационный поиск ==
== Разведочный информационный поиск ==
-
Презентация: [[Media:Voron19mipt-ptm-eploreg.pdf|(PDF, 2,4 МБ)]] {{важно|— обновление 12.09.2019}}.
+
Презентация: [[Media:Voron19mipt-ptm-eploreg.pdf|(PDF, 2,9 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Разведочный информационный поиск.'''
'''Разведочный информационный поиск.'''
Строка 60: Строка 60:
== Оценивание качества тематических моделей ==
== Оценивание качества тематических моделей ==
-
Презентация: [[Media:Voron19mipt-ptm-quality.pdf|(PDF, 1,8 МБ)]] {{важно|— обновление 21.09.2019}}.
+
Презентация: [[Media:Voron19mipt-ptm-quality.pdf|(PDF, 1,4 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Измерение качества тематических моделей.'''
'''Измерение качества тематических моделей.'''
Строка 66: Строка 66:
* Интерпретируемость и когерентность.
* Интерпретируемость и когерентность.
* Разреженность и различность.
* Разреженность и различность.
-
 
-
'''Эксперименты с моделями PLSA, LDA.'''
 
-
* Проблема переобучения и робастные модели.
 
-
* Проблема неустойчивости (на синтетических данных).
 
-
* Проблема неустойчивости (на реальных данных).
 
'''Эксперименты с регуляризацией.'''
'''Эксперименты с регуляризацией.'''
Строка 99: Строка 94:
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
-
== Модели PLSA, LDA и ЕМ-алгоритм ==
+
== Модели PLSA, LDA и теория ЕМ-алгоритма ==
-
Презентация: [[Media:Voron19mipt-ptm-emlda.pdf|(PDF, 1,8 МБ)]] {{важно|— обновление 22.09.2019}}.
+
Презентация: [[Media:Voron19mipt-ptm-emlda.pdf|(PDF, 2,0 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Классические модели PLSA, LDA.'''
'''Классические модели PLSA, LDA.'''
Строка 106: Строка 101:
* Модель LDA. Распределение Дирихле и его свойства.
* Модель LDA. Распределение Дирихле и его свойства.
* Максимизация апостериорной вероятности для модели LDA.
* Максимизация апостериорной вероятности для модели LDA.
-
 
-
'''Начала байесовского подхода.'''
 
-
* Байесовский вывод со скрытыми переменными
 
-
* Первый частный случай: скрытые переменные известны, равномерное априорное распределение.
 
-
* Второй частный случай: скрытые переменные известны, априорное распределение Дирихле.
 
-
* Свойство сопряжённости распределения Дирихле с мультиномиальным распределением.
 
'''Общий EM-алгоритм.'''
'''Общий EM-алгоритм.'''
-
* EM-алгоритм для максимизации неполного правдоподобия. Сходимость в слабом смысле.
+
* EM-алгоритм для максимизации неполного правдоподобия.
-
* Регуляризованный EM-алгоритм.
+
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
* Альтернативный вывод формул ARTM.
* Альтернативный вывод формул ARTM.
 +
 +
'''Эксперименты с моделями PLSA, LDA.'''
 +
* Проблема неустойчивости (на синтетических данных).
 +
* Проблема неустойчивости (на реальных данных).
 +
* Проблема переобучения и робастные модели.
== Байесовское обучение модели LDA ==
== Байесовское обучение модели LDA ==
-
Презентация: [[Media:Voron19ptm-bayes.pdf|(PDF, 1,5 МБ)]] {{важно|— обновление 8.11.2019}}.
+
Презентация: [[Media:Voron19ptm-bayes.pdf|(PDF, 1,5 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Вариационный байесовский вывод.'''
'''Вариационный байесовский вывод.'''
Строка 141: Строка 135:
== Тематические модели сочетаемости слов ==
== Тематические модели сочетаемости слов ==
-
Презентация: [[Media:Voron19ptm-cooc.pdf|(PDF, 1,9 МБ)]] {{важно|— обновление 8.11.2019}}.
+
Презентация: [[Media:Voron19ptm-cooc.pdf|(PDF, 2,1 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Мультиграммные модели.'''
'''Мультиграммные модели.'''
Строка 166: Строка 160:
== Анализ зависимостей ==
== Анализ зависимостей ==
-
Презентация: [[Media:Voron19ptm-rel.pdf|(PDF, 1,9 МБ)]] {{важно|— обновление 8.11.2019}}.
+
Презентация: [[Media:Voron19ptm-rel.pdf|(PDF, 1,9 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Зависимости, корреляции, связи.'''
'''Зависимости, корреляции, связи.'''
Строка 184: Строка 178:
== Мультимодальные тематические модели ==
== Мультимодальные тематические модели ==
-
Презентация: [[Media:Voron19ptm-modal.pdf|(PDF, 1,4 МБ)]] {{важно|— обновление 8.11.2019}}.
+
Презентация: [[Media:Voron19ptm-modal.pdf|(PDF, 2,7 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Мультиязычные тематические модели.'''
'''Мультиязычные тематические модели.'''
Строка 203: Строка 197:
== Моделирование связного текста ==
== Моделирование связного текста ==
-
Презентация: [[Media:Voron19ptm-segm.pdf|(PDF, 2,4 МБ)]] {{важно|— обновление 25.04.2019}}.
+
Презентация: [[Media:Voron19ptm-segm.pdf|(PDF, 2,5 МБ)]] {{важно|— обновление 15.12.2019}}.
'''Модели связного текста.'''
'''Модели связного текста.'''
Строка 212: Строка 206:
'''Тематическая сегментация.'''
'''Тематическая сегментация.'''
* Метод TopicTiling. Критерии определения границ сегментов.
* Метод TopicTiling. Критерии определения границ сегментов.
-
* Критерии качества сегментации. Оптимизация параметров модели TopicTiling.
+
* Критерии качества сегментации.
 +
* Оптимизация параметров модели TopicTiling.
'''Позиционный регуляризатор в ARTM.'''
'''Позиционный регуляризатор в ARTM.'''
Строка 219: Строка 214:
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
-
== Визуализация и суммаризация тем ==
+
== Суммаризация и автоматическое именование тем ==
-
Презентация: [[Media:Voron19ptm-vis.pdf|(PDF, 6,2 МБ)]] {{важно|— обновление 25.04.2019}}.
+
Презентация: [[Media:Voron19ptm-vis.pdf|(PDF, 1,9 МБ)]] {{важно|— обновление 15.12.2019}}.
-
 
+
-
'''Средства визуализации тематических моделей.'''
+
-
* Концепция distant reading и идеи визуализации.
+
-
* Визуализация матричного разложения.
+
-
* Визуализация кластерных структур, динамики, иерархий, сегментации.
+
-
* Спектр тем.
+
-
* Проект VisARTM.
+
'''Методы суммаризации текстов.'''
'''Методы суммаризации текстов.'''
Строка 239: Строка 227:
* Релевантность, покрытие, различность.
* Релевантность, покрытие, различность.
* Оценивание качества именования тем.
* Оценивание качества именования тем.
 +
 +
== Визуализация ==
 +
Презентация: [[Media:Voron19ptm-vis.pdf|(PDF, 10,1 МБ)]] {{важно|— обновление 15.12.2019}}.
 +
 +
'''Визуализация больших текстовых коллекций'''
 +
* Концепция distant reading
 +
* Карты знаний
 +
* Иерархии, взаимосвязи, динамика, сегментация
 +
 +
'''Визуализация тематических моделей'''
 +
* Визуализация матричного разложения
 +
* Проект VisARTM
 +
* Спектр тем
 +
 +
'''Визуализация для научного разведочного поиска'''
 +
* Тематическая карта
 +
* Задача оценивания когнитивной сложности текста
 +
* Иерархическая тематическая суммаризация
=Отчетность по курсу=
=Отчетность по курсу=

Версия 20:22, 15 декабря 2019

Содержание

Спецкурс читается студентам 2—5 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 4 и 6 курсов на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.

В спецкурсе изучается вероятностное тематическое моделирование (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.

Краткая ссылка на эту страницу: bit.ly/2EGWcjA.

Материалы для первого ознакомления:

Основной материал:

Программа курса

Задача тематического моделирования

Презентация: (PDF, 1,5 МБ) — обновление 15.12.2019.

Цели и задачи тематического моделирования.

Аддитивная регуляризация тематических моделей.

  • Понятие некорректно поставленной задачи по Адамару. Регуляризация.
  • Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM. Условия Каруша–Куна–Таккера.
  • Классические тематические модели PLSA и LDA как частные случаи ARTM.
  • Мультимодальные тематические модели.

Библиотека BigARTM.

  • Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
  • Оффлайновый регуляризованный EM-алгоритм.
  • Онлайновый регуляризованный EM-алгоритм. Распараллеливание.
  • Проект с открытым кодом BigARTM.

Разведочный информационный поиск

Презентация: (PDF, 2,9 МБ) — обновление 15.12.2019.

Разведочный информационный поиск.

  • Концепция разведочного поиска.
  • Особенности разведочного поиска.
  • Разведочный поиск как рекомендательная система.

Часто используемые регуляризаторы.

  • Сглаживание, разреживание, декоррелирование.
  • Модальности.
  • Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем.

Эксперименты с тематическим поиском.

  • Методика измерения качества поиска.
  • Тематическая модель для документного поиска.
  • Оптимизация гиперпараметров.

Оценивание качества тематических моделей

Презентация: (PDF, 1,4 МБ) — обновление 15.12.2019.

Измерение качества тематических моделей.

  • Правдоподобие и перплексия.
  • Интерпретируемость и когерентность.
  • Разреженность и различность.

Эксперименты с регуляризацией.

  • Проблема определения числа тем.
  • Проблема несбалансированности тем.
  • Комбинирование регуляризаторов.

Обзор базовых инструментов

Александр Романенко, Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017.

Предварительная обработка текстов

  • Парсинг "сырых" данных.
  • Токенизация, стемминг и лемматизация.
  • Выделение энграмм.
  • Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.

Библиотека BigARTM

  • Методологические рекоммендации по проведению экспериментов.
  • Установка BigARTM.
  • Формат и импорт входных данных.
  • Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
  • Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.

Дополнительный материал:

  • Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
  • Видео — обновление 22.03.2017.
  • Воркшоп по BigARTM на DataFest'4. Видео.

Модели PLSA, LDA и теория ЕМ-алгоритма

Презентация: (PDF, 2,0 МБ) — обновление 15.12.2019.

Классические модели PLSA, LDA.

  • Модель PLSA.
  • Модель LDA. Распределение Дирихле и его свойства.
  • Максимизация апостериорной вероятности для модели LDA.

Общий EM-алгоритм.

  • EM-алгоритм для максимизации неполного правдоподобия.
  • Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
  • Альтернативный вывод формул ARTM.

Эксперименты с моделями PLSA, LDA.

  • Проблема неустойчивости (на синтетических данных).
  • Проблема неустойчивости (на реальных данных).
  • Проблема переобучения и робастные модели.

Байесовское обучение модели LDA

Презентация: (PDF, 1,5 МБ) — обновление 15.12.2019.

Вариационный байесовский вывод.

Сэмплирование Гиббса.

Замечания о байесовском подходе.

  • Оптимизация гиперпараметров в LDA.
  • Графическая нотация (plate notation). Stop using plate notation.
  • Сравнение байесовского подхода и ARTM.
  • Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.

Дополнительный материал:

Тематические модели сочетаемости слов

Презентация: (PDF, 2,1 МБ) — обновление 15.12.2019.

Мультиграммные модели.

  • Модель BigramTM.
  • Модель Topical N-grams (TNG).
  • Мультимодальная мультиграммная модель.

Автоматическое выделение терминов.

  • Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
  • Синтаксический разбор. Нейросетевой синтаксический анализатор SyntaxNet.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Тематические модели дистрибутивной семантики.

  • Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
  • Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
  • Понятие когерентности (согласованности). Экспериментально установленная связь когерентности и интерпретируемости.
  • Регуляризаторы когерентности.

Дополнительный материал:

  • Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.

Анализ зависимостей

Презентация: (PDF, 1,9 МБ) — обновление 15.12.2019.

Зависимости, корреляции, связи.

  • Тематические модели классификации и регрессии.
  • Модель коррелированных тем CTM (Correlated Topic Model).
  • Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.

Время и пространство.

  • Регуляризаторы времени.
  • Обнаружение и отслеживание тем.
  • Гео-пространственные модели.

Социальные сети.

  • Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
  • Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
  • Регуляризаторы для выявления социальных ролей пользователей.

Мультимодальные тематические модели

Презентация: (PDF, 2,7 МБ) — обновление 15.12.2019.

Мультиязычные тематические модели.

  • Параллельные и сравнимые коллекции.
  • Регуляризаторы для учёта двуязычных словарей.
  • Кросс-язычный информационный поиск.

Трёхматричные и гиперграфовые модели.

  • Модели трёхматричных разложений. Понятие порождающей модальности.
  • Автор-тематическая модель (author-topic model).
  • Модель для выделения поведений объектов в видеопотоке.

Тематические модели транзакционных данных.

  • Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
  • Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
  • Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
  • Анализ банковских транзакционных данных для выявления видов деятельности компаний.

Моделирование связного текста

Презентация: (PDF, 2,5 МБ) — обновление 15.12.2019.

Модели связного текста.

  • Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
  • Контекстная документная кластеризация (CDC).
  • Метод лексических цепочек.

Тематическая сегментация.

  • Метод TopicTiling. Критерии определения границ сегментов.
  • Критерии качества сегментации.
  • Оптимизация параметров модели TopicTiling.

Позиционный регуляризатор в ARTM.

  • Гипотеза о сегментной структуре текста.
  • Регуляризация и пост-обработка Е-шага. Формулы М-шага.
  • Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.

Суммаризация и автоматическое именование тем

Презентация: (PDF, 1,9 МБ) — обновление 15.12.2019.

Методы суммаризации текстов.

  • Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
  • Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
  • Тематическая модель предложений для суммаризации.
  • Критерии качества суммаризации. Метрики ROUGE, BLUE.

Автоматическое именование тем (topic labeling).

  • Формирование названий-кандидатов.
  • Релевантность, покрытие, различность.
  • Оценивание качества именования тем.

Визуализация

Презентация: (PDF, 10,1 МБ) — обновление 15.12.2019.

Визуализация больших текстовых коллекций

  • Концепция distant reading
  • Карты знаний
  • Иерархии, взаимосвязи, динамика, сегментация

Визуализация тематических моделей

  • Визуализация матричного разложения
  • Проект VisARTM
  • Спектр тем

Визуализация для научного разведочного поиска

  • Тематическая карта
  • Задача оценивания когнитивной сложности текста
  • Иерархическая тематическая суммаризация

Отчетность по курсу

Условием сдачи курса является выполнение индивидуальных практических заданий.

Рекомендуемая структура отчёта об исследовании по индивидуальному заданию:

  • Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
  • Описание простого решения baseline
  • Описание основного решения и его вариантов
  • Описание набора данных и методики экспериментов
  • Результаты экспериментов по подбору гиперпараметров основного решения
  • Результаты экспериментов по сравнению основного решения с baseline
  • Примеры визуализации модели
  • Выводы: что работает, что не работает, инсайты
  • Ссылка на код

Примеры отчётов:

Литература

  1. Воронцов К. В. Обзор вероятностных тематических моделей. 2019.
  2. Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
  3. Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
  4. Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
  5. Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
  6. Янина А. О., Воронцов К. В. Мультимодальные тематические модели для разведочного поиска в коллективном блоге // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.

Ссылки

Подстраницы

Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМКВероятностные тематические модели (курс лекций, К.В.Воронцов)/2020
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021
Личные инструменты