Вероятностные тематические модели (курс лекций, К.В.Воронцов)

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Оценивание качества тематических моделей)
Текущая версия (20:04, 21 октября 2025) (править) (отменить)
(Тематический информационный поиск)
 
(128 промежуточных версий не показаны.)
Строка 1: Строка 1:
{{TOCright}}
{{TOCright}}
-
Спецкурс читается студентам 2—5 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 4 и 6 курсов на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
+
Спецкурс читается студентам 2—5 курсов на кафедре «[[Математические методы прогнозирования (кафедра ВМиК МГУ)|Математические методы прогнозирования]]» [[ВМиК]] [[МГУ]] с 2013 года и студентам 6 курса на кафедре «[[Интеллектуальные системы (кафедра МФТИ)|Интеллектуальные системы]]» [[ФУПМ]] [[МФТИ]] с 2019 года.
В спецкурсе изучается вероятностное [[тематическое моделирование]] (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
В спецкурсе изучается вероятностное [[тематическое моделирование]] (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — [[аддитивная регуляризация тематических моделей]] (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования [[BigARTM]].
Строка 8: Строка 8:
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
Краткая ссылка на эту страницу: [http://bit.ly/2EGWcjA bit.ly/2EGWcjA].
-
 
-
{{well|В целях профилактики коронавируса Минобрнауки рекомендовало учебным заведениям с 16 марта 2020 года перейти на дистанционное обучение. Спецкурс будет проводиться по расписанию, по четвергам в 18:00. Ссылку на подключение к дистанционной платформе я буду выкладывать [https://zoom.us/j/4307755799 здесь] и дублировать в рассылке непосредственно перед лекцией. — ''[[Участник:Vokov|К.В.Воронцов]] 16:27, 19 марта 2020 (MSK)''}}
 
-
 
-
'''Материалы для первого ознакомления:'''
 
-
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
 
-
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
 
-
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
 
-
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
 
'''Основной материал:'''
'''Основной материал:'''
-
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация]]. {{важно|— обновление 17.03.2020}}.
+
* ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM]]. {{важно|— обновление 29.12.2024}}.
 +
* [https://www.youtube.com/playlist?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозаписи, 2023 осень (МФТИ)].
= Программа курса =
= Программа курса =
== Задача тематического моделирования ==
== Задача тематического моделирования ==
-
Презентация: [[Media:Voron19ptm-intro.pdf|(PDF, 1,5 МБ)]] {{важно|— обновление 05.03.2020}}.
+
Презентация: [[Media:Voron25ptm-intro.pdf|(PDF, 1,7 МБ)]] {{важно|— обновление 11.09.2025}}.
 +
[https://youtu.be/DU0AQUNW3YI?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
'''Цели и задачи тематического моделирования.'''
'''Цели и задачи тематического моделирования.'''
Строка 33: Строка 27:
'''Аддитивная регуляризация тематических моделей.'''
'''Аддитивная регуляризация тематических моделей.'''
* Понятие некорректно поставленной задачи по Адамару. Регуляризация.
* Понятие некорректно поставленной задачи по Адамару. Регуляризация.
-
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM. [[Условия Каруша–Куна–Таккера]].
+
* Лемма о максимизации на единичных симплексах. [[Условия Каруша–Куна–Таккера]].
 +
* Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
* Классические тематические модели [[Вероятностный латентный семантический анализ|PLSA]] и [[Латентное размещение Дирихле|LDA]] как частные случаи ARTM.
-
* Мультимодальные тематические модели.
 
-
'''Библиотека [[BigARTM]].'''
+
'''Практика тематического моделирования.'''
-
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
+
-
* Оффлайновый регуляризованный EM-алгоритм.
+
-
* Онлайновый регуляризованный EM-алгоритм. Распараллеливание.
+
* Проект с открытым кодом BigARTM.
* Проект с открытым кодом BigARTM.
 +
* Этапы решения практических задач.
 +
* Методы предварительной обработки текста.
 +
* Датасеты и практические задания по курсу.
-
== Разведочный информационный поиск ==
+
== Моделирование локального контекста ==
-
Презентация: [[Media:Voron20ptm-exp.pdf|(PDF, 2,9 МБ)]] {{важно|— обновление 05.03.2020}}.
+
Презентация: [[Media:Voron25ptm-local.pdf|(PDF, 3,2 МБ)]] {{важно|— обновление 14.09.2025}}.
 +
[https://youtu.be/Xe36kQPlbHY?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
-
'''Разведочный информационный поиск.'''
+
'''Онлайновый ЕМ-алгоритм.'''
-
* Концепция разведочного поиска.
+
* Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
-
* Особенности разведочного поиска.
+
* Онлайновый EM-алгоритм для ARTM.
-
* Разведочный поиск как рекомендательная система.
+
* Пакетный онлайновый регуляризованный EM-алгоритм для ARTM.
 +
 
 +
'''Линейная тематизация текста.'''
 +
* Линейная тематизация текста за один проход без матрицы <tex>\Theta</tex>.
 +
* Локализация E-шага. Линейная тематизация. Коэффициенты внимания. Attentive ARTM.
 +
* Двунаправленная тематическая модель контекста.
 +
* Онлайновый EM-алгоритм с однопроходным локализованным E-шагом.
 +
 
 +
'''Аналогия с нейросетевыми моделями языка.'''
 +
* Свёрточная нейросеть GCNN (Gated Convolutional Network)
 +
* Модель само-внимания (self-attention) Query-Key-Value.
 +
* Трансформер и онлайновый EM-алгоритм с многопроходным локализованным E-шагом.
 +
* Нейросетевая тематическая модель Contextual-Top2Vec.
 +
 
 +
== Реализация ЕМ-алгоритма и комбинирование регуляризаторов ==
 +
Презентация: [[Media:Voron25ptm-regular.pdf|(PDF,&nbsp;1,4&nbsp;МБ)]] {{важно|— обновление 2.10.2025}}.
 +
[https://youtu.be/mUMfoBlslQE?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
'''Часто используемые регуляризаторы.'''
'''Часто используемые регуляризаторы.'''
-
* Сглаживание, разреживание, декоррелирование.
+
* Сглаживание и разреживание.
-
* Модальности.
+
* Частичное обучение.
-
* Иерархии тем. Послойное построение иерархии. Псевдодокументы родительских тем.
+
* Декоррелирование тем.
 +
* Разреживание для отбора тем.
 +
 
 +
'''Особенности реализации ЕМ-алгоритма для ARTM.'''
 +
* Улучшение сходимости несмещёнными оценками.
 +
* Замена логарифма в функции потерь.
 +
* Матричная запись ЕМ-алгоритма.
 +
* Подбор коэффициентов регуляризации. Траектория регуляризации.
 +
* Относительные коэффициенты регуляризации.
 +
* Библиотеки BigARTM и TopicNet.
 +
 
 +
'''Эксперименты с регуляризацией.'''
 +
* Производительность BigARTM
 +
* Оценивание качества: перплексия, когерентность, лексическое ядро
 +
* Регуляризаторы сглаживания, разреживания, декоррелирования и отбора тем.
 +
* Комбинирование регуляризаторов, эмпирические рекомендации.
 +
* Эксперименты с отбором тем на синтетических и реальных данных.
 +
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
 +
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
 +
 
 +
== Оценивание качества тематических моделей ==
 +
Презентация: [[Media:Voron25ptm-quality.pdf|(PDF,&nbsp;1,7&nbsp;МБ)]] {{важно|— обновление 2.10.2025}}.
 +
[https://youtu.be/OoIetK1pTUA?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
 +
 
 +
'''Измерение качества тематических моделей.'''
 +
* Правдоподобие и перплексия.
 +
* Интерпретируемость и когерентность. Внутритекстовая когерентность.
 +
* Разреженность и различность.
 +
 
 +
'''Проверка гипотезы условной независимости.'''
 +
* Статистики на основе KL-дивергенции и их обобщения.
 +
* Регуляризатор семантической однородности.
 +
* Применение статистических тестов условной независимости.
 +
 
 +
'''Проблема тематической несбалансированности в данных'''
 +
* Проблема малых тем и тем-дубликатов
 +
* Тематическая несбалансированность как основная причина неинтерпретируемости тем
 +
* Эксперименты с регуляризаторами отбора тем и декоррелирования
 +
* Регуляризатор семантической однородности
 +
* Подходы к балансировке тем
 +
 
 +
== Тематический информационный поиск ==
 +
Презентация: [[Media:Voron25ptm-exp.pdf|(PDF,&nbsp;9,4&nbsp;МБ)]] {{важно|— обновление 21.10.2025}}.
 +
[https://youtu.be/2SkbbDYcBUQ?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
 +
 
 +
'''Мультимодальные тематические модели.'''
 +
* Примеры модальностей.
 +
* Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.
 +
 
 +
'''Иерархические тематические модели.'''
 +
* Иерархии тем. Послойное построение иерархии.
 +
* Регуляризаторы для разделения тем на подтемы.
 +
* Псевдодокументы родительских тем.
 +
* Модальность родительских тем.
'''Эксперименты с тематическим поиском.'''
'''Эксперименты с тематическим поиском.'''
Строка 60: Строка 124:
* Тематическая модель для документного поиска.
* Тематическая модель для документного поиска.
* Оптимизация гиперпараметров.
* Оптимизация гиперпараметров.
 +
<!--
 +
'''Задачи тематизации текстовых коллекций'''
 +
* Проект «Мастерская знаний». Тематизация подборок научных публикаций.
 +
* Поиск этно-релевантных тем в социальных сетях
 +
* Тематизация в социо-гуманитарных исследованиях-->
-
== Обзор базовых инструментов ==
+
== BigARTM и базовые инструменты ==
-
''Александр Романенко'', ''Мурат Апишев''.
+
''Мурат Апишев''.
Презентация: [[Media:Base_instruments.zip‎|(zip,&nbsp;0,6&nbsp;МБ)]] {{важно|— обновление 17.02.2017}}.
Презентация: [[Media:Base_instruments.zip‎|(zip,&nbsp;0,6&nbsp;МБ)]] {{важно|— обновление 17.02.2017}}.
 +
[https://youtu.be/AIN00vWOJGw Видеозапись]
'''Предварительная обработка текстов'''
'''Предварительная обработка текстов'''
-
* Парсинг "сырых" данных.
+
* Парсинг «сырых» данных.
* Токенизация, стемминг и лемматизация.
* Токенизация, стемминг и лемматизация.
* Выделение энграмм.
* Выделение энграмм.
Строка 83: Строка 153:
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
* Воркшоп по BigARTM на DataFest'4. [https://www.youtube.com/watch?v=oQcHEm2-7PM '''Видео'''].
-
== Оценивание качества тематических моделей ==
+
== Мультимодальные тематические модели ==
-
Презентация: [[Media:Voron20ptm-quality.pdf|(PDF,&nbsp;1,6&nbsp;МБ)]] {{важно|— обновление 19.03.2020}}.
+
Презентация: [[Media:Voron25ptm-modal.pdf|(PDF,&nbsp;1,8&nbsp;МБ)]] {{важно|— обновление 21.10.2025}}.
 +
[https://youtu.be/AfwH0A3NJCQ?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp старая видеозапись]
-
'''Измерение качества тематических моделей.'''
+
'''Мультиязычные тематические модели.'''
-
* Правдоподобие и перплексия.
+
* Параллельные и сравнимые коллекции.
-
* Интерпретируемость и когерентность.
+
* Регуляризаторы для учёта двуязычных словарей.
-
* Разреженность и различность.
+
* Кросс-язычный информационный поиск.
-
'''Проверка гипотезы условной независимости.'''
+
'''Трёхматричные модели.'''
-
* Статистики на основе KL-дивергенции и их обобщения.
+
* Модели трёхматричных разложений. Понятие порождающей модальности.
-
* Калибровка статистических тестов.
+
* Автор-тематическая модель (author-topic model).
-
* Применение статистических тестов.
+
* Модель для выделения поведений объектов в видеопотоке.
-
'''Эксперименты с регуляризацией.'''
+
'''Тематические модели транзакционных данных.'''
-
* Проблема определения числа тем.
+
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
-
* Проблема несбалансированности тем.
+
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
-
* Комбинирование регуляризаторов.
+
* Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
 +
* Гиперграфовые тематические модели языка. Тематическая модель предложений и сегментоидов.
 +
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
 +
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
-
== Модели PLSA, LDA и теория ЕМ-алгоритма ==
+
== Анализ зависимостей ==
-
Презентация: [[Media:Voron19mipt-ptm-emlda.pdf|(PDF,&nbsp;2,0&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
Презентация: [[Media:Voron24ptm-rel.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 14.04.2025}}.
 +
[https://youtu.be/uKCMr9yK3gw?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp старая видеозапись]
-
'''Классические модели PLSA, LDA.'''
+
'''Зависимости, корреляции, связи.'''
-
* Модель PLSA.
+
* Тематические модели классификации и регрессии.
-
* Модель LDA. Распределение Дирихле и его свойства.
+
* Модель коррелированных тем CTM (Correlated Topic Model).
-
* Максимизация апостериорной вероятности для модели LDA.
+
* Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.
-
'''Общий EM-алгоритм.'''
+
'''Время и пространство.'''
-
* EM-алгоритм для максимизации неполного правдоподобия.
+
* Регуляризаторы времени.
-
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
+
* Обнаружение и отслеживание тем.
-
* Альтернативный вывод формул ARTM.
+
* Гео-пространственные модели.
-
'''Эксперименты с моделями PLSA, LDA.'''
+
'''Социальные сети.'''
-
* Проблема неустойчивости (на синтетических данных).
+
* Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
-
* Проблема неустойчивости (на реальных данных).
+
* Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
-
* Проблема переобучения и робастные модели.
+
* Регуляризаторы для выявления социальных ролей пользователей.
-
== Байесовское обучение модели LDA ==
+
== Именование и суммаризация тем ==
-
Презентация: [[Media:Voron19ptm-bayes.pdf|(PDF,&nbsp;1,5&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
Презентация: [[Media:Voron25ptm-sum.pdf|(PDF,&nbsp;2,9&nbsp;МБ)]] {{важно|— обновление 28.04.2025}}.
 +
[https://youtu.be/nShxhkPbGWY старая видеозапись]
-
'''Вариационный байесовский вывод.'''
+
'''Методы суммаризации текстов.'''
-
* Основная теорема вариационного байесовского вывода.
+
* Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
-
* [[Вариационный байесовский вывод]] для модели LDA.
+
* Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
-
* VB ЕМ-алгоритм для модели LDA.
+
* Тематическая модель предложений для суммаризации.
 +
* Критерии качества суммаризации. Метрики ROUGE, BLUE.
-
'''Сэмплирование Гиббса.'''
+
'''Автоматическое именование тем (topic labeling).'''
-
* Основная теорема о сэмплировании Гиббса.
+
* Формирование названий-кандидатов.
-
* [[Сэмплирование Гиббса]] для модели LDA.
+
* Релевантность, покрытие, различность.
-
* GS ЕМ-алгоритм для модели LDA.
+
* Оценивание качества именования тем.
-
'''Замечания о байесовском подходе.'''
+
'''Задача суммаризации темы'''
-
* Оптимизация гиперпараметров в LDA.
+
* Задача ранжирования документов
-
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
+
* Задача фильтрации репрезентативных релевантных фраз.
-
* Сравнение байесовского подхода и ARTM.
+
* Задача генерации связного текста
-
* Как читать статьи по баейсовским моделям и строить эквивалентные ARTM-модели.
+
-
 
+
-
'''Дополнительный материал:'''
+
-
* ''Потапенко А. А.'' [[Media:potapenko16BayesTM.pdf|Байесовское обучение тематических моделей]]. 2016.
+
== Тематические модели сочетаемости слов ==
== Тематические модели сочетаемости слов ==
-
Презентация: [[Media:Voron19ptm-cooc.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
Презентация: [[Media:Voron25ptm-cooc.pdf|(PDF,&nbsp;1,4&nbsp;МБ)]] {{важно|— обновление 5.05.2025}}.
 +
[https://youtu.be/zuN5HECqv3I?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись] и ещё одна
 +
[https://youtu.be/k46UzzMSKt0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=22 старая видеозапись]
-
'''Мультиграммные модели.'''
+
'''Мультиграммные модели и выделение терминов.'''
-
* Модель BigramTM.
+
-
* Модель Topical N-grams (TNG).
+
-
* Мультимодальная мультиграммная модель.
+
-
 
+
-
'''Автоматическое выделение терминов.'''
+
* Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
* Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
-
* Синтаксический разбор. Нейросетевой синтаксический анализатор SyntaxNet.
+
* Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
* Критерии тематичности фраз.
* Критерии тематичности фраз.
* Комбинирование синтаксической, статистической и тематической фильтрации фраз.
* Комбинирование синтаксической, статистической и тематической фильтрации фраз.
Строка 160: Строка 230:
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
<!--* Модель всплесков BBTM (Bursty Biterm Topic Model). -->
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
* Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.
-
* Понятие когерентности (согласованности). Экспериментально установленная связь когерентности и интерпретируемости.
+
<!--* Регуляризаторы когерентности. -->
-
* Регуляризаторы когерентности.
+
 
 +
'''Позиционный регуляризатор в ARTM.'''
 +
* Гипотеза о сегментной структуре текста.
 +
* Регуляризация и пост-обработка Е-шага. Формулы М-шага.
 +
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
'''Дополнительный материал:'''
'''Дополнительный материал:'''
* ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео'''].
* ''Потапенко А. А.'' Векторные представления слов и документов. DataFest'4. [https://www.youtube.com/watch?v=KEXWC-ICH_Y '''Видео'''].
-
== Анализ зависимостей ==
+
== Байесовское обучение модели LDA ==
-
Презентация: [[Media:Voron19ptm-rel.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
Презентация: [[Media:Voron25ptm-bayes.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 11.05.2025}}.
 +
[https://youtu.be/ZAtfN0ApQh0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=20 старая видеозапись]
-
'''Зависимости, корреляции, связи.'''
+
'''Классические модели PLSA, LDA.'''
-
* Тематические модели классификации и регрессии.
+
* Модель PLSA.
-
* Модель коррелированных тем CTM (Correlated Topic Model).
+
* Модель LDA. Распределение Дирихле и его свойства.
-
* Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.
+
* Максимизация апостериорной вероятности для модели LDA.
-
'''Время и пространство.'''
+
'''Вариационный байесовский вывод.'''
-
* Регуляризаторы времени.
+
* Основная теорема вариационного байесовского вывода.
-
* Обнаружение и отслеживание тем.
+
* [[Вариационный байесовский вывод]] для модели LDA.
-
* Гео-пространственные модели.
+
* VB ЕМ-алгоритм для модели LDA.
-
'''Социальные сети.'''
+
'''Сэмплирование Гиббса.'''
-
* Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
+
* Основная теорема о сэмплировании Гиббса.
-
* Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
+
* [[Сэмплирование Гиббса]] для модели LDA.
-
* Регуляризаторы для выявления социальных ролей пользователей.
+
* GS ЕМ-алгоритм для модели LDA.
-
== Мультимодальные тематические модели ==
+
'''Замечания о байесовском подходе.'''
-
Презентация: [[Media:Voron19ptm-modal.pdf|(PDF,&nbsp;2,7&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
* Оптимизация гиперпараметров в LDA.
 +
* Графическая нотация (plate notation). [http://zinkov.com/posts/2013-07-28-stop-using-plates Stop using plate notation].
 +
* Сравнение байесовского подхода и ARTM.
 +
* Как читать статьи по байесовским моделям и строить эквивалентные ARTM-модели.
-
'''Мультиязычные тематические модели.'''
+
== Проект «Мастерская знаний» ==
-
* Параллельные и сравнимые коллекции.
+
Презентация: [[Media:Voron25ptm-kf.png|(PNG,&nbsp;8,1&nbsp;МБ)]] {{важно|— обновление 3.03.2025}}.
-
* Регуляризаторы для учёта двуязычных словарей.
+
-
* Кросс-язычный информационный поиск.
+
-
'''Трёхматричные и гиперграфовые модели.'''
+
'''Проект «Мастерская знаний»'''
-
* Модели трёхматричных разложений. Понятие порождающей модальности.
+
* Цели, задачи, концепция проекта. Тематические подборки научных текстов.
-
* Автор-тематическая модель (author-topic model).
+
* Модель векторизации текста для поиска и рекомендаций научных статей.
-
* Модель для выделения поведений объектов в видеопотоке.
+
* Основные сервисы «Мастерской знаний».
-
'''Тематические модели транзакционных данных.'''
+
'''Место тематического моделирования в «Мастерской знаний»'''
-
* Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
+
* Сервис тематизации подборки.
-
* Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
+
* Сервисы выявления научных трендов и построения хронологических карт.
-
* Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. '''[https://youtu.be/0q5p7xP4cdA?t=15168 Видео]'''.
+
* Вспомогательные функции в сервисе полуавтоматической суммаризации.
-
* Анализ банковских транзакционных данных для выявления видов деятельности компаний.
+
-
== Моделирование связного текста ==
+
'''Карты знаний'''
-
Презентация: [[Media:Voron19ptm-segm.pdf|(PDF,&nbsp;2,5&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
* Задачи иерархической суммаризации одной статьи, подборки статей.
 +
* Принципы построения интеллект-карт и карт знаний.
 +
* Что такое «тема»? Отличия тематизации и картирования.
-
'''Модели связного текста.'''
+
== Проект «Тематизатор» ==
-
* Тематическая модель предложений и модель коротких сообщений Twitter-LDA.
+
Презентация: [[Media:Voron25ptm-project.pdf|(PDF,&nbsp;6,7&nbsp;МБ)]] {{важно|— обновление 21.04.2025}}.
-
* Контекстная документная кластеризация (CDC).
+
[https://youtu.be/LctW1J93lmw?list=PLk4h7dmY2eYE_JjvexGUS5MSozoxDFovp Видеозапись]
-
* Метод лексических цепочек.
+
-
'''Тематическая сегментация.'''
+
'''Визуализация тематических моделей'''
-
* Метод TopicTiling. Критерии определения границ сегментов.
+
* Концепция distant reading.
-
* Критерии качества сегментации.
+
* Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
-
* Оптимизация параметров модели TopicTiling.
+
* Спектр тем.
 +
* Визуализация матричного разложения.
-
'''Позиционный регуляризатор в ARTM.'''
+
'''Примеры прикладных задач'''
-
* Гипотеза о сегментной структуре текста.
+
* Поиск этно-релевантных тем в социальных сетях.
-
* Регуляризация и пост-обработка Е-шага. Формулы М-шага.
+
* Анализ программ развития российских вузов.
-
* Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.
+
* Поиск и рубрикация научных статей на 100 языках.
 +
* Проекты Школы Прикладного Анализа Данных.
-
== Суммаризация и автоматическое именование тем ==
+
'''Анализ требований к «Тематизатору»'''
-
Презентация: [[Media:Voron19ptm-sum.pdf|(PDF,&nbsp;1,9&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
* Функциональные требования.
 +
* Требования к интерпретируемости.
 +
* Основной пользовательский сценарий: Загрузка, Предобработка, Моделирование, Визуализация, Коррекция.
 +
* Этапизация работ.
-
'''Методы суммаризации текстов.'''
+
<!---
-
* Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
+
== Теория ЕМ-алгоритма ==
-
* Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
+
Презентация: [[Media:Voron24ptm-emlda.pdf|(PDF,&nbsp;2,0&nbsp;МБ)]] {{важно|— обновление 25.10.2024}}.
-
* Тематическая модель предложений для суммаризации.
+
[https://youtu.be/DBF5QAFC1V0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt старая видеозапись]
-
* Критерии качества суммаризации. Метрики ROUGE, BLUE.
+
-
'''Автоматическое именование тем (topic labeling).'''
+
'''Общий EM-алгоритм.'''
-
* Формирование названий-кандидатов.
+
* EM-алгоритм для максимизации неполного правдоподобия.
-
* Релевантность, покрытие, различность.
+
* Регуляризованный EM-алгоритм. Сходимость в слабом смысле.
-
* Оценивание качества именования тем.
+
* Альтернативный вывод формул ARTM.
-
== Визуализация ==
+
'''Эксперименты с моделями PLSA, LDA.'''
-
Презентация: [[Media:Voron19ptm-vis.pdf|(PDF,&nbsp;10,1&nbsp;МБ)]] {{важно|— обновление 15.12.2019}}.
+
* Проблема неустойчивости (на синтетических данных).
 +
* Проблема неустойчивости (на реальных данных).
 +
* Проблема переобучения и робастные модели.
-
'''Визуализация больших текстовых коллекций'''
+
== Моделирование сегментированного текста ==
-
* Концепция distant reading
+
Презентация: [[Media:Voron24ptm-segm.pdf|(PDF,&nbsp;2,1&nbsp;МБ)]] {{важно|— обновление 21.11.2024}}.
-
* Карты знаний
+
[https://youtu.be/k46UzzMSKt0?list=PLk4h7dmY2eYEnsGW3GIMvIhxPeifcQvQt&t=22 старая видеозапись]
-
* Иерархии, взаимосвязи, динамика, сегментация
+
-
'''Визуализация тематических моделей'''
+
'''Мультиграммные модели.'''
-
* Визуализация матричного разложения
+
* Модель BigramTM.
-
* Проект VisARTM
+
* Модель Topical N-grams (TNG).
-
* Спектр тем
+
* Мультимодальная мультиграммная модель.
-
'''Визуализация для научного разведочного поиска'''
+
'''Тематические модели предложений.'''
-
* Тематическая карта
+
* Тематическая модель предложений senLDA.
-
* Задача оценивания когнитивной сложности текста
+
* Модель коротких сообщений Twitter-LDA.
-
* Иерархическая тематическая суммаризация
+
* Сегментоиды. Лексические цепочки.
 +
 
 +
'''Тематическая сегментация текста.'''
 +
* Метод TopicTiling. Критерии определения границ сегментов.
 +
* Критерии качества сегментации.
 +
* Оптимизация параметров модели TopicTiling.
 +
--->
=Отчетность по курсу=
=Отчетность по курсу=
Условием сдачи курса является выполнение индивидуальных практических заданий.
Условием сдачи курса является выполнение индивидуальных практических заданий.
-
'''Рекомендуемая структура отчёта об исследовании по индивидуальному заданию:'''
+
'''Рекомендуемая структура отчёта об исследовании:'''
* Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
* Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
* Описание простого решения baseline
* Описание простого решения baseline
Строка 274: Строка 361:
=Литература=
=Литература=
-
# ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Обзор вероятностных тематических моделей]]. 2019.
+
# ''Воронцов К. В.'' [[Media:voron17survey-artm.pdf|Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM]]. 2025.
 +
# ''Xiaobao Wu, Thong Nguyen, Anh Tuan Luu.'' [https://arxiv.org/abs/2401.15351 A Survey on Neural Topic Models: Methods, Applications, and Challenges]. 2023.
 +
# ''Rob Churchill, Lisa Singh.'' [https://dl.acm.org/doi/10.1145/3507900 The Evolution of Topic Modeling]. 2022.
 +
# ''He Zhao, Dinh Phung, Viet Huynh, Yuan Jin, Lan Du, Wray Buntine.'' [https://arxiv.org/abs/2103.00498 Topic Modelling Meets Deep Neural Networks: A Survey]. 2021.
# ''Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng.'' [https://arxiv.org/ftp/arxiv/papers/1711/1711.04305.pdf Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey]. 2017.
# ''Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng.'' [https://arxiv.org/ftp/arxiv/papers/1711/1711.04305.pdf Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey]. 2017.
# ''Hofmann T.'' Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
# ''Hofmann T.'' Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
# ''Blei D. M., Ng A. Y., Jordan M. I.'' Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
# ''Blei D. M., Ng A. Y., Jordan M. I.'' Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
# ''Asuncion A., Welling M., Smyth P., Teh Y. W.'' On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
# ''Asuncion A., Welling M., Smyth P., Teh Y. W.'' On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.
-
# ''Янина А. О., Воронцов К. В.'' [http://jmlda.org/papers/doc/2016/no2/Ianina2016Multimodal.pdf Мультимодальные тематические модели для разведочного поиска в коллективном блоге] // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.
 
<!--
<!--
 +
# ''Янина А. О., Воронцов К. В.'' [http://jmlda.org/papers/doc/2016/no2/Ianina2016Multimodal.pdf Мультимодальные тематические модели для разведочного поиска в коллективном блоге] // Машинное обучение и анализ данных. 2016. T.2. №2. С.173-186.
# ''Воронцов К.В.'' Тематическое моделирование в BigARTM: теория, алгоритмы, приложения. [[Media:Voron-2015-BigARTM.pdf|Voron-2015-BigARTM.pdf]].
# ''Воронцов К.В.'' Тематическое моделирование в BigARTM: теория, алгоритмы, приложения. [[Media:Voron-2015-BigARTM.pdf|Voron-2015-BigARTM.pdf]].
# ''Воронцов К.В.'' Лекции по тематическому моделированию. [[Media:Voron-2013-ptm.pdf|Voron-2013-ptm.pdf]].
# ''Воронцов К.В.'' Лекции по тематическому моделированию. [[Media:Voron-2013-ptm.pdf|Voron-2013-ptm.pdf]].
Строка 306: Строка 396:
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* [http://www.youtube.com/watch?v=vSzsuq7uHPE Видеозапись лекции на ТМШ, 19 июня 2015]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
* ''Воронцов К.В.'' [[Media:voron-2014-task-PTM.pdf|Практическое задание по тематическому моделированию, 2014.]]
 +
 +
'''Материалы для первого ознакомления:'''
 +
* ''[[Media:BigARTM-short-intro.pdf|Тематический анализ больших данных]]''. Краткое популярное введение в BigARTM.
 +
* ''[http://postnauka.ru/video/61910 Разведочный информационный поиск]''. Видеолекция на ПостНауке.
 +
* ''[https://postnauka.ru/faq/86373 Тематическое моделирование]''. FAQ на ПостНауке, совместно с Корпоративным университетом Сбербанка.
 +
* ''[https://www.youtube.com/watch?v=MhNbccnVk5Y Байесовская и классическая регуляризация в вероятностном тематическом моделировании]''. Научно-образовательный семинар «Актуальные проблемы прикладной математики» Новосибирского Государственного Университета, 19 февраля 2021. [[Media:Voron-2021-02-19.pdf|Презентация]].
 +
* ''[https://habrahabr.ru/company/yandex/blog/313340 Тематическое моделирование на пути к разведочному информационному поиску]''. Лекция на DataFest3, 10 сентября 2016. [https://www.youtube.com/watch?v=frLW8UVp_Ik&index=5&list=PLJOzdkh8T5kqfhWXhtYevTUHIvrylDLYu Видеозапись].
= Подстраницы =
= Подстраницы =
Строка 315: Строка 412:
<!---------------------------------------------------
<!---------------------------------------------------
-
'''Внутренние метрики качества модели.'''
+
'''Модели связного текста.'''
-
* Правдоподобие и перплексия.
+
* Контекстная документная кластеризация (CDC).
-
* Интерпретируемость и когерентность.
+
* Метод лексических цепочек.
-
* Разреженность и различность.
+
-
'''Эксперименты с регуляризаторами.'''
+
'''Инициализация.'''
-
* Комбинирование регуляризаторов сглаживания, разреживания, декоррелирования.
+
* Случайная инициализация. Инициализация по документам.
-
* Проблема несбалансированности тем. Радиус семантической однородности тем.
+
* Контекстная документная кластеризация.
-
* Проверка гипотезы условной независимости
+
* Поиск якорных слов. Алгоритм Ароры.
-
 
+
-
'''Определение числа тем.'''
+
-
* Регуляризатор отбора тем. Эксперименты на синтетических и реальных данных.
+
-
* Эффект отбрасывания малых, дублирующих и линейно зависимых тем.
+
-
* Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
+
'''Расширяемые тематические модели.'''
'''Расширяемые тематические модели.'''
Строка 350: Строка 441:
== Инициализация, траектория регуляризации, тесты адекватности ==
== Инициализация, траектория регуляризации, тесты адекватности ==
Презентация: [[Media:Voron-PTM-10.pdf|(PDF,&nbsp;Х,Х&nbsp;МБ)]] {{важно|— обновление ХХ.ХХ.2016}}.
Презентация: [[Media:Voron-PTM-10.pdf|(PDF,&nbsp;Х,Х&nbsp;МБ)]] {{важно|— обновление ХХ.ХХ.2016}}.
-
 
-
'''Инициализация.'''
 
-
* Случайная инициализация. Инициализация по документам.
 
-
* Контекстная документная кластеризация.
 
-
* Поиск якорных слов. Алгоритм Ароры.
 
'''Траектория регуляризации.'''
'''Траектория регуляризации.'''

Текущая версия

Содержание

Спецкурс читается студентам 2—5 курсов на кафедре «Математические методы прогнозирования» ВМиК МГУ с 2013 года и студентам 6 курса на кафедре «Интеллектуальные системы» ФУПМ МФТИ с 2019 года.

В спецкурсе изучается вероятностное тематическое моделирование (topic modeling) коллекций текстовых документов. Тематическая модель определяет, какие темы содержатся в большой текстовой коллекции, и к каким темам относится каждый документ. Тематические модели позволяют искать тексты по смыслу, а не по ключевым словам, и создавать информационно-поисковые системы нового поколения, основанные на парадигме семантического разведочного поиска (exploratory search). Рассматриваются тематические модели для классификации, категоризации, сегментации, суммаризации текстов естественного языка, а также для рекомендательных систем, анализа банковских транзакционных данных, анализа биомедицинских сигналов. В спецкурсе развивается многокритериальный подход к построению моделей с заданными свойствами — аддитивная регуляризация тематических моделей (АРТМ). Он основан на регуляризации некорректно поставленных задач стохастического матричного разложения. Особое внимание уделяется методам лингвистической регуляризации для моделирования связности текста. Предполагается проведение студентами численных экспериментов на модельных и реальных данных с помощью библиотеки тематического моделирования BigARTM.

От студентов требуются знания курсов линейной алгебры, математического анализа, теории вероятностей. Знание математической статистики, методов оптимизации, машинного обучения, языков программирования Python и С++ желательно, но не обязательно.

Краткая ссылка на эту страницу: bit.ly/2EGWcjA.

Основной материал:

Программа курса

Задача тематического моделирования

Презентация: (PDF, 1,7 МБ) — обновление 11.09.2025. старая видеозапись

Цели и задачи тематического моделирования.

Аддитивная регуляризация тематических моделей.

  • Понятие некорректно поставленной задачи по Адамару. Регуляризация.
  • Лемма о максимизации на единичных симплексах. Условия Каруша–Куна–Таккера.
  • Теорема о необходимом условии максимума регуляризованного правдоподобия для ARTM.
  • Классические тематические модели PLSA и LDA как частные случаи ARTM.

Практика тематического моделирования.

  • Проект с открытым кодом BigARTM.
  • Этапы решения практических задач.
  • Методы предварительной обработки текста.
  • Датасеты и практические задания по курсу.

Моделирование локального контекста

Презентация: (PDF, 3,2 МБ) — обновление 14.09.2025. старая видеозапись

Онлайновый ЕМ-алгоритм.

  • Рациональный ЕМ-алгоритм (встраивание Е-шага внутрь М-шага).
  • Онлайновый EM-алгоритм для ARTM.
  • Пакетный онлайновый регуляризованный EM-алгоритм для ARTM.

Линейная тематизация текста.

  • Линейная тематизация текста за один проход без матрицы \Theta.
  • Локализация E-шага. Линейная тематизация. Коэффициенты внимания. Attentive ARTM.
  • Двунаправленная тематическая модель контекста.
  • Онлайновый EM-алгоритм с однопроходным локализованным E-шагом.

Аналогия с нейросетевыми моделями языка.

  • Свёрточная нейросеть GCNN (Gated Convolutional Network)
  • Модель само-внимания (self-attention) Query-Key-Value.
  • Трансформер и онлайновый EM-алгоритм с многопроходным локализованным E-шагом.
  • Нейросетевая тематическая модель Contextual-Top2Vec.

Реализация ЕМ-алгоритма и комбинирование регуляризаторов

Презентация: (PDF, 1,4 МБ) — обновление 2.10.2025. старая видеозапись

Часто используемые регуляризаторы.

  • Сглаживание и разреживание.
  • Частичное обучение.
  • Декоррелирование тем.
  • Разреживание для отбора тем.

Особенности реализации ЕМ-алгоритма для ARTM.

  • Улучшение сходимости несмещёнными оценками.
  • Замена логарифма в функции потерь.
  • Матричная запись ЕМ-алгоритма.
  • Подбор коэффициентов регуляризации. Траектория регуляризации.
  • Относительные коэффициенты регуляризации.
  • Библиотеки BigARTM и TopicNet.

Эксперименты с регуляризацией.

  • Производительность BigARTM
  • Оценивание качества: перплексия, когерентность, лексическое ядро
  • Регуляризаторы сглаживания, разреживания, декоррелирования и отбора тем.
  • Комбинирование регуляризаторов, эмпирические рекомендации.
  • Эксперименты с отбором тем на синтетических и реальных данных.
  • Сравнение с байесовской моделью HDP (Hierarchical Dirichlet Process).
  • Эффект отбрасывания малых, дублирующих и линейно зависимых тем.

Оценивание качества тематических моделей

Презентация: (PDF, 1,7 МБ) — обновление 2.10.2025. старая видеозапись

Измерение качества тематических моделей.

  • Правдоподобие и перплексия.
  • Интерпретируемость и когерентность. Внутритекстовая когерентность.
  • Разреженность и различность.

Проверка гипотезы условной независимости.

  • Статистики на основе KL-дивергенции и их обобщения.
  • Регуляризатор семантической однородности.
  • Применение статистических тестов условной независимости.

Проблема тематической несбалансированности в данных

  • Проблема малых тем и тем-дубликатов
  • Тематическая несбалансированность как основная причина неинтерпретируемости тем
  • Эксперименты с регуляризаторами отбора тем и декоррелирования
  • Регуляризатор семантической однородности
  • Подходы к балансировке тем

Тематический информационный поиск

Презентация: (PDF, 9,4 МБ) — обновление 21.10.2025. старая видеозапись

Мультимодальные тематические модели.

  • Примеры модальностей.
  • Мультимодальный ARTM и регуляризованный ЕМ-алгоритм.

Иерархические тематические модели.

  • Иерархии тем. Послойное построение иерархии.
  • Регуляризаторы для разделения тем на подтемы.
  • Псевдодокументы родительских тем.
  • Модальность родительских тем.

Эксперименты с тематическим поиском.

  • Методика измерения качества поиска.
  • Тематическая модель для документного поиска.
  • Оптимизация гиперпараметров.

BigARTM и базовые инструменты

Мурат Апишев. Презентация: (zip, 0,6 МБ) — обновление 17.02.2017. Видеозапись

Предварительная обработка текстов

  • Парсинг «сырых» данных.
  • Токенизация, стемминг и лемматизация.
  • Выделение энграмм.
  • Законы Ципфа и Хипса. Фильтрация словаря коллекции. Удаление стоп-слов.

Библиотека BigARTM

  • Методологические рекоммендации по проведению экспериментов.
  • Установка BigARTM.
  • Формат и импорт входных данных.
  • Обучение простой модели (без регуляризации): создание, инициализация, настройка и оценивание модели.
  • Инструмент визуализации тематических моделей VisARTM. Основные возможности, демонстрация работы.

Дополнительный материал:

  • Презентация: (PDF, 1,5 МБ) — обновление 17.03.2017.
  • Видео — обновление 22.03.2017.
  • Воркшоп по BigARTM на DataFest'4. Видео.

Мультимодальные тематические модели

Презентация: (PDF, 1,8 МБ) — обновление 21.10.2025. старая видеозапись

Мультиязычные тематические модели.

  • Параллельные и сравнимые коллекции.
  • Регуляризаторы для учёта двуязычных словарей.
  • Кросс-язычный информационный поиск.

Трёхматричные модели.

  • Модели трёхматричных разложений. Понятие порождающей модальности.
  • Автор-тематическая модель (author-topic model).
  • Модель для выделения поведений объектов в видеопотоке.

Тематические модели транзакционных данных.

  • Примеры транзакционных данных в рекомендательных системах, социальных и рекламных сетях.
  • Гиперграфовая модель ARTM. Теорема о необходимом условии максимума регуляризованного правдоподобия.
  • Транзакционные данные в рекомендательных системах. Симметризованная гиперграфовая модель ARTM.
  • Гиперграфовые тематические модели языка. Тематическая модель предложений и сегментоидов.
  • Анализ транзакционных данных для выявления паттернов экономического поведения клиентов банка. Видео.
  • Анализ банковских транзакционных данных для выявления видов деятельности компаний.

Анализ зависимостей

Презентация: (PDF, 2,5 МБ) — обновление 14.04.2025. старая видеозапись

Зависимости, корреляции, связи.

  • Тематические модели классификации и регрессии.
  • Модель коррелированных тем CTM (Correlated Topic Model).
  • Регуляризаторы гиперссылок и цитирования. Выявление тематических влияний в научных публикациях.

Время и пространство.

  • Регуляризаторы времени.
  • Обнаружение и отслеживание тем.
  • Гео-пространственные модели.

Социальные сети.

  • Сфокусированный поиск в социальных медиа (пример: поиск этно-релевантного контента).
  • Выявление тематических сообществ. Регуляризаторы для направленных и ненаправленных связей.
  • Регуляризаторы для выявления социальных ролей пользователей.

Именование и суммаризация тем

Презентация: (PDF, 2,9 МБ) — обновление 28.04.2025. старая видеозапись

Методы суммаризации текстов.

  • Задачи автоматической суммаризации текстов. Подходы к суммаризации: extractive и abstractive.
  • Оценивание и отбор предложений для суммаризации. Релаксационный метод для многокритериальной дискретной оптимизации.
  • Тематическая модель предложений для суммаризации.
  • Критерии качества суммаризации. Метрики ROUGE, BLUE.

Автоматическое именование тем (topic labeling).

  • Формирование названий-кандидатов.
  • Релевантность, покрытие, различность.
  • Оценивание качества именования тем.

Задача суммаризации темы

  • Задача ранжирования документов
  • Задача фильтрации репрезентативных релевантных фраз.
  • Задача генерации связного текста

Тематические модели сочетаемости слов

Презентация: (PDF, 1,4 МБ) — обновление 5.05.2025. старая видеозапись и ещё одна старая видеозапись

Мультиграммные модели и выделение терминов.

  • Алгоритм TopMine для быстрого поиска частых фраз. Критерии выделения коллокаций.
  • Синтаксический разбор. Нейросетевые синтаксические анализаторы SyntaxNet, UDpipe.
  • Критерии тематичности фраз.
  • Комбинирование синтаксической, статистической и тематической фильтрации фраз.

Тематические модели дистрибутивной семантики.

  • Дистрибутивная гипотеза. Модели CBOW и SGNS в программе word2vec.
  • Модель битермов BTM (Biterm Topic Model) для тематизации коллекций коротких текстов.
  • Модели WNTM (Word Network Topic Model) и WTM (Word Topic Model). Связь с моделью word2vec.

Позиционный регуляризатор в ARTM.

  • Гипотеза о сегментной структуре текста.
  • Регуляризация и пост-обработка Е-шага. Формулы М-шага.
  • Примеры регуляризаторов Е-шага. Разреживание распределения p(t|d,w). Сглаживание тематики слов по контексту.

Дополнительный материал:

  • Потапенко А. А. Векторные представления слов и документов. DataFest'4. Видео.

Байесовское обучение модели LDA

Презентация: (PDF, 2,1 МБ) — обновление 11.05.2025. старая видеозапись

Классические модели PLSA, LDA.

  • Модель PLSA.
  • Модель LDA. Распределение Дирихле и его свойства.
  • Максимизация апостериорной вероятности для модели LDA.

Вариационный байесовский вывод.

Сэмплирование Гиббса.

Замечания о байесовском подходе.

  • Оптимизация гиперпараметров в LDA.
  • Графическая нотация (plate notation). Stop using plate notation.
  • Сравнение байесовского подхода и ARTM.
  • Как читать статьи по байесовским моделям и строить эквивалентные ARTM-модели.

Проект «Мастерская знаний»

Презентация: (PNG, 8,1 МБ) — обновление 3.03.2025.

Проект «Мастерская знаний»

  • Цели, задачи, концепция проекта. Тематические подборки научных текстов.
  • Модель векторизации текста для поиска и рекомендаций научных статей.
  • Основные сервисы «Мастерской знаний».

Место тематического моделирования в «Мастерской знаний»

  • Сервис тематизации подборки.
  • Сервисы выявления научных трендов и построения хронологических карт.
  • Вспомогательные функции в сервисе полуавтоматической суммаризации.

Карты знаний

  • Задачи иерархической суммаризации одной статьи, подборки статей.
  • Принципы построения интеллект-карт и карт знаний.
  • Что такое «тема»? Отличия тематизации и картирования.

Проект «Тематизатор»

Презентация: (PDF, 6,7 МБ) — обновление 21.04.2025. Видеозапись

Визуализация тематических моделей

  • Концепция distant reading.
  • Карты знаний, иерархии, взаимосвязи, динамика, сегментация.
  • Спектр тем.
  • Визуализация матричного разложения.

Примеры прикладных задач

  • Поиск этно-релевантных тем в социальных сетях.
  • Анализ программ развития российских вузов.
  • Поиск и рубрикация научных статей на 100 языках.
  • Проекты Школы Прикладного Анализа Данных.

Анализ требований к «Тематизатору»

  • Функциональные требования.
  • Требования к интерпретируемости.
  • Основной пользовательский сценарий: Загрузка, Предобработка, Моделирование, Визуализация, Коррекция.
  • Этапизация работ.


Отчетность по курсу

Условием сдачи курса является выполнение индивидуальных практических заданий.

Рекомендуемая структура отчёта об исследовании:

  • Постановка задачи: неформальное описание, ДНК (дано–найти–критерий), структура данных
  • Описание простого решения baseline
  • Описание основного решения и его вариантов
  • Описание набора данных и методики экспериментов
  • Результаты экспериментов по подбору гиперпараметров основного решения
  • Результаты экспериментов по сравнению основного решения с baseline
  • Примеры визуализации модели
  • Выводы: что работает, что не работает, инсайты
  • Ссылка на код

Примеры отчётов:

Литература

  1. Воронцов К. В. Вероятностное тематическое моделирование: теория регуляризации ARTM и библиотека с открытым кодом BigARTM. 2025.
  2. Xiaobao Wu, Thong Nguyen, Anh Tuan Luu. A Survey on Neural Topic Models: Methods, Applications, and Challenges. 2023.
  3. Rob Churchill, Lisa Singh. The Evolution of Topic Modeling. 2022.
  4. He Zhao, Dinh Phung, Viet Huynh, Yuan Jin, Lan Du, Wray Buntine. Topic Modelling Meets Deep Neural Networks: A Survey. 2021.
  5. Hamed Jelodar, Yongli Wang, Chi Yuan, Xia Feng. Latent Dirichlet Allocation (LDA) and Topic modeling: models, applications, a survey. 2017.
  6. Hofmann T. Probabilistic latent semantic indexing // Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval. — New York, NY, USA: ACM, 1999. — Pp. 50–57.
  7. Blei D. M., Ng A. Y., Jordan M. I. Latent Dirichlet allocation // Journal of Machine Learning Research. — 2003. — Vol. 3. — Pp. 993–1022.
  8. Asuncion A., Welling M., Smyth P., Teh Y. W. On smoothing and inference for topic models // Proceedings of the International Conference on Uncertainty in Artificial Intelligence. — 2009.

Ссылки

Материалы для первого ознакомления:

Подстраницы

Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2015Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2016Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2017
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2018Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2019, ВМКВероятностные тематические модели (курс лекций, К.В.Воронцов)/2020
Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2021Вероятностные тематические модели (курс лекций, К.В.Воронцов)/2024
Личные инструменты