Математические методы анализа текстов (ВМиК МГУ) / 2018

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Лекции)
(Результаты проверки)
Строка 144: Строка 144:
| Амир Мирас
| Амир Мирас
| 8.5
| 8.5
-
|
+
| 8.3
|
|
|
|
Строка 152: Строка 152:
| Белобородов Дмитрий
| Белобородов Дмитрий
| 9.5
| 9.5
-
|
+
| 10
|
|
|
|
Строка 160: Строка 160:
| Бобров Евгений
| Бобров Евгений
| 7
| 7
-
|
+
| 6.4
|
|
|
|
Строка 168: Строка 168:
| Бобров Роман
| Бобров Роман
| 5
| 5
-
|
+
| 10.5
|
|
|
|
Строка 176: Строка 176:
| Гарипов Тимур
| Гарипов Тимур
| 9
| 9
-
|
+
| 10.5
|
|
|
|
Строка 184: Строка 184:
| Драпак Степан
| Драпак Степан
| 8.5
| 8.5
-
|
+
| 11
|
|
|
|
Строка 192: Строка 192:
| Каюмов Эмиль
| Каюмов Эмиль
| 9.3
| 9.3
-
|
+
| 9.2
|
|
|
|
Строка 200: Строка 200:
| Коваленко Павел
| Коваленко Павел
| 8
| 8
-
|
+
| 10.3
|
|
|
|
Строка 208: Строка 208:
| Лунин Дмитрий
| Лунин Дмитрий
| 8.4
| 8.4
-
|
+
| 8.8
|
|
|
|
Строка 216: Строка 216:
| Николаев Владимир
| Николаев Владимир
| 7.4
| 7.4
-
|
+
| 8.4
|
|
|
|
Строка 224: Строка 224:
| Пиджакова Анна
| Пиджакова Анна
| 5.7
| 5.7
-
|
+
| 5.3
|
|
|
|
Строка 232: Строка 232:
| Полыковский Даниил
| Полыковский Даниил
| 8.5
| 8.5
-
|
+
| 9.5
|
|
|
|
Строка 240: Строка 240:
| Попов Артём
| Попов Артём
| 9.5
| 9.5
-
|
+
| 12
|
|
|
|
Строка 248: Строка 248:
| Таскынов Ануар
| Таскынов Ануар
| 5.5
| 5.5
-
|
+
| 10.9
|
|
|
|
Строка 256: Строка 256:
| Трубицын Юрий
| Трубицын Юрий
| 3.5
| 3.5
-
|
+
| 1
|
|
|
|
Строка 264: Строка 264:
| Ходырева Виктория
| Ходырева Виктория
| 9
| 9
-
|
+
| 5.3
|
|
|
|
Строка 272: Строка 272:
| Шолохова Татьяна
| Шолохова Татьяна
| 9
| 9
-
|
+
| 10.8
|
|
|
|

Версия 16:54, 13 апреля 2018

Содержание

Курс посвящен методам анализа текстов на основе статистики и машинного обучения.

Курс читается магистрам 1го года кафедры «Математические методы прогнозирования» ВМК МГУ.

Обработка естественного языка (Natural Language Processing) - широкая область на стыке лингвистики и компьютерных технологий. Сегодня здесь решается огромное число задач, например, классификация текстов, определение тональности, машинный перевод, распознавание речи, обработка запросов в поиске. В ходе курса слушатели познакомятся с основными методами и применят их на практике.

Контакты

  • Лекции и семинары проходят по пятницам 12-50 - 14-25, 14-35 - 16-10 в ауд.505.
  • Лектор: Виктор Китов
  • Семинарист: Мурат Апишев
  • Почта курса (семинары, задания): nlp.msu@gmail.com.
  • Здесь вы в любой момент можете оставить анонимный отзыв или предложение.

Программа курса

  • Токенизация, коллокации, регулярные выражения, языковые модели
  • Определение частей речи, скрытая марковская модель, модель максимальной энтропии, тэггер Брилла.
  • Классификация текстов, tf-idf, метод ближайших центроидов, модели Бернулли и мультиномиальная; регуляризация, отбор признаков; анализ тональности.
  • Тематические модели.
  • Нейросети (обратное распространение ошибки, функции активации, инициализация весов, оптимизация); векторные представления слов: word2vec (CBOW, skip-gram), glove.
  • Регулярные языки, transduser, типы грамматик, контекстно-свободные грамматики; синтаксические анализаторы; алгоритм Кока-Янгера-Касами, вероятностные грамматики, вероятностный алгоритм Кока-Янгера-Касами
  • Детали обучения нейросетей: дропаут, батч-нормализация, рекуррентные нейронные сети; задача NER.
  • RNN, LSTM, GRU; CNN
  • Вопросно-ответные системы, автоматическая суммаризация, PageRank
  • WordNet, проблема лексической неоднозначности, алгоритм Леска; проверка орфографии

Лекции

Токенизация, коллокации, регулярные выражения.

Языковые модели.

Скрытая марковская модель для дискретных признаков.

Разметка частей речи.

Скрытая марковская модель с дискретными выходами.

Классификация текстов.

Векторные представления слов.

Оценка тональности текстов.

Сверточные нейросети для анализа текстов.

Рекуррентные нейросети.

Семинары

Дата Тема Материалы
Семинар 1 9.02.2018 Правила курса, получение данных, предобработка текста, извлечение коллокаций. Слайды
Семинар 2 17.02.2018 Языковые модели, статистический машинный перевод, задача выравнивания. Слайды
Семинар 3 12.03.2018 Классификация текстов, инструменты (Vowpal Wabbit, FastText), задача анализа тональности. Слайды
Семинар 4 23.03.2018 Тематическое моделирование. Слайды
Семинар 5 30.03.2018 Векторные представления слов + доклады Слайды
Семинар 6 06.04.2018 Доклады

Ссылка на слайды докладов

Задания

Дедлайн Баллы Тема Материалы
Лабораторная 1 21:00 8 марта 2018 10 баллов Языковое моделирование и распознавание языка. Ipython-ноутбук с заданием + данные.
Лабораторная 2 21:00 29 марта 2018 10 баллов Определение частей речи и

выделение именованных сущностей.

Ipython-ноутбук с заданием.
Лабораторная 3 21:00 15 апреля 2018 15 баллов Задача выравнивания в машинном переводе. Материалы задания.
Результаты проверки
Студенты Лабораторная № 1 Лабораторная № 2 Лабораторная № 3 Лабораторная № 4 Доклад + выступление Итог
Амир Мирас 8.5 8.3
Белобородов Дмитрий 9.5 10 5+5
Бобров Евгений 7 6.4 5+5
Бобров Роман 5 10.5
Гарипов Тимур 9 10.5
Драпак Степан 8.5 11
Каюмов Эмиль 9.3 9.2
Коваленко Павел 8 10.3
Лунин Дмитрий 8.4 8.8
Николаев Владимир 7.4 8.4 5+5
Пиджакова Анна 5.7 5.3
Полыковский Даниил 8.5 9.5 5+5
Попов Артём 9.5 12 5+5
Таскынов Ануар 5.5 10.9
Трубицын Юрий 3.5 1
Ходырева Виктория 9 5.3
Шолохова Татьяна 9 10.8

Результаты проверки

Литература

Stanford: Deep learning in natural language processing. Spring 2016.

Stanford: Deep learning in natural language processing. Winter 2017.

Juravsky, Manning - Video lectures on natural language processing.

Speech and Language Processing. Dan Jurafsky and James H. Martin. 3-rd edition, draft.

Speech and Language Processing. Dan Jurafsky and James H. Martin. 2-nd edition. 2009.

Natural Language Processing with Python. Stewen Bird et. al. 2-nd edition. 2016.


Питон и библиотеки

Инструменты для работы с текстами

Личные инструменты