Моя первая научная статья (практика, В.В. Стрижов)/Группы 774, 794, весна 2020

Материал из MachineLearning.

Версия от 14:04, 18 марта 2020; Lexakhar (Обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск


Внизу этой страницы с 19 февраля (среда) 06:00 находятся задачи для выбора. Анекта для выбора тут



Моя первая научная статья

Участвуют эксперты, индивидуальные консультанты и студенты кафедры Интеллектуальные системы ФУПМ МФТИ.

Роли

Студент третьего курса очень хочет научиться ставить задачи формально, находить нужную литературу, порождать новые и актуальные идеи и решения задач.

Консультант помогает студенту в пользовании инструментами, отвечает на вопросы по специальности, консультирует выполнение работ, оперативно реагирует на проблемы, проверяет (в среду) результаты, ставит оценки. Предполагается, что консультант сам пишет работу-спутник по этой теме. В конце работы могут быть объединены или выполнены и опубликованы параллельно. По возможности, рекомендуется организовать правки текста студента с целью улучшить стиль изложения таким образом, чтобы студент вносил правки самостоятельно. Возможно, при очной встрече или по скайпу.

Эксперт: поставщик задачи, владелец данных, либо тот, кто гарантирует новизну и актуальность работы.

Результаты

Автор Тема научной работы Ссылки Консультант Буквы
Маркин Валерий Исследование свойств локальных моделей при пространственном декодировании сигналов головного мозга LinkReview

code paper slides video

Роман Исаченко ALISBB*RHMCVTEDHWFSJ
Гребенькова Ольга Вариационная оптимизация моделей глубокого обучения с контролем сложности модели LinkReview

github

Олег Бахтеев AILP+HUXB
Шокоров Вячеслав Распознавание текста на основе скелетного представления толстых линий и сверточных сетей LinkReview

GitHub

Денис Ожерелков AIL
Филатов Андрей Прогнозирование намерений. Исследование свойств локальных моделей при пространственном декодировании сигналов головного мозга LinkReview

GitHub

Валерий Маркин, Алина Самохина AILPH
Исламов Рустем Анализ свойств ансамбля локально аппроксимирующих моделей github

link review

Андрей Грабовой AILPHUXB
Жолобов Владимир Ранее прогнозирование достаточного объема выборки для обобщенно линейной модели. LinkReview

GitHub paper

Григорий Малиновский AILPH
Вайсер Кирилл Аддитивная регуляризация и ее метапараметры при выборе структуры сетей глубокого обучения LinkReview

github

Марк Потанин AILH
Бишук Антон Решение задачи оптимизации, сочетающей классификацию и регрессию, для оценки энергии связывания белка и маленьких молекул. LinkReview

github

Мария Кадукова AILPH
Филиппова Анастасия Step detection for IMU navigation via deep learning LinkReview

github - paper

Тамаз Гадаев AI-L0P0H
Савельев Николай Распределенная оптимизация в условиях Поляка-Лоясиевича LinkReview

github

А. Н. Безносиков AILPH
Харь Александра Теоретическая обоснованность применения метрических методов классификации с использованием динамического выравнивания (DTW) к пространственно-временным объектам. LinkReview

github

Глеб Моргачев, Алексей Гончаров AILH
Христолюбов Максим Порождение признаков с помощью локально-аппроксимирующих моделей (Классификация видов деятельности человека по измерениям фитнес-браслетов) LinkReview

paper github

Александра Гальцева, Данил Сайранов AILPH
Мамонов Кирилл Нелинейное ранжирование результатов разведочного информационного поиска. LinkReview

github paper

Максим Еремеев AILH
Панкратов Виктор Поиск зрачка на изображении глаза методом проекций яркости LinkReview

github paper

Матвеев И. А. AILPH
Ямалутдинов Артем Обучение машинного перевода без параллельных текстов LinkReview

github

Олег Бахтеев A-I0L0P0
Павличенко Никита Предсказание качества моделей белков с помощью сферических сверток на трехмерных графах. LinkReview

GitHub

Сергей Грудинин, Илья Игашов AILP
Содиков Махмуд, Скачков Даниель Agnostic neural networks LinkReview github Радослав Нейчев H
Кулагин Петр Построение метода динамического выравнивания многомерных временных рядов, устойчивого к локальным колебаниям сигнала. LinkReview

Github paper

Глеб Моргачев, Алексей Гончаров AI-L0P?
Гунаев Руслан Graph Neural Network in Reaction Yield prediction LinkReview

Github

Филипп Никитин AIL
Хоменко Роман Отбор тем в тематических моделях для разведочного информационного поиска LinkReview

Github

Анастасия Янина AI0L0
Ватолин Алексей Метаобучение тематических моделей классификации LinkReview

Github

Юлиан Сердюк AILPH

Расписание

Дата N Что делаем Результат для обсуждения Буква
Февраль 13 1 Организация работы, расписание, инструменты. Инструменты подготовлены к работе.
20 2 Выбрать задачу Тема в ML и ссылка на работу в SF помещена напротив фамилии.
27 3 Составить список публикаций по выбранной задаче, найти данные. Написать аннотацию и введение с обзором собранной литературы. Аннотация (600 знаков), введение (1 страница), список литературы в bib-файле. Подготовить доклад 45 сек. Abstract, Introduction, Literature
Март 5 4 Поставить задачу и сделать описание базового алгоритма, подготовить базовый вычислительный эксперимент. Постановка задачи (0.5-1 страница), описание базового алгоритма. Problem statement
12 5 Поставить цель и распланировать отчет об эксперименте. Запустить базовый вычислительный эксперимент. Провести первичный анализ работы алгоритма. Показ статьи. Базовый код, отчет о работе базового алгоритма, кратко. Update, eXperiment palning, Basic code, Report, cHeck-1
19 6 Поставить вычислительный эксперимент на основе предлагаемого алгоритма с учетом предыдущих результатов. Код, визуализация полученных результатов, анализ ошибки, анализ качества. Code, Visualization
26 7 Описать алгоритм. Теоретическая и алгоритмическая часть статьи (второй / третий раздел). Theory
Апрель 2 8 Завершение вычислительного эксперимента. Описание эксперимента с анализом ошибок. Error
9 9 Описание теоретической части и вычислительного эксперимента. Описание рисунков, выводы, заключение. Черновой вариант статьи с разделами «Вычислительный экперимент» и «Заключение». Контрольная точка — Document, сHeck-2
16 10 Показ статьи в целом после контрольной точки, рецензия. Статья в варианте для рецензирования. RevieW
23 11 Доработка статьи и подготовка ее в журнал. Подготовка презентации. Статья подготовлена к подаче в журнал. Слайды. Journal, Slides
30 12 Подготовка доклада. Доклады и обсуждение. Final show

Работа и консультации

  1. Работы сдаются в течение недели.
  2. Желательна итеративная сдача работ, начинать показ лучше в выходные.
  3. Дедлайн последней версии работы: среда 6:00am (проверка занимает всю среду).
  4. Каждый этап работ +1 балл по системе (А--, А-, А, А+, А++). Несделанная работа — A0. Мотивированный перенос работы — знак «A>». Недельное опоздание — знак «-».

Список проектов

Шаблон описания проекта — научной статьи

  • Название: Название, под которым статья подается в журнал.
  • Задача: Описание или постановка задачи. Желательна постановка в виде задачи оптимизации (в формате argmin). Также возможна ссылка на классическую постановку задачи.
  • Данные: Краткое описание данных, используемых в вычислительном эксперименте, и ссылка на выборку.
  • Литература: Список научных работ, дополненный 1) формулировкой решаемой задачи, 2) ссылками на новые результаты, 3) основной информацией об исследуемой проблеме.
  • Базовой алгоритм: Ссылка на алгоритм, с которым проводится сравнение или на ближайшую по теме работу.
  • Решение: Предлагаемое решение задачи и способы проведения исследования. Способы представления и визуализации данных и проведения анализа ошибок, анализа качества алгоритма.
  • Новизна: Обоснование новизны и значимости идей (для редколлегии и рецензентов журнала).
  • Авторы: эксперт, консультант.


Задача 58

  • «Название»: Преобразование алгоритма Gerchberg-Saxton с помощью байесовских нейросетей. (или Нейросетевой подход в задаче фазового поиска для изображений с европейского синхротрона)
  • «Задача»: Цель проекта - повысить качество разрешения изображений наноразмерных объектов, полученных в лабораториях Европейского фонда синхротронного излучения.
  • «Данные»: а данными обращаться к консультанту (3GB).

Литература:

  • «Базовый алгоритм»: Переход из прямого пространства в обратное пространство происходит с помощью преобразования Фурье. Преобразование Фурье - это линейное преобразование. Поэтому предлагается его аппроксимировать нейросетью. Например автокодировщик для моделирования прямого и обратного Фурье преобразования.
  • «Решение»: Преобразование алгоритма Gerchberg-Saxton c помощью байесовских нейросетей. Использование информации о физических ограничениях и экспертные знания.
  • «Новизна» Использование информации о физических ограничениях и экспертные знания при построении функции ошибки.
  • «Авторы»: эксперты Сергей Грудинин, Юрий Чушкин, В.В. Стрижов. консультант Марк Потанин

Задача 57

  • «Название»:Аддитивная регуляризация и в задачах привилегированного обучения при решении задачи прогнозирования состояния океана
  • «Задача»: Есть выборка данных с океанских буйков, требуется прогнозировать состояние океана в разные моменты времени.
  • «Данные»: От буйков поступают данные о высоте волн, скорости ветра, направления ветра, периоде волны, давление на уровне моря, температура воздуха и температура поверхности моря с разрешением от 10 минут до 1 часа.
  • Литература:
  • «Базовый алгоритм»: Использование простой нейросети.
  • «Решение»:Добавление к базовому алгоритму(простая нейросеть) системы дифференциальных уравнений. Исследовать свойства пространства параметров учителя и ученика согласно привилегированному подходу.
  • «Новизна» Исследование пространства параметров учителя и ученика и их изменение. Возможно настроить отдельно модели учителя и ученика и проследить на изменением их параметров в процессе оптимизации - дисперсия, изменение качества ученика при добавлении информации учителя, сложность.
  • «Авторы»: В.В. Стрижов, Марк Потанин

Задача 52

  • Название: Предсказание качества моделей белков с помощью сферических сверток на трехмерных графах.
  • Задача: Целью данной работы является создание и исследование новой операции свертки на трехмерных графах в рамках решения задачи оценивания качества трехмерных моделей белков (задача регрессии на узлах графа).
  • Данные: Используются модели, сгенерированные участниками соревнований CASP (http://predictioncenter.org).
  • Литература:
    • [6] Подробно о задаче.
    • [7] Relational inductive biases, deep learning, and graph networks.
    • [8] Geometric deep learning: going beyond euclidean data.
  • Базовой алгоритм: В качестве базового алгоритма будем использовать нейросеть, основанную на методе свертки на графах, который в общем виде описывается в [9].
  • Решение: Наличие в белках пептидной цепи позволяет однозначно вводить локальные системы координат для всех узлов графа, что дает возможность создавать и применять сферические фильтры независимо от топологии графа.
  • Новизна: В общем случае графы являются нерегулярными структурами, а во многих задачах обучения на графах объекты выборки не имеют единой топологии. Поэтому существующие операции сверток на графах очень сильно упрощены, либо не обобщаются на разные топологии. В данной работе предлагается рассмотреть новый способ построения операции свертки на трехмерных графах, для которых возможно однозначно выбрать локальные системы координат, привязанные к каждому узлу.
  • Авторы: Сергей Грудинин, Илья Игашов.

Задача 51

  • Название: Анализ свойств ансамбля локально аппроксимирующих моделей.
  • Задача: В данной работе рассматривается задача построения универсального аппроксиматора --- мультимодели, которая состоит из заданого конечного набора локальных моделей. Каждая локальная модель аппроксимирует связную область в пространстве объектов. Предполагается, что совокупность локальных модели покрывают все пространство объектов. В качестве агрегирующий функции рассматривается выпуклая комбинация локальных моделей. В качестве коэффициентов выпуклой комбинации рассматривается функция зависящая от объекта --- шлюзовой функции.
  • Требуется: построить алгоритм оптимизации параметров локальных моделей и параметров шлюзовой функции. Требуется предложить метрику в пространстве объектов, метрику в пространстве моделей.
  • Данные:
    1. Синтетически сгенерированные данные.
    2. Данные прогнозирования потребления энергии. В качестве локальных моделей перелагается использовать модели: рабочий день, выходной день. (EnergyConsumption, Turk Electricity Consumption GermanSpotPrice).
  • Литература:
    1. Обзор методов для оценки объема выборки
    2. лекции Воронцова по композициям
    3. лекции Воронцова по композициям
    4. Esen Y.S., Wilson J., Gader P.D. Twenty Years of Mixture of Experts. IEEE Transactions on Neural Networks and Learning Systems. 2012. Issues. 23. No 8. P. 1177-1193.
    5. Павлов К.В. Выбор многоуровневых моделей в задачах классификации, 2012
  • Базовый алгоритм: В качестве базового алгоритма предлагается использовать двух уровненную задачу оптимизации, где производится оптимизация локальных моделей на одной итерации и на следующей итерации производится оптимизация параметров шлюзовой функции.
  • Авторы: Грабовой А. В. (консультант), Стрижов В. В. (эксперт)


Задача 53

  • Название: Решение задачи оптимизации, сочетающей классификацию и регрессию, для оценки энергии связывания белка и маленьких молекул.
  • Задача: Целью задачи является решение задачи оптимизации с функциями потерь классификации и регрессии в применении к биологическим данным.
  • Данные: Около 12,000 комплексов белков с маленькими молекулами. Для классификации для каждого из них есть 1 правильное положение в пространстве и 18 сгенерированных неправильных, для регрессии каждому комплексу соответствует значение константы связывания (пропорциональна энергии). Основными дескрипторами являются гистограммы распределений расстояний между различными атомами.
  • Литература:
  • Базовой алгоритм: В задаче классификации мы использовали алгоритм, похожий на линейный SVM, связь которого с оценкой энергии, выходящей за рамки задачи классификации, описана в статье https://hal.inria.fr/hal-01591154/. Для MSE в качестве функции потерь регрессии уже есть сформулированная двойственная задача, с реализации которой можно начать.
  • Решение: Первым этапом будет решение задачи с MSE в функции потерь с использованием удобного для вас солвера. Основной трудностью может стать большая размерность данных, но они разрежены. Далее можно будет менять формулировку задачи.
  • Новизна: Многие модели, используемые для предсказания взаимодействий белков с лигандами, "переобучены" под какую-либо задачу. Например, модели, хорошо предсказывающие энергии связывания, могут плохо выбирать связывающуюся с белком молекулу из множества несвязывающихся, а модели, хорошо определяющие правильную геометрию комплекса, могут плохо предсказывать энергии. В данной задаче предлагается рассмотреть новый подход борьбы с таким переобучением, поскольку сочетание функций потерь классификации и регрессии видится нам очень естественной регуляризацией.
  • Авторы: Сергей Грудинин, Мария Кадукова.

Задача 54

  • Название: Поиск зрачка на изображении глаза методом проекций яркости.
  • Задача: Дано монохромное растровое изображение глаза, см. примеры (https://cloud.mail.ru/public/eaou/4JSamfmrh).

Необходимо определить приблизительные координаты центра зрачка. Слово «приблизительные» означает то, что вычисленный центр зрачка должен лежать внутри окружности с центром в истинном центре зрачка и половинного истинного радиуса. Алгоритм должен быть очень быстрым.

  • Данные: около 200 тыс. изображений глаз. При для каждого размечено положение истинной окружности — в целях обучения и проверки создаваемого метода.
  • Базовой алгоритм: Для ускорения работы с изображением предлагается агрегирование данных при помощи проекций яркости. Яркость изображения — функция двух дискретных аргументов I(x,y). Её проекция на горизонтальную ось равна P(x)=\sum \limits_y I(x,y). Аналогично строятся проекции на оси с наклоном. Построив несколько проекций (две, четыре), исходя из них, можно попытаться определить положение зрачка (компактной тёмной области) при помощи эвристик и/или нейросети. Интересно оценить возможности нейросети в данной задаче.
  • Литература: Zhi-Hua Zhou, Xin Geng Projection functions for eye detection // Pattern Recognition. 2004. V.37ю N.5. P.1049-1056. https://doi.org/10.1016/j.patcog.2003.09.006
  • Авторы: Матвеев И.А.

Задача 55

  • Название: Поиск границ радужки методом круговых проекций
  • Задача: Дано монохромное растровое изображение глаза, см. примеры (https://cloud.mail.ru/public/2DBu/5c6F6e3LC). Также известно приблизительное положение центра зрачка. Слово «приблизительное» означает то, вычисленный центр зрачка отстоит от истинного не более чем на половину его истинного радиуса. Необходимо определить приблизительные положения окружностей, аппроксимирующих зрачок и радужку. Алгоритм должен быть очень быстрым.
  • Данные: около 200 тыс. изображений глаз. При для каждого размечено положение истинной окружности — в целях обучения и проверки создаваемого метода.
  • Базовой алгоритм: Для ускорения работы с изображением предлагается агрегирование данных при помощи круговых проекций яркости. Круговая проекция — функция, зависящая от радиуса, значение которой P(r) равно интегралу направленного градиента яркости изображения по окружности радиуса r (или по дуге окружности). Пример для одной дуги (правой четверти) и для четырёх дуг. Построив сколько-то круговых проекций, исходя из них, можно попытаться определить положение внутренней и внешней границ радужки (кольца) при помощи эвристик и/или нейросети. Интересно оценить возможности нейросети в данной задаче.
  • Литература: Matveev I.A. Detection of Iris in Image By Interrelated Maxima of Brightness Gradient Projections // Applied and Computational Mathematics. 2010. V.9. N.2. P.252-257. https://www.researchgate.net/publication/228396639_Detection_of_iris_in_image_by_interrelated_maxima_of_brightness_gradient_projections
  • Авторы: Матвеев И.А.

Задача 56

  • Название: Построение локальных и универсальных интерпретируемых скоринговых моделей
  • Задача: Построить простую и интерпретируемую скоринговую систему как суперпозицию локальных моделей с учетом требованиям к системе сохранять знания об опорных клиентах и признаках (другими словами, учитывать новые экономические явления). Модель должна являться суперпозицией, причем каждый элемент должен управляться своим критерием качества. Ввести расписание оптимизации структуры и параметров модели: система должна работать в единой оптимизационной цепочке. Предложить алгоритм для отбора признаков и объектов.
  • Данные:
  1. Данные от ОТП Банка. Выборка содержит записи о 15 223 клиентов, классифицированных на два класса: 1 — отклик был (1812 клиентов), 0 — отклика не было (13411 клиентов). Признаковые описания клиентов состоят из 50 признаков, в состав которых входит, в частности, возраст, пол, социальный статус относительно работы, социальный статус относительно пенсии, количество детей, количество иждивенцев, образование, семейное положение, отрасль работы. Данные доступны по следующим адресам: www.machinelearning.ru/wiki/images/2/26/Contest_MMRO15_OTP.rar (выборка А), www.machinelearning.ru/wiki/images/5/52/Contest_MMRO15_OTP_(validation).rar (выборка Б).
  2. Данные от Home Credit: https://www.kaggle.com/c/home-credit-default-risk/data
  • Литература:
  1. Strijov V.V. Error function in regression analysis // Factory Laboratory, 2013, 79(5) : 65-73
  2. Bishop C. M. Linear models for classification / В кн.: Pattern Recognition and Machine Learning. Под ред.: M. Jordan, J. Kleinberg, B. Scholkopf. – New York: Springer Science+Business Media, 2006, pp--203 – 208
  3. Токмакова А.А. Получение устойчивых оценок гиперпараметров линейных регрессионных моделей // Машинное обучение и анализ данных. — 2011. — № 2. — С. 140-155
  4. S. Scitovski and N. Sarlija. Cluster analysis in retail segmentation for credit scoring // CRORR 5. 2014. 235–245
  5. Гончаров А. В. Построение интерпретируемых моделей глубокого обучения в задаче социального ранжирования
  • Базовой алгоритм: Итерационный взвешенный МНК (описан в (2))
  • Решение: Предлагается построить скоринговую систему, содержащий такой блок предобработки, как блок порождения метрических признаков. Предлагается исследовать влияние неравноценности объектов на отбор признаков для модели, исследовать совместный отбор признаков и объектов при построении модели. Требуется реализовать расписание оптимизации структуры модели с использованием алгоритма, основанного на анализе ковариационных матриц гиперпараметров модели. Расписание включает поэтапное пополнение набора признаков и объектов. Объем выборки признаков будет определяться путем контроля дисперсии ошибки. Основной критерий качества системы: ROC AUC (Gini).
  • Новизна:
  1. Расписание оптимизации структуры модели должно удовлетворять требованию перестраивать модель в любое время, не теряя ее характеристик.
  2. Учет неравноценности объектов при отборе признаков
  • Авторы: Пугаева И. В. (консультант), Стрижов В. В. (эксперт)

Задача 44+

  • Название: Ранее прогнозирование достаточного объема выборки для обобщенно линейной модели.
  • Задача: Исследуется проблема планирования эксперимента. Решается задача оценивания достаточного объема выборки по данным. Предполагается, что выборка является простой. Она описывается адекватной моделью. Иначе, выборка порождается фиксированной вероятностной моделью из известного класса моделей. Объем выборки считается достаточным, если модель восстанавливается с достаточной достоверностью. Требуется, зная модель, оценить достаточный объем выборки на ранних этапах сбора данных.
  • Цель: на малой простой iid выборке спрогнозировать ошибку на пополняемой большой. Прогностическая модель гладкая монотонная в двух производных. Выбор модели полный перебор или генетика. Модель зависит от редуцированной (исследовать) матрицы ковариации параметров GLM.
  • Данные: Для вычислительного эксперимента предлагается использовать классические выборки из UCI репозитория. Ссылка на выборки https://github.com/ttgadaev/SampleSizeEstimation/tree/master/datasets
  • Литература:
    1. Обзор методов, мотивания и постановка задачи для оценки объема выборки
    2. http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/..
    3. Метод бутстреп. https://projecteuclid.org/download/pdf_1/euclid.aos/1..

Bishop, C. 2006. Pattern Recognition and Machine Learning. Berlin: Springer. 758 p.

  • Базовый алгоритм: Будем говорить, что объем выборки достаточный, если логарифм правдоподобия имеет малую дисперсию, на подборке размера m, посчитанную при помощи бутстрепа.

Пытаемся аппроксимировать зависимость среднего значения log-likelihood и его дисперсии от размера выборки.

  • Решение: Методы описанные в обзоре являются асимптотическими или же требуют заведомо большого размера выборки. Новый метод должен заключаться в том, чтобы прогнозировать объем на начальных этапах планирования эксперимента, то есть когда данных мало.
  • Авторы: Малиновский Г. (консультант), Стрижов В. В. (эксперт)

Задача 59

  • Название: Распределенная оптимизация в условиях Поляка-Лоясиевича
  • Задача: Ставится задача эффективного решения больших систем нелинейных уравнений, используя сеть вычислителей.
  • Решение: Предлагается новый метод децентрализованного распределенного решения систем нелинейных уравнений в условиях Поляка-Лоясиевича. Подход основан на том, что задачу распределенной оптимизации можно представить в виде задачи композитной оптимизации (см. 2 из литературы), которую в свою очередь можно решать аналогами метода подобных треугольников или слайдинга (см. 2 из литературы).
  • Базовый алгоритм: предложенный метод сравнивается с градиентным спуском и ускоренным градиентным спуском
  • Литература:
  1. Linear Convergence of Gradient and Proximal-GradientMethods Under the Polyak- Lojasiewicz Condition https://arxiv.org/pdf/1608.04636.pdf
  2. Linear Convergence for Distributed Optimization Under the Polyak-Łojasiewicz Condition https://arxiv.org/pdf/1912.12110.pdf
  3. Optimal Decentralized Distributed Algorithms for Stochastic ConvexOptimization https://arxiv.org/pdf/1911.07363.pdf
  4. Современные численные методы оптимизации, метод универсального градиентного спуска https://arxiv.org/ftp/arxiv/papers/1711/1711.00394.pdf
  • Новизна: сведение задачи распределенной оптимизации к задаче композитной оптимизации и ее решение в условиях Поляка-Лоясиевича
  • Авторы: эксперт — А.В. Гасников, консультант — А.Н. Безносиков
  • Комментарий: важно в этой задаче поставить вычислительный эксперимент, иначе задача будет плохо совместима с курсом.

Задача 12

  • Название: Обучение машинного перевода без параллельных текстов.
  • Задача: Рассматривается задача построения модели перевода текста без использования параллельных текстов, т.е. пар одинаковых предложений на разных языках. Данная задача возникает при построении моделей перевода для низкоресурсных языков (т.е. языков, для которых данных в открытом доступе немного).
  • Данные: Выборка статей из Wikipedia на двух языках.
  • Литература:
    • [10] Unsupervised Machine Translation Using Monolingual Corpora Only
    • [11] Sequence to sequence.
    • [12] Autoencoding.
    • [13] Training with Monolingual Training Data.
  • Базовый алгоритм: Unsupervised Machine Translation Using Monolingual Corpora Only.
  • Решение: В качестве модели перевода предлагается рассмотреть кобминацию двух автокодировщиков, каждый из которых отвечает за представление предложений на одном из языков. Оптимизация моделей проводится таким образом, чтобы скрытые пространства автокодировщиков для разных языков совпадали. В качестве исходного представления предложений предлагается рассматривать их графовое описание, получаемое с использованием мультиязычных онтологий.
  • Новизна: Предложен способ построения модели перевода с учетом графовых описаний предложений.
  • Авторы: О.Ю. Бахтеев, В.В. Стрижов,

Задача 17

  • Название: Прогнозирование намерений. Исследование свойств локальных моделей при пространственном декодировании сигналов головного мозга
  • Задача: При построении систем нейрокомпьютерного интерфейса (brain-computer interface) используются простые, устойчивые модели. Важным этапом построения такой модели является построение адекватного признакового пространства. Ранее такая задача решалась с помощью выделения признаков из частотных характеристик сигналов.
  • Данные: Наборы данных сигналов мозга ECoG/EEG.
  • Литература:
    1. Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer Interface // Expert systems with applications. - 2018.
    2. Eliseyev A., Aksenova T. Stable and artifact-resistant decoding of 3D hand trajectories from ECoG signals using the generalized additive model //Journal of neural engineering. – 2014.
  • Базовый алгоритм: Сравнение предлагается производить с алгоритмом частных наименьших квадратов (partial least squares).
  • Решение: В данном работе предлагается учесть пространственную зависимость между сенсорами, которые считывают данные. Для этого необходимо локально смоделировать пространственный импульс/сигнал и построить прогностическую модель на основе локального описания.
  • Новизна: Предлагается существенно новый способ построения признакового описания в задаче декодирования сигналов. Бонус: анализ изменения структуры модели, адаптация структуры при изменении выборки.
  • Авторы: В.В. Стрижов, Роман Исаченко - эксперты, консультанты – Валерий Маркин, Алина Самохина

Задача 9

  • Название: Распознавание текста на основе скелетного представления толстых линий и сверточных сетей
  • Задача: Требуется построить две CNN, одна распознает растровое представление изображения, другая векторное.
  • Данные: Шрифты в растровом представлении.
  • Литература: Список работ [14], в частности arXiv:1611.03199 и
    • Goyal P., Ferrara E. Graph embedding techniques, applications, and performance: A survey. arXiv:1705.02801, 2017.
    • Cai H., Zheng V.W., Chang K.C.-C. A comprehensive survey of graph embedding: Problems, techniques and applications. arXiv:1709.07604, 2017.
    • Grover A., Leskovec J. node2vec: Scalable Feature Learning for Networks. arXiv:1607.00653, 2016.
    • Mestetskiy L., Semenov A. Binary Image Skeleton - Continuous Approach // Proceedings 3rd International Conference on Computer Vision Theory and Applications, VISAPP 2008. P. 251-258. URL
    • Кушнир О.А., Середин О.С., Степанов А.В. Экспериментальное исследование параметров регуляризации и аппроксимации скелетных графов бинарных изображений // Машинное обучение и анализ данных. 2014. Т. 1. № 7. С. 817-827. URL
    • Жукова К.В., Рейер И.А. Связность базового скелета и параметрический дескриптор формы // Машинное обучение и анализ данных. 2014. Т. 1. № 10. С. 1354-1368. URL
    • Kushnir O., Seredin O. Shape Matching Based on Skeletonization and Alignment of Primitive Chains // Communications in Computer and Information Science. 2015. V. 542. P. 123-136. URL
  • Базовый алгоритм: Сверточная сеть для растрового изображения.
  • Решение: Требуется предложить способ свертывания графовых структур, позволяющий породить информативное описание скелета толстой линии.
  • Новизна: Предложен способ повышения качества распознавания толстых линий за счет нового способа порождения их описаний.
  • Авторы: эксперты И.А. Рейер, В.В. Стрижов, Марк Потанин, консультант Денис Ожерелков

Задача 8

  • Название: Порождение признаков с помощью локально-аппроксимирующих моделей (Классификация видов деятельности человека по измерениям фитнес-браслетов).
  • Задача: Требуется проверить выполнимость гипотезы о простоте выборки для порожденных признаков. Признаки - оптимальные параметры аппроксимирующих моделей. При этом вся выборка не является простой и требует смеси моделей для ее аппроксимации. Исследовать информативность порожденных признаков - параметров аппроксимирующих моделей, обученных на сегментах исходного временного ряда. По измерениям акселерометра и гироскопа требуется определить вид деятельности рабочего. Предполагается, что временные ряды измерений содержат элементарные движения, которые образуют кластеры в пространстве описаний временных рядов. Характерная продолжительность движения – секунды. Временные ряды размечены метками вида деятельности: работа, отдых. Характерная продолжительность деятельности – минуты. Требуется по описанию временного ряда и кластера восстановить вид деятельности.
  • Данные: Временные ряды акселерометра WISDM (Временной ряд (библиотека примеров), раздел Accelerometry).
    • WISDM (Kwapisz, J.R., G.M. Weiss, and S.A. Moore. 2011. Activity recognition using cell phone accelerometers. ACM SigKDD Explorations Newsletter. 12(2):74–82.), USC-HAD или сложнее. Данные акселерометра (Human activity recognition using smart phone embedded sensors: A Linear Dynamical Systems method, W Wang, H Liu, L Yu, F Sun - Neural Networks (IJCNN), 2014)
  • Литература:
    • Motrenko A.P., Strijov V.V. Extracting fundamental periods to segment human motion time series // Journal of Biomedical and Health Informatics, 2016, Vol. 20, No. 6, 1466 - 1476. URL
    • Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016.URL
    • Кузнецов М.П., Ивкин Н.П. Алгоритм классификации временных рядов акселерометра по комбинированному признаковому описанию // Машинное обучение и анализ данных. 2015. T. 1, № 11. C. 1471 - 1483. URL
    • Исаченко Р.В., Стрижов В.В. Метрическое обучение в задачах многоклассовой классификации временных рядов // Информатика и ее применения, 2016, 10(2) : 48-57. URL
    • Задаянчук А.И., Попова М.С., Стрижов В.В. Выбор оптимальной модели классификации физической активности по измерениям акселерометра // Информационные технологии, 2016. URL
    • Ignatov A., Strijov V. Human activity recognition using quasiperiodic time series collected from a single triaxial accelerometer // Multimedia Tools and Applications, 2015, 17.05.2015 : 1-14. URL
  • Базовый алгоритм: Базовый алгоритм описан в работах [Карасиков, Стрижов: 2016] и [Кузнецов, Ивкин: 2014].
  • Решение: Требуется построить набор локально-аппроксимирующих моделей и выбрать наиболее адекватные. Найти оптимальный способ сегментации и оптимальное описание временного ряда. Построить метрическое пространство описаний элементарных движений.
  • Новизна: Создан стандарт построения локально-аппроксимирующих моделей. Соединение двух характеристических времен описания жизни человека, комбинированная постановка задачи.
  • Авторы: В.В. Стрижов (эксперт), Александра Гальцева, Данил Сайранов (консультанты)

Задача 60

  • Название: Вариационная оптимизация моделей глубокого обучения с контролем сложности модели
  • Задача: рассматривается задача оптимизации модели глубокого обучения с заранее заданной сложностью модели. Требуется предложить метод оптимизации модели, позволяющий производить порождение новых моделей с заданной сложностью и небольшими вычислительными затратами.
  • Данные:MNIST, CIFAR
  • Литература:
  • Базовый алгоритм: случайный поиск
  • Решение: Предлагаемый метод заключается в представлении модели глубокого обучения в виде гиперсети (сети, которая генерирует параметры другой сети) с использованием байесовского подхода. Вводятся вероятностные предположения о параметрах моделей глубокого обучения, максимизируется вариационная нижняя оценка байесовской обоснованности модели. Вариационная оценка рассматривается как условная величина, зависящая от внешнего параметра сложности.
  • Новизна: предложенный метод позволяет порождать модели в режиме one-shot (практически без переподготовки) с требуемой сложностью модели, что значительно снижает затраты на оптимизацию и дообучение.
  • Авторы: О.Ю. Бахтеев, В.В. Стрижов

Задача 61

  • Название: Выбор модели глубокого обучения на основе триплетной связи модели и выборки
  • Задача: рассматривается задача one-shot выбора модели глубокого обучения: выбор модели под конкретную выборку, выданную из некоторой генеральной совокупнсоти, не должен быть вычислительно затратным.
  • Данные:MNIST, синтетические данные
  • Литература:
  • Базовый алгоритм: случайный поиск
  • Решение: Предлагается рассматривать пространство параметров и моделей как два домена со своими генеративными моделями. Для получения связзи между доменами используется обобщение вариационного вывода на случай триплетных ограничений.
  • Новизна: Новый метод one-shot обучения моделей
  • Авторы: О.Ю. Бахтеев, В.В. Стрижов

Задача 62

  • Название: Построение метода динамического выравнивания многомерных временных рядов, устойчивого к локальным колебаниям сигнала.
  • Задача: В процессе работы с многомерными временными рядами распространена ситуация близкого расположения датчиков, соответствующих различным каналам измерений. В результате малые смещения сигнала в пространстве могут приводить к фиксации пика сигнала соседними датчиками, что ведет к значительным различиям измерений в смысле L2 расстояния.
    Таким образом, малые смещения сигнала приводят к появлению значительных флуктуаций показаний датчиков. Рассматривается задача построения функции расстояния между точками временных рядов, устойчивой к шуму, порожденному малыми пространственными смещениями сигнала. Необходимо рассмотреть задачу в приближении наличия карты расположения датчиков.
  • Данные:
    • Измерения активность мозга обезьян
    • Искусственно созданные данные (надо предложить несколько вариантов, например: движение сигнала в пространстве по часовой и против часовой стрелки)
  • Литература:
  • Базовый алгоритм: L2 расстояние между парой измерений.
  • Решение: использовать функцию расстояния DTW между двумя многомерными временными рядами. Выравниваются две оси времени, при этом внутри функционала DTW выбирается расстояние между i-м и j-м измерениями такое, что оно устойчиво к локальным “сдвигам” сигнала. Требуется предложить такой функционал. Базовое решение - L2, улучшенное решение - DTW между i-м и j-м измерениями (dtw внутри dtw).
    Можно предложить какую-либо модификацию, например расстояния между скрытыми слоями автоэнкодера для точек i и j.
  • Новизна: Предлагается способ выравнивания многомерных временных рядов, учитывающий малые колебания сигнала в пространстве.
  • Авторы: В.В. Стрижов - эксперт, Глеб Моргачев, Алексей Гончаров - консультанты.

Задача 63

  • Название: Иерархическое выравнивание временных последовательностей.
  • Задача: Рассматривается задача выравнивания последовательностей сложных событий. Примером может служить сложносоставное поведение человека: при рассмотрении данных IMU-датчиков можно выдвинуть гипотезу: есть исходный сигнал, есть агрегаты “элементарных действий” и есть агрегаты “действий” человека. Каждый из указанных уровней абстракции можно выделить и оперировать именно им.
    Для того, чтобы проводить точное распознавание последовательности действий возможно применять метрические методы (например DTW, как способ, устойчивый к временным сдвигам). Для более точного качества выравнивания временной шкалы возможно проводить выравнивание на разных уровнях абстракций.
    Предлагается исследовать такой иерархический подход к выравниванию последовательностей, основанный на возможности применения алгоритмов выравнивания к объектам разной структуры, имея функцию расстояние на них.
  • Литература:
  • Базовый алгоритм: классический DTW.
  • Решение: Предлагается выполнять переход от одного уровня абстракции к другому путем применения сверточных и рекуррентных нейронных сетей. Тогда объектом на нижнем уровне абстракции служит исходный сигнал. На втором уровне - сигнал из скрытого слоя модели (построенной на объектах нижнего уровня), размерность которого много меньше, а верхнего слоя - сигнал из скрытого слоя модели (построенной на объектах среднего уровня).
    При этом DTW вычисляется отдельно между нижними, между средними и между верхними уровнями, но формирование объектов для расчета расстояния осуществляется с учетом выравнивающего пути между объектами предыдущего уровня.
    Данный метод рассматривается как способ повышения интерпретируемости процедуры выравнивания и точности классификации действия в связи с переходом к более высокоуровневым паттернам. Кроме того, ожидается существенное увеличение скорости работы.
  • Новизна: Предлагается идея выравнивания временных последовательностей одновременно на нескольких уровнях абстракции. Метод должен существенно улучшить интерпретируемость алгоритмов выравнивания и повысить скорость их работы.
  • Авторы: В.В. Стрижов - эксперт, Глеб Моргачев, Алексей Гончаров - консультанты.

Задача 64

  • Название: Теоретическая обоснованность применения метрических методов классификации с использованием динамического выравнивания (DTW) к пространственно-временным объектам.
  • Задача: Необходимо изучить существующие теоретические обоснования применения методов динамического выравнивания для различных объектов, и исследовать использование таких методов к пространственно-временным рядам.
    При доказательстве применимости методов выравнивания доказывают, что функция, порождаемая алгоритмом динамического выравнивания является ядром. Что, в свою очередь, обосновывает применение метрических методов классификации.
  • Литература:
  • Решение: Для различных формулировок метода DTW (когда внутренняя функция расстояния между отсчетами временных рядов - различна) - найти и собрать в одном месте доказательства того, что функция является ядром.
    Для базового набора датасетов со временными рядами (на которых проверяется точность функций расстояния) проверить выполнение условий из теоремы Мерсера (положительная определенность матрицы). Проделать это для различных модификаций функции расстояния DTW. (Sakoe-Chiba band, Itakura band, weighted DTW.)
  • Новизна: Исследование теоретических обоснований применения алгоритма динамического выравнивания (DTW) и его модификаций к пространственно-временным рядам.
  • Авторы: В.В. Стрижов - эксперт, Глеб Моргачев, Алексей Гончаров - консультанты.

Задача 66

  • Название: Agnostic neural networks
  • Задача: Ввести метрическое пространство в задачу автоматического построения (выбора) агностических сетей.
  • Данные: Данные из области Reinforcement learning. Желательно типа машинок на трассе.
  • Литература:
  • Базовой алгоритм: Сети из статьи в архиве. Символьная регрессия из статьи в ESwA (надо восстановить код).
  • Решение: Создаем генератор моделей в рамках символьной регрессии. Создаем генератор моделей как вариационный автоэнкодер (не успеем в течение курса). Изучаем метрические свойства пространств выборки (евклидово) и моделей (банахово). Создаем пару GAN - генератор-дискриминатор для прогнозирования структур прогностических моделей.
  • Новизна: Пока ни у кого не получалось. Тут обсуждали Томми Яакколу, как он к нам в Яндекc приезжал. У него тоже пока не получилось.
  • Авторы: эксперт В.В. Стрижов, Радослав Нейчев - консультант

Задача 13

  • Название: Deep learning for RNA secondary structure prediction
  • Задача: RNA secondary structure is an important feature which defines RNA functional properties. Its importance can be illustrated by the fact, that it is evolutionary preserved and some types of functional RNAs always * have the same secondary structure, for example all tRNAs fold into cloverleaf. As secondary structure often defines functions, knowing RNAs secondary structure may help investigate functions of novel RNA molecules. RNA folding is not as easy as DNA folding, because RNA is single stranded molecule which forms complicated base-pairing interactions, while DNA mostly exists as fully base paired double helices. Current methods of RNA structure prediction rely on experimentally evaluated thermodynamic rules, but with thermodynamics alone only 80% of structures can be accurately predicted. We propose an AI-driven method for predicting RNA secondary structure inspired by neural machine translation model.
  • Данные: RNA sequences in form of strings of characters
  • Литература: https://arxiv.org/abs/1609.08144
  • Базовой алгоритм: https://www.ncbi.nlm.nih.gov/pubmed/16873527
  • Решение: Deep learning recurrent encoder-decoder model with attention
  • Новизна: Currently RNA secondary structure prediction still remains unsolved problem and to the best of our knowledge DL approach has never been introduced in the literature before
  • Авторы: консультант Мария Попова, Александр Исаев (ждем от них отклика, без отклика задача снимается)

Задача 65

  • Название: Аппроксимация выборок малой размерности разнородными моделями
  • Задача: Исследуется проблема передачи знаний (дистилляция Хинтона, привилегированное обучение Вапника) от одной сети другой.
  • Данные: Выбоки UCI, посмотреть, какие выборки используются в работах по этой теме
  • Литература:
  • Базовой алгоритм: описан в работе Нейчева
  • Новизна: Исследование различных способов построения выборки
  • Решение: попробовать различные модели, которые есть в лекциях, от непараметрических, до глубоких, сравнить и визуализировать функции правдоподобия
  • Авторы: консультанты Марк Потанин, (попросить помощи у Андрея Грабового) В.В. Стрижов

Задача 67

  • Название: Отбор тем в тематических моделях для разведочного информационного поиска.
  • Задача: Проверить гипотезу, что при поиске схожих документов по их тематическим векторам не все темы информативны, поэтому отбрасывание некоторых тем может повышать точность и полноту поиска. Рассмотреть альтернативную гипотезу, что вместо отбрасывания тем можно сравнивать векторы по взвешенной косинусной мере близости с настраиваемыми весами.
  • Данные: Текстовые коллекции сайтов habr.com и techcrunch.com. Размеченные выборки: запросы и релевантные им документы.
  • Литература:
    1. Воронцов К. В. Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация.
    2. Ianina A., Vorontsov K. Regularized Multimodal Hierarchical Topic Model for Document-by-Document Exploratory Search // FRUCT ISMW, 2019.
  • Базовой алгоритм: тематическая модель с регуляризаторами и модальностями, описанная в статье (имеется исходный код).
  • Новизна: Вопрос об информативности тем для векторного поиска тематически близких документов ранее не исследовался.
  • Решение: Оценить индивидуальную информативность тем, выкидывая их по одной; затем отсортировать темы по индивидуальной информативности и определить порог отсечения неинформативных тем. Наводящее соображение, почему это должно работать: фоновые темы не являются информативными, и их отбрасывание увеличивает точность и полноту поиска на несколько процентов.
  • Авторы: К.В.Воронцов, консультант Анастасия Янина.

Задача 68

  • Название: Метаобучение тематических моделей классификации.
  • Задача: Выработать универсальные эвристики для априорного задания весов модальностей в тематических моделях классификации текстов.
  • Данные: Описание датасетов, Папка с датасетами.
  • Литература:
    1. Воронцов К. В. Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация.
  • Базовой алгоритм: Тематические модели классификации для нескольких датасетов.
  • Новизна: В тематическом моделировании до сих пор не решена проблема автоматического подбора весов модальностей.
  • Решение: Оптимизировать веса модальностей по критерию качества классификации текстов. Исследовать зависимость оптимальных относительных весов модальностей от размерных характеристик задачи. Найти формулы для оценивания начальных значений весов модальностей без явного решения задачи. Для размножения датасетов применить семплирование фрагментов исходных документов.
  • Авторы: К.В.Воронцов, консультант Юлиан Сердюк.

Задача 69

  • «Название»: Graph Neural Network in Reaction Yield prediction
  • «Задача»: There are disconnected graphs of source molecules and products in a chemical reaction. The yield of the main product in the reaction is known. It is required to design an algorithm that predicts yield by solving the regression task on given disconnected graphs.
  • «Данные»: Database of reaction from US patents [17]
  • Литература:
    • [18] A general overview.
    • [19] Relational Graph Convolution Neural Network
    • [20] Transformer architecture
    • [21] Graph neural network learning for chemical compounds synthesis
  • «Базовый алгоритм»: Transformer model. The input sequence is a SMILES representation of the source and product molecules.
  • «Решение»: A pipeline for working with disconnected graphs is proposed. The pipeline includes the construction of extended graph with molecule and reaction representation, Relational Graph Convolution Neural Network, Encoder of Transformer. The method is applied to solve yield predictions.
  • «Новизна» A solution for regression problem on the given disconnected graph is constructed; the approach demonstrates better performance compared with other solutions
  • «Авторы»: Nikitin Filipp, Isayev Olexandr

Задача 70

  • Название: Исследование структуры целевого пространства при построении предсказательной модели
  • Задача: Исследуется задача прогнозирования сложной целевой переменной. Под сложностью подразумевается наличие зависимостей (линейных или нелинейных). При этом предполагается, что исходные данные гетерогенны: пространства независимой и целевой переменных имеют разную природу. Требуется построить предсказательную модель, которая бы учитывала зависимость в исходном пространстве независимой переменной, а также в пространстве целевой переменной.
  • Данные: Гетерогенные данные: картинка - текст, картинка - речь и тд
  • Базовой алгоритм: В качестве базовых алгоритмов предлагается использовать линейную модель, а также нелинейную нейросетевую модель.
  • Авторы: В.В. Стрижов - эксперт, консультант: Исаченко Роман.

Задача 71

  • Название: Исследование способов согласования моделей с помощью снижения размерности пространства
  • Задача: Исследуется задача прогнозирования сложной целевой переменной. Под сложностью подразумевается наличие зависимостей (линейных или нелинейных). Предлагается изучить способы учета зависимостей в пространстве целевой переменной, а также условия, при которых данные зависимости влияют на качестве финальной предсказательной модели
  • Данные: Синтетические данные с известной гипотезой порождения данных
  • Базовой алгоритм: В качестве базовых алгоритмов предлагается использовать методы снижения размерности пространства (PCA, PLS, автоэнкодер) и линейные модели согласования.
  • Авторы: В.В. Стрижов - эксперт, консультант: Исаченко Роман.

Задача 72

  • Название: Построение единого скрытого пространства в задаче моделирования гетерогенных данных
  • Задача: Исследуется задача прогнозирования сложной целевой переменной. Под сложностью подразумевается наличие зависимостей (линейных или нелинейных). Предлагается построить единое скрытое пространство для независимой и целевой переменных. Согласование моделей предлагается производить в полученном низкоразмерном пространстве.
  • Данные: Гетерогенные данные: картинка - текст, картинка - речь, текст - текст и тд
  • Базовой алгоритм: В качестве базовых алгоритмов предлагается использовать методы снижения размерности пространства (PCA, PLS, автоэнкодер) и линейные модели согласования.
  • Авторы: В.В. Стрижов - эксперт, консультант: Исаченко Роман.

Задача 73

  • Название: Нелинейное ранжирование результатов разведочного информационного поиска.
  • Задача: Разработать алгоритм для рекомендации порядка чтения документов (reading order, reading list), найденных с помощью разведочного информационного поиска. Документы должны ранжироваться от простого к сложному, от общего к частному, то есть в том порядке, в котором пользователю будет легче разбираться в новой для него тематической области. Алгоритм должен строить граф чтения — отношение частичного порядка на множестве найденных документов; в частности, это может быть совокупность деревьев (лес документов).
  • Данные: Часть Википедии и эталонный граф чтения, получаемый из категорий Википедии.
  • Литература:
    1. Воронцов К. В. Вероятностное тематическое моделирование: обзор моделей и аддитивная регуляризация.
    2. Georgia Koutrika, Lei Liu, and Steven Simske. Generating reading orders over document collections. HP Laboratories, 2014.
    3. James G. Jardine. Automatically generating reading lists. Cambridge, 2014.
  • Базовой алгоритм: описан в статье G.Koutrika.
  • Новизна: Задача мало исследовалась в литературе. Регуляризованные мультимодальные тематические модели (ARTM, BigARTM) никогда не применялись к данной задаче.
  • Решение: Использование тематических моделей ARTM совместно с оценками когнитивной сложности текста.
  • Авторы: К.В.Воронцов, консультант Максим Еремеев.
Личные инструменты