Обсуждение:Моя первая научная статья (практика, В.В. Стрижов)/Группы 774, 794, весна 2020

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Задача 12??)
Строка 53: Строка 53:
* '''Новизна''': Предложен способ построения модели перевода с учетом графовых описаний предложений.
* '''Новизна''': Предложен способ построения модели перевода с учетом графовых описаний предложений.
* '''Авторы''': О.Ю. Бахтеев, В.В. Стрижов,
* '''Авторы''': О.Ю. Бахтеев, В.В. Стрижов,
 +
 +
=== Задача 17 ===
 +
* '''Название''': Прогнозирование намерений. Исследование свойств локальных моделей при пространственном декодировании сигналов головного мозга
 +
* '''Задача''': При построении систем нейрокомпьютерного интерфейса (brain-computer interface) используются простые, устойчивые модели. Важным этапом построения такой модели является построение адекватного признакового пространства. Ранее такая задача решалась с помощью выделения признаков из частотных характеристик сигналов.
 +
* '''Данные''': Наборы данных сигналов мозга ECoG/EEG.
 +
* '''Литература''':
 +
*# Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer Interface // Expert systems with applications. - 2018.
 +
*# Eliseyev A., Aksenova T. Stable and artifact-resistant decoding of 3D hand trajectories from ECoG signals using the generalized additive model //Journal of neural engineering. – 2014.
 +
* '''Базовый алгоритм''': Сравнение предлагается производить с алгоритмом частных наименьших квадратов (partial least squares).
 +
* '''Решение''': В данном работе предлагается учесть пространственную зависимость между сенсорами, которые считывают данные. Для этого необходимо локально смоделировать пространственный импульс/сигнал и построить прогностическую модель на основе локального описания.
 +
* '''Новизна''': Предлагается существенно новый способ построения признакового описания в задаче декодирования сигналов. Бонус: анализ изменения структуры модели, адаптация структуры при изменении выборки.
 +
* '''Авторы''': В.В. Стрижов, Роман Исаченко - эксперты, [https://www.researchgate.net/profile/Tetiana_Aksenova Tetiana Aksenova], консультанты – Валерий Маркин, Алина Самохина

Версия 16:45, 11 февраля 2020

На этой странице публикуются версии задач, предназначенные для студентов третьего курса семестра Весна 2020

Содержание

Список проектов

Шаблон описания проекта — научной статьи

  • Название: Название, под которым статья подается в журнал.
  • Задача: Описание или постановка задачи. Желательна постановка в виде задачи оптимизации (в формате argmin). Также возможна ссылка на классическую постановку задачи.
  • Данные: Краткое описание данных, используемых в вычислительном эксперименте, и ссылка на выборку.
  • Литература: Список научных работ, дополненный 1) формулировкой решаемой задачи, 2) ссылками на новые результаты, 3) основной информацией об исследуемой проблеме.
  • Базовой алгоритм: Ссылка на алгоритм, с которым проводится сравнение или на ближайшую по теме работу.
  • Решение: Предлагаемое решение задачи и способы проведения исследования. Способы представления и визуализации данных и проведения анализа ошибок, анализа качества алгоритма.
  • Новизна: Обоснование новизны и значимости идей (для редколлегии и рецензентов журнала).
  • Авторы: эксперт, консультант.

Задача 44

  • Название: Ранее прогнозирование достаточного объема выборки для обобщенно линейной модели.
  • Задача: Исследуется проблема планирования эксперимента. Решается задача оценивания достаточного объема выборки по данным. Предполагается, что выборка является простой. Она описывается адекватной моделью. Иначе, выборка порождается фиксированной вероятностной моделью из известного класса моделей. Объем выборки считается достаточным, если модель восстанавливается с достаточной достоверностью. Требуется, зная модель, оценить достаточный объем выборки на ранних этапах сбора данных.
  • Данные: Для вычислительного эксперимента предлагается использовать классические выборки из UCI репозитория. Ссылка на выборки https://github.com/ttgadaev/SampleSize/tree/master/datasets
  • Литература:
    1. [Обзор методов для оценки объема выборки]
    2. http://svn.code.sf.net/p/mlalgorithms/code/PhDThesis/..
    3. Метод бутстреп. https://projecteuclid.org/download/pdf_1/euclid.aos/1..

Bishop, C. 2006. Pattern Recognition and Machine Learning. Berlin: Springer. 758 p.

  • Базовый алгоритм: Будем говорить, что объем выборки достаточный, если логарифм правдоподобия имеет малую дисперсию, на подборке размера m, посчитанную при помощи бутстрепа.

Пытаемся аппроксимировать зависимость среднего значения log-likelihood и его дисперсии от размера выборки.

  • Решение: Методы описанные в обзоре являются асимптотическими или же требуют заведомо большого размера выборки. Новый метод должен заключаться в том, чтобы прогнозировать объем на начальных этапах планирования эксперимента, то есть когда данных мало.
  • Авторы: Малиновский Г. (консультант), Стрижов В. В. (эксперт)


Задача XX

  • Название: Распределенная оптимизация в условиях Поляка-Лоясиевича
  • Задача: Ставится задача эффективного решения больших систем нелинейных уравнений, используя сеть вычислителей.
  • Решение: Предлагается новый метод децентрализованного распределенного решения систем нелинейных уравнений в условиях Поляка-Лоясиевича. Подход основан на том, что задачу распределенной оптимизации можно представить в виде задачи композитной оптимизации (см. 2 из литературы), которую в свою очередь можно решать аналогами метода подобных треугольников или слайдинга (см. 2 из литературы).
  • Базовый алгоритм: предложенный метод сравнивается с градиентным спуском и ускоренным градиентным спуском
  • Литература:
  1. Linear Convergence of Gradient and Proximal-GradientMethods Under the Polyak- Lojasiewicz Condition https://arxiv.org/pdf/1608.04636.pdf
  2. Linear Convergence for Distributed Optimization Under the Polyak-Łojasiewicz Condition https://arxiv.org/pdf/1912.12110.pdf
  3. Optimal Decentralized Distributed Algorithms for Stochastic ConvexOptimization https://arxiv.org/pdf/1911.07363.pdf
  4. СОВРЕМЕННЫЕ ЧИСЛЕННЫЕ МЕТОДЫ ОПТИМИЗАЦИИ.МЕТОД УНИВЕРСАЛЬНОГО ГРАДИЕНТНОГО СПУСКА https://arxiv.org/ftp/arxiv/papers/1711/1711.00394.pdf
  • Новизна: сведение задачи распределенной оптимизации к задаче композитной оптимизации и ее решение в условиях Поляка-Лоясиевича
  • Авторы: эксперт — А.В. Гасников, консультант — А.Н. Безносиков

Задача 12??

  • Название: Обучение машинного перевода без параллельных текстов.
  • Задача: Рассматривается задача построения модели перевода текста без использования параллельных текстов, т.е. пар одинаковых предложений на разных языках. Данная задача возникает при построении моделей перевода для низкоресурсных языков (т.е. языков, для которых данных в открытом доступе немного).
  • Данные: Выборка статей из Wikipedia на двух языках.
  • Литература:
    • [1] Unsupervised Machine Translation Using Monolingual Corpora Only
    • [2] Sequence to sequence.
    • [3] Autoencoding.
    • [4] Training with Monolingual Training Data.
  • Базовый алгоритм: Unsupervised Machine Translation Using Monolingual Corpora Only.
  • Решение: В качестве модели перевода предлагается рассмотреть кобминацию двух автокодировщиков, каждый из которых отвечает за представление предложений на одном из языков. Оптимизация моделей проводится таким образом, чтобы скрытые пространства автокодировщиков для разных языков совпадали. В качестве исходного представления предложений предлагается рассматривать их графовое описание, получаемое с использованием мультиязычных онтологий.
  • Новизна: Предложен способ построения модели перевода с учетом графовых описаний предложений.
  • Авторы: О.Ю. Бахтеев, В.В. Стрижов,

Задача 17

  • Название: Прогнозирование намерений. Исследование свойств локальных моделей при пространственном декодировании сигналов головного мозга
  • Задача: При построении систем нейрокомпьютерного интерфейса (brain-computer interface) используются простые, устойчивые модели. Важным этапом построения такой модели является построение адекватного признакового пространства. Ранее такая задача решалась с помощью выделения признаков из частотных характеристик сигналов.
  • Данные: Наборы данных сигналов мозга ECoG/EEG.
  • Литература:
    1. Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer Interface // Expert systems with applications. - 2018.
    2. Eliseyev A., Aksenova T. Stable and artifact-resistant decoding of 3D hand trajectories from ECoG signals using the generalized additive model //Journal of neural engineering. – 2014.
  • Базовый алгоритм: Сравнение предлагается производить с алгоритмом частных наименьших квадратов (partial least squares).
  • Решение: В данном работе предлагается учесть пространственную зависимость между сенсорами, которые считывают данные. Для этого необходимо локально смоделировать пространственный импульс/сигнал и построить прогностическую модель на основе локального описания.
  • Новизна: Предлагается существенно новый способ построения признакового описания в задаче декодирования сигналов. Бонус: анализ изменения структуры модели, адаптация структуры при изменении выборки.
  • Авторы: В.В. Стрижов, Роман Исаченко - эксперты, Tetiana Aksenova, консультанты – Валерий Маркин, Алина Самохина
Личные инструменты