# Математические методы прогнозирования/Осень 2022

(Различия между версиями)
Перейти к: навигация, поиск
 Версия 22:48, 25 сентября 2022 (править) (→Lab 104a Singular spectrum analysis, multivariate)← К предыдущему изменению Версия 22:49, 25 сентября 2022 (править) (отменить) (→RESUME (end of Lab series I))К следующему изменению → Строка 221: Строка 221: and error correction (Uvarov's paper) and error correction (Uvarov's paper) - ===RESUME (end of Lab series I)=== + ===RESUME of Lab series I=== Golden rules of forecasting Golden rules of forecasting # The forecast horizon is a segment in the time-scale (there is no one-point forecast). # The forecast horizon is a segment in the time-scale (there is no one-point forecast).

## Версия 22:49, 25 сентября 2022

Each tuesday 16:10 at the channel m1p.org/go_zoom

Ведущие Алина Самохина, Денис Тихонов, Святослав Панченко

Короткая ссылка bit.ly/3QAOYPd

# Mathematical forecasting

This course delivers methods of model selection in machine learning and forecasting. The modelling data are videos, audios, encephalograms, fMRIs and another measurements in natural science. The models are linear, tensor, deep neural networks, and neural ODEs. The practical examples are brain-computer interfaces, weather forecasting and various spatial-time series forecasting. The lab works are organised as paper-with-code reports.

## Schedule

• [Sep] 6-s1, 13-s2, 20-s3, 27-s4 – lab 1
• [Oct] 4, 14, 18, 25 – lab 2, 3
• [Nov] 8, 15, 22, 29 – lab 4
• [Dec] 6, 13 exam

## Lab works

Lab work contains report in the notebook and talk with discussion

1. Title and motivated abstract
2. Problem statement
3. Model, problem solution
4. Code, analysis and illustrative plots
5. References

Note: the model (and sometimes data) are personal. The rest – infrastructure, error functions, plots, are welcome to be created collectively and shared.

Topics of the lab works are

• Autoregressive forecasting (Singular Structure Analysis)
• Spatial-time forecasting (Tensor Decomposition)
• Signal decoding (Projection to Latent Space)
• Continuous-time forecasting (Neural Differential Equations)

Four lab works within deadlines and the exam on topics with problems and discussion. Each lab gives 2pt, the exam gives 2pt, so 2*4+2=10.

## Lecture topics

• Energy forecasting example
• Regression
• Linear model
• Model selection call
• Forecasting protocol
• Error functions
• Singular spectrum analysis
• SSA forecasting
• Forecasting protocols and verification (before AR)
• Autoregression
• Singular values decomposition (PCA, AE, Kar-Lo)
• QPFS model selection
• Auto, cross-correlation, cointegration
• Diagrams for ML and PLS
• Projection to latent space and relation to PCA, canonical-correlation analysis
• PLS-QPFS model selection
• Higher-order SSA
• Tensor decomposition
• Tensor model selection
• HOPLS
• Granger causality test
• Convergent cross mapping
• HOCCM to invent
• Taken’s theorem
• ResNet, Neural ODE
• Flows and forecasting
• Space state models
• S4, Hippo, SaShiMi models
• (if room) Neural PDE, Lagrangian, Hamiltonian nns.

\\ To include

• RNN, LSTM, attention, transformer models
• Directional regression
• Harmonic functions
• Phase extraction
• Non-parametric regression and customer demands forecasting
• Graph earth prediction

## Format of the lab works

1. Create a .pynb or .py file Surname2022Lab in the folder
2. The report also could be in the .tex file.
3. Find the format of your report above.
4. The computational experiment contains common part and individual part.
5. Common part:
1. use four short sample set [airplane], [electricity], [accelerometer hand motion], [video hand motion],
2. prepare the design matrix and target a scalar/vector for each time sample (in the form time, vecx, vecy),
3. set the forecast horizon, plot the forecast and estimate the error.
6. Individual part:
1. select a lab work and specify your model (you can adopt any code available for),
2. tune parameters, make your forecast according the horizon,
3. write the report.
7. Error analysis is a part of the report:
8. plot of the forecast,
9. MAPE error (and your optimization error, if available) and its standard deviation,
10. prove your model has the optimal structure, try various structure parameters.

Details:

1. time refers to each sample (in unix or any useful format),
2. the horizon is an expected fundamental period,
3. note that the historical time ends before the forecasting period, it means we could use either historical data or the forecasted data (the historical data are not updated after history ends),
4. the forecasting protocol is in parer, text, slides by Nikita Uvarov.

Examples:

1. Old format of the report
2. Code and project
3. Previous project from Sourceforge.net

## Lab work series I

### Lab 101 Kernel smoothing

Метод ядерного сглаживания временного ряда, как один из видов непараметрической регрессии. Он восстанавливает функцию времени взвешенной линейной комбинацией точек из некоторой окрестности. Непрерывную ограниченную симметричную вещественную весовую функцию называют ядром. Полученная ядерная оценка используется для прогнозирования следующей точки ряда. Исследуется зависимость качества прогнозирования от параметров ядра и наложенного шума см. Хардле. Select an optimal kernel to forecast a point of a phase trajectory in multivariate time series. Example

### Lab 102 Exponential smoothing

Алгоритм экспоненциального сглаживания для прогнозирования временных рядов. Он учитывает предыдущие значения ряда с весами, убывающими по мере удаления от исследуемого участка временного ряда. Изучить поведение алгоритма на модельных данных в различных моделях весов. Проанализировать работу алгоритма на биржевых индексах. Select points of phase trajectory to smooth. Модели экспоненциального сглаживания:

1. Модель Брауна — экспоненциальное сглаживание
2. Модель Хольта — учитываются линейный тренд без сезонности
3. Модель Хольта-Уинтерса — учитываются мультипликативный тренд и сезонность
4. Модель Тейла-Вейджа — учитываются аддитивный тренд и сезонность
5. Модель Тригга-Лича — следящий контрольный сигнал используется для адаптации параметров адаптации
6. Сезонность

### Lab 103 Local forecasting

Временной ряд делится на отдельные участки, каждому из которых сопоставляется точка в n-мерном пространстве признаков. Локальная модель рассчитывается в три последовательных этапа. Первый – находит k-ближайших соседей наблюдаемой точки. Второй – строит простую модель, используя только этих k соседей. Третий – используя данную модель, по наблюдаемой точке прогнозирует следующую. Многие исследователи, используют эвклидову метрику для измерения расстояний между точками. Данная работа призвана сравнить точность прогнозирования при использовании различных метрик, в первую очередь Махаланобиса. В частности, требуется исследовать оптимальный набор весов во взвешенной метрике для максимизации точности прогнозирования. Example

### Lab 103a Local forecasting with invariants

Find invariant translation in time (linear or non-linear) and in phase space (shift and scale). В проекте используются локальные методы прогнозирования временных рядов. В этих методах не находится представления временного ряда в классе заданных функций от времени. Вместо этого прогноз осуществляется на основе данных о каком-то участке временного ряда (используется локальная информация). В данной работе подробно исследован следующий метод (обобщение классического «ближайшего соседа»).

Пусть имеется временной ряд, и стоит задача продолжить его. Предполагается, что такое продолжение определяется предысторией, т.е. в ряде нужно найти часть, которая после некоторого преобразования A становится схожа с той частью, которую мы стремимся прогнозировать. Поиск такого преобразования A и есть цель данного проекта. Для определения степени сходства используется функция B – функция близости двух отрезков временного ряда (подробнее об этом см. здесь). Так мы находим ближайшего соседа к нашей предыстории. В общем случае ищем несколько ближайших соседей. Продолжение запишется в виде их линейной комбинации.

### Lab 104 Singular spectrum analysis

В работе описывается метод гусеницы и его применение для прогнозирования временных рядов. Алгоритм основан на выделении из изучаемого временного ряда его информативных компонент и последующего построения прогноза. Исследуется зависимость точности прогнозов от выбора длины гусеницы и числа ее компонент. В вычислительном эксперименте приводятся результаты работы алгоритма на периодических рядах с разным рисунком внутри периода, на рядах с нарушением периодичности, а так же на реальных рядах почасовой температуры.

(Old variant Метод содержит четыре этапа - представление временного ряда в виде матрицы при помощи сдвиговой процедуры, вычисление ковариационной матрицы выборки и сингулярное ее разложение, отбор главных компонент,относящихся к различным составляющим ряда (от медленно меняющихся и периодических до шумовых), и, наконец, восстановление ряда. Областью применения алгоритма являются задачи как метеорологии и геофизики, так и экономики и медицины. Целью данной работы является выяснение зависимости эффективности алгоритма от выбора временных рядов, используемых в его работе.) Example, Example, Example

### Lab 104a Singular spectrum analysis

Forecast a multivariate series, the target time series are subset of the design.

### Lab 105 Simple neural network

Forecast a (multivariate) time series with 2-NN. Find the optimal number of neurons. (Old variant Исследование зависимости качества прогнозирования нейронными сетями без обратной связи (одно- и многослойными перцептронами) от выбранной функции активации нейронов в сети, а также от параметров этой функции. Результат – оценка качества прогнозирования нейронными сетями в зависимости от типа и параметров функции активации.) Example, Example

### Lab 106 ARIMA

Find the optimal p,d,q. ARIMA model examples [1] , [2] , [3] , [4] , [5] !!!!!! , [6] , [7] , [8] , [9] , [10]. Example

### Lab 106a GARCH

Plot the forecast and error(t).

### Lab 107 Vector autoregression

Forecast a multivariate time series. Find an optimal structure of VAR-model.

### Lab 108 Discrete functions to forecast MIDI

Прогнозирование музыкальных произведений. Прогнозирование функциями дискретного аргумента (пример) В работе исследуются короткие временные ряды на примере монофонических музыкальных мелодий. Происходит прогнозирование одной ноты экспоненциальным сглаживанием, локальным методом, а также методом поиска постоянных закономерностей. Вычислительный эксперимент проводится на двух мелодиях, одна из которых имеет точно повторяющиеся фрагменты. Example

### Lab 110: SVN–regression and forecasting

Use a linear model with or without kernel trick with quadratic or SVN error function.

### Lab 112: Event forecasting

Event and change-point forecasting models Example

### Lab 106b: Histogram forecasting

Example and error correction (Uvarov's paper)

### RESUME of Lab series I

Golden rules of forecasting

1. The forecast horizon is a segment in the time-scale (there is no one-point forecast).
2. Multivariate time series only (there are no single-variate ones). Sometimes the time series are spatial.

## Lab Series II

### Tensor low-rank approximation

1. Коренев, Г.В. Тензорное исчисление, 2000, 240 с., lib.mipt.ru.
2.  Roger Penrose, "Applications of negative dimensional tensors," in Combinatorial Mathematics and its Applications, Academic Press (1971). See Vladimir Turaev, Quantum invariants of knots and 3-manifolds (1994), De Gruyter, p. 71 for a brief commentary PDF.
3. Tai-Danae Bradley, At the Interface of Algebra and Statistics, 2020, ArXiv.
4. Oseledets, I.V. Tensor-Train Decomposition //SIAM Journal on Scientific Computing, 2011, 33(5): 2295–2317, DOI, RG, lecture, GitHub, Tutoiral.
5. Wikipedia: SVD, Multilinear subspace learning, HOSVD.
6. Seminar 4 in 2021

### Lab 201

Tensor approximation. Approximate the 2, 3 and 4 index matrices using low-rank decompositions, linear and nonlinear. The data sets are: a picture, a short animation movie (basic variant), a sound spectrogram, an fMRI. Plot the sequence of data approximations with ranks 1,..,n. Plot the error: x-axis is the rank, y-axis is the approximation error. Plot the variance of the error for various samples of data, if possible.

• Code [Tucker, PARAFAC-CANDECOMP, Tensor-train, and variants]
• Data sets [Cartoon, Sound, fMRI, and variants]

### Lab 202

PCA on higher orders. Construct a linear map of pairwise distance matrix to a space of lower dimensionality and plot the data. There are two possibilities: high-rank dimensional reduction and order reduction. If you could demonstrate the order reduction, it would be great. The pictures are appreciated.

• Code [Tucker, Tensor-train, and variants]
• Data sets [Cartoon, Sound, fMRI, and variants]

### Lab 203

Three-dimensional image reconstruction. Use sinograms of the computed tomography scans. Show the sequential approximation like in the lab work 1 with plots.

• Code [linear and NN]
• Data [Sinogram to fMRI]

### Lab 204

Formalize the set of low-rank approximation quality criterions (for multilinear operators with pseudo-inverses): precision, stability, computational complexity. Compare the decomposition methods from hottbox.

• Code [Hottbox]
• Data [Synthetic data with a simple visual/geometric visualization, like TF logo]

### Lab 205

Construct a phase trajectory of a spatial time series (a video, cartoon) and make a forecast with the higher order singular structure analysis.

• Code [SSA, HOSVD]
• Data [Cartoon with a walking hero]

### Lab 206

Construct two phase trajectories of spatial time series and discover a casualty with the higher order convergent cross mapping.

• Code [CCM, HOSVD]
• Data [Cartoon with a walking hero]

### Lab 207

Reduction an index on the tensor representation of the data, along with dimensionality reduction. The data is synthetic video, in more than 4D space, visualised by 3D projections.

• Code [HOSVD, HOPCA]
• Data [Synthetic 4D+ video]

### Lab 208

Higher order spectra analysis versus (higher order) Fourier transform on six-dimensional gyrokinetic data. Reduce number of indexes in tensor data.

• Code [HOSVD]
• Data [Gyrokinetic data 10.1016/j.jcp.2012.02.007]

### Lab 209

Combine higher-order PLS with CCN to predict eye-movement.

• Code [HOPLS]
• Data [Systhesic video and eye-movement]

### Lab 210

Higher order PLS for multiway data

• Code [HOPLS]
• Data [Accelerometer under various conditions to predict gyro data]

### Lab 211

Tensor caterpillar (see paper)

• Code [HOSSA]
• Data [Energy] cut with two or three periodics

## Went to Lab Series III

### Задача 303

В проекте исследуется временной ряд на наличие периодической компоненты, строится тригонометрическая интерполяция предложенных временных рядов методом наименьших квадратов. Производится оценка параметров функции метода наименьших квадратов в зависимости от качества прогнозирования. В вычислительном эксперименте приводятся результаты работы корреляционной функции и метода наименьших квадратов на зашумлённом модельном синусе и реальном временном ряде электрокардиограммы.

### Задача 309

Выравнивание временных рядов: прогнозирование с использованием DTW (пример)

Временным рядом называется последовательность упорядоченных по времени значений некоторой вещественной переменной . Задача, сопутствующая появлению временных рядов, - сравнение одной последовательности данных с другой. Сравнение последовательностей существенно упрощается после деформации временного ряда вдоль одной из осей и его выравнивания. Dynamic time warping (DTW) представляет собой технику эффективного выравнивая временных рядов. Методы DTW используются при распознавании речи, при анализе информации в робототехнике, в промышленности, в медицине и других сферах.

Цель работы - привести пример выравнивания, ввести функционал сравнения двух временных рядов, обладающий естественными свойствами коммутативности, рефлексивности и транзитивностина. Функционал должен принимать на вход два временных ряда, а на выходе давать число, характеризующее степень их "похожести".

### Задача 312

Исследование сходимости при прогнозировании нейронными сетями с обратной связью

Исследуется зависимость скорости сходимости при прогнозировании временных рядов от параметров нейронной сети с обратной связью. Понятие обратной связи характерно для динамических систем, в которых выходной сигнал некоторого элемента cистемы оказывает влияние на входной сигнал этого элемента. Выходной сигнал можно представить в виде бесконечной взвешенной суммы текущего и предыдущих входных сигналов. В качестве модели нейронной сети используется сеть Джордана. Предлагается исследовать скорость сходимости в зависимости от выбора функции активации (сигмоидной, гиперболического тангенса), от числа нейронов в промежуточном слое и от ширины скользящего окна. Также исследуется способ повышения скорости сходимости при использовании обобщенного дельта-правила.

### Задача 314

Использование теста Гренджера при прогнозировании временных рядов

При прогнозировании ряда бывает полезно определить, является ли данный ряд "зависимым" от некоторого другого ряда. Выявить подобную связь помогает тест Грейнджера, основанный на статистических тестах(при этом метод не гарантирует точного результата - при сравнении двух рядов, зависящих от еще одного ряда возможна ошибка). Метод применяется при прогнозировании экономических явлений и явлений природного характера (например, землятрясений).

Цель работы - предложить алгоритм, наилучшим образом использующий данный метод; исследовать эффективность метода в зависимости от прогнозируемых рядов.

### Задача 318

Прогнозирование методом PLS

## Lab works, Serie II

### Continous-time models

The datasets for any lab work (if it is not specified) are 1) synthetic, are generated from the explicit solution of some differential equation, 2) from existing datasets, but not too long, 3) the self-made measurements are welcome. All of us have accelerometer, microphone, photo-video camera in the mobile phone.

#### References

• Neural Ordinary Differential Equations by Ricky T. Q. Chen, Yulia Rubanova, Jesse Bettencourt, David K. Duvenaud // NeurIPS 2018 [11]
• Learning neural event functions for ordinary differential equations by Ricky T. Q. Chen, Brandon Amos, Maximilian Nickel // ICLR 2021, arXiv:2011.03902v4
• Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs by Talgat Daulbaev, Alexandr Katrutsa, Larisa Markeeva, Julia Gusak, Andrzej Cichocki, Ivan Oseledets // 2020, arXiv:2003.05271v2
• Dynamical Systems with Applications using Python by Stephen Lynch, 2018
• How To Train Your Neural ODE ChrisFinlay et al. [12] or [13]

#### Code

• PyTorch Implementation of Differentiable ODE Solvers by Ricky Chen [14]
• A PyTorch library dedicated to neural differential equations and implicit models (the simplest implement, 100 lines). Maintained by DiffEqML [15]
• Neural Ordinary Differential Equations by Mikhail Surtsukov (Russian explanation)
• Meta-Solver for Neural Ordinary Differential Equations by Julia Gusak [16], [17]
• Neural ODE Processes code paper
• PyTorch Implementation of Differentiable ODE Solvers [github.com/rtqichen/torchdiffeq]
• Jupyter notebook with Pytorch implementation of Neural Ordinary Differential Equations [github.com/msurtsukov/neural-ode]
• DiffEqFlux.jl – A Julia Library for Neural Differential Equations Julia [18]

### Lab 401

Plot the direction field and approximation by ODE-Net near the special points for simple ODEs like y’=y/x (uniform/узел), y’=-y/x saddle, y’=-x/y center, y’=(x+y)/(x-y) spiral.

### Lab 402

Plot the stable and unstable phase portraits and approximations for simple ODE.

### Lab 403

Find the ODE and plot the solution and ODE-Net approximation to compare and show difference between ODEsolvers: Euler, RK4 and others.

### Lab 404

Approximate and plot the electricity consumption time series. Compare the ODE-Net and LSTM or another model you like.

### Lab 405

Plot and approximate by ODE-Net the phase portrait of a pendulum with decay.

### Lab 405a

Plot and approximate the phase portrait of coupled pendula.

### Lab 406

Approximate an accelerometer (walking time series) by a solution of the pendulum ODE.

### Lab 406a

Approximate an accelerometer by a solution of the double-pendulum ODE.

### Lab 406b

Approximate an accelerometer and a gyroscope (acceleration and velocity) by a solution of the pendulum ODE.

### Lab 407

Lorentz attractor, three ODEs. Compare the forecast LSTM (or any model you like) how it differs from the forecast ODE-Net under different initial conditions and under different noise conditions. An option is to immerse the trajectory in a space of a higher dimension by random rotation.

### Lab 408

LSTM и ODE-RNN от от Алины Самохиной раздел 2.2.2, только вместо EEG для упрощения временные ряды потребления электроэнергии.

### Lab 409

Compare generated and forecaster electricity electricity consumption consumption time series, see section 5 the arXiv:1806.07366v5 and the [ code]

### Lab 410

Re-run the normalizing flows from the paper for various examples and analyse properties.

## Exam questions

See the course plan above

## Ссылки на материалы курса

 Тема Ссылка Вероятностные прогностические модели Стрижов В.В. Функция ошибки в задачах восстановления регрессии // Заводская лаборатория. Диагностика материалов, 2013, 79(5) : 65-73. Порождение вероятностных моделей Strijov V.V., Krymova E.A., Weber G.W. Evidence optimization for consequently generated models // Mathematical and Computer Modelling, 2013, 57(1-2) : 50-56. Оценка гиперпараметров вероятностных моделей Kuznetsov M.P., Tokmakova A.A., Strijov V.V. Analytic and stochastic methods of structure parameter estimation // Informatica, 2016, 27(3) : 607-624. Проблема мультиколлинеарности в задачах прогнозирования Katrutsa A.M., Strijov V.V. Stresstest procedure for feature selection algorithms // Chemometrics and Intelligent Laboratory Systems, 2015, 142 : 172-183. Выбор признаков и метод Белсли Нейчев Р.Г., Катруца А.М., Стрижов В.В. Выбор оптимального набора признаков из мультикоррелирующего множества в задаче прогнозирования // Заводская лаборатория. Диагностика материалов, 2016, 82(3) : 68-74. Квадратичное программирование для выбора признаков Katrutsa A.M., Strijov V.V. Comprehensive study of feature selection methods to solve multicollinearity problem according to evaluation criteria // Expert Systems with Applications, 2017, 76 : 1-11. Авторегрессионное прогнозирование и метод Гусеница (Singular spectrum analysis) Сандуляну Л.Н., Стрижов В.В. Выбор признаков в авторегрессионных задачах прогнозирования // Информационные технологии, 2012, 7 : 11-15. Прогнозирование сигналов носимых устройств Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016, 10(4) : 121-131. Выбор прогностических моделей сигналов носимых устройств Карасиков М.Е., Стрижов В.В. Классификация временных рядов в пространстве параметров порождающих моделей // Информатика и ее применения, 2016, 10(4) : 121-131. Не вошло в материалы (сферическая регрессия в аппроксимации фазовых траекторий) Usmanova K.R., Zhuravev K.V., Rudakov K.V., Strijov V.V. Approximation of quasiperiodic signal phase trajectory using directional regression // Computational Mathematics and Cybernetics, 2020. Метод частичных наименьших квадратов и канонический корреляционый анализ Isachenko R.V., Vladimirova M.R., Strijov V.V. Dimensionality reduction for time series decoding and forecasting problems // DEStech Transactions on Computer Science and Engineering, 2018, 27349 : 286-296. Метод частичных наименьших квадратов (нелинейный вариант) Isachenko R.V., Strijov V.V. Quadratic Programming Optimization with Feature Selection for Non-linear Models // Lobachevskii Journal of Mathematics, 2018, 39(9) : 1179-1187. Построение моделей нейроинтерфейсов Motrenko A.P., Strijov V.V. Multi-way feature selection for ECoG-based brain-computer interface // Expert Systems with Applications, 2018, 114(30) : 402-413. Прогнозирование волатильности опционных торгов (прикладной проект) Стрижов В.В., Сологуб Р.А. Индуктивное порождение регрессионных моделей предполагаемой волатильности для опционных торгов // Вычислительные технологии, 2009, 14(5) : 102-113. Сравнение прогностических моделей Уваров Н.Д., Кузнецов М.П., Малькова А.С., Рудаков К.В., Стрижов В.В. Выбор суперпозиции моделей при прогнозировании грузовых железнодорожных перевозок // Вестник Московского университета. Серия 15. Вычислительная математика и кибернетика, 2018, 4 : 41-48.

#### Выбор моделей в задачах декодирования

1. Katrutsa A.M., Strijov V.V. Stresstest procedure for feature selection algorithms // Chemometrics and Intelligent Laboratory Systems, 2015, 142 : 172-183.
2. Katrutsa A.M., Strijov V.V. Comprehensive study of feature selection methods to solve multicollinearity problem according to evaluation criteria // Expert Systems with Applications, 2017, 76 : 1-11.
3. Isachenko R.V., Vladimirova M.R., Strijov V.V. Dimensionality reduction for time series decoding and forecasting problems // DEStech Transactions on Computer Science and Engineering, 2018, 27349 : 286-296.
4. [Isachenko R.A., Strijov V.V. Quadratic programming feature selection for multicorrelated signal decoding with partial least squares // Submitted, 2021.]

#### Выравнивание

параметрическое и непараметрическое, поиск центроидов временных рядов

#### Рейтинги

Прогнозирование элементов частично-упорядоченных множеств

### Ковариационный анализ

1. Ковариационный анализ
2. Canonical correlation
3. Cross-covariance matrix
4. Причинность по Грейнджеру

## References

Main and supplimentary