Словарь терминов машинного обучения

Материал из MachineLearning.

Версия от 20:11, 24 декабря 2017; Hubble (Обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.


Термины с "уверенным" русскоязычным переводом

Deep learning — глубокое или глубинное обучение

Shallow learning — малослойное обучение (а соответствующие сети малослойные)

Representation Learning, learning representations — обучение представлений

Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков

Feature learning — обучение признаков

Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"

Explaining Away — эффект оправдания, эффект редукции причины

Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство


Deep belief networks — глубокая сеть доверия

Deep neural network — глубокая нейронная сеть

Stacked Auto-Encoders — вложенные автокодировщики

Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики

Contractive Auto-Encoders — сжимающие автокодировщики

Support Vector Machine — метод (не машина!) опорных векторов

Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста

MCMC — методы Монте-Карло с Марковскими цепями

Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия

Semisupervised embedding — представление по обучению с неполной (частичной) разметкой

Nearest neighbor graph - граф ближайших соседей

Local Coordinate Coding, LCC — алгоритм локального кодирования координат

Leveraging the modeled tangent spaces — использование моделей касательного пространства

Independent Subspace Analysis — анализ независимых подпространств

Smoothed n-gram models — сглаженные n-граммные модели


Pooling (в свёрточных сетях) — агрегирование, операция объединения

Softmax function — функция мягкого максимума, софтмакс

Similarity function — функция близости (сходства)

Rectified linear unit (ReLU) — усеченное линейное преобразование

Cumulative density function (CDF) — функция распределения

Probability density function (PDF) — плотность вероятности

Parameterized transformation — параметризованное преобразование

Perplexity — перплексия


Credit assignment path (CAP) — путь передачи ответственности (цепочка преобразований от входа к выходу)

Credit assignment — присвоение коэффициентов доверия

Policy gradient — градиентный спуск по стратегиям

Fully connected — полносвязная

Reward Signal — сигнал вознаграждения (подкрепления)

Training set — обучающая выборка

Validation set — проверочная выборка

Good Old-Fashioned Artificial Intelligence — символический искусственный интеллект

Generalization performance/ability — обобщающая способность

Spiking neuron — импульсный нейрон

Group Method of Data Handlingметод группового учёта аргументов

Subsampling — подвыборка

Downsampling — субдискретизация

Time-Delay Neural Network — нейронная сеть с временной задержкой

Weight decay — сокращение веса

Constant error carousel — карусель константной ошибки

Long Short-Term Memory (LSTM) — Долгая краткосрочная память

Термины, пока не имеющие хорошего перевода:

Dropout — дропаут? выбивание? вычёркивание?

Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)

Noisecontrastive estimation — отделение от шума? конрастивное оценивание?

Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?

Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора

Manifold Tangent Classifier — Касательный классификатор на базе многообразий?

Score matching

Estimated score

Denoising score matching

Ratio-matching

mPoT модель (mean-product of Student’s T-distributions model) —

Tiled-convolution traning

Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —

Patch-based traning

Deconvolutional networks (изобретение Зейлера) —

Личные инструменты