Словарь терминов машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(опечатка)
(5 копеек)
Строка 13: Строка 13:
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
-
'''Feature learning''' — выучивание признаков
+
'''Feature learning''' — обучение признаков
-
'''Traning''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
+
'''Training''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
'''Explaining Away''' — эффект оправдания, эффект редукции причины
'''Explaining Away''' — эффект оправдания, эффект редукции причины
-
'''Word embedding''' — (внутреннее) представление слова
+
'''Word embedding''' — (векторное) представление слова, погружение слова в линейное векторное пространство
Строка 28: Строка 28:
'''Stacked Auto-Encoders''' — вложенные автокодировщики
'''Stacked Auto-Encoders''' — вложенные автокодировщики
-
'''Denoising Auto-Encoders''' — шумоподавляющие автокодировщики
+
'''Denoising Auto-Encoders''' — шумоподавляющие (помехоустойчивые) автокодировщики
'''Contractive Auto-Encoders''' — сжимающие автокодировщики
'''Contractive Auto-Encoders''' — сжимающие автокодировщики
Строка 34: Строка 34:
'''Support Vector Machine''' — метод (не машина!) опорных векторов
'''Support Vector Machine''' — метод (не машина!) опорных векторов
-
'''Kernel Machine''' — ядровой метод/реализация/модификация в зависимости от контекста
+
'''Kernel Machine''' — ядровой метод / реализация / модификация в зависимости от контекста
'''MCMC''' — методы Монте-Карло с Марковскими цепями
'''MCMC''' — методы Монте-Карло с Марковскими цепями
Строка 40: Строка 40:
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия
-
'''Semisupervised embedding''' — представление по обучению с неполной разметкой
+
'''Semisupervised embedding''' — представление по обучению с неполной (частичной) разметкой
'''Nearest neighbor graph''' - граф ближайших соседей
'''Nearest neighbor graph''' - граф ближайших соседей
Строка 57: Строка 57:
'''Softmax function''' — функция мягкого максимума, софтмакс
'''Softmax function''' — функция мягкого максимума, софтмакс
-
'''Similarity function''' — функция близости
+
'''Similarity function''' — функция близости (сходства)
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование
Строка 67: Строка 67:
'''Parameterized transformation''' — параметризованное преобразование
'''Parameterized transformation''' — параметризованное преобразование
 +
'''Perplexity''' — перплексия
Строка 73: Строка 74:
-
'''Dropout''' — дропаут (может быть попробовать переводить как выбивание значений?)
+
'''Dropout''' — дропаут? выбивание? вычёркивание?
-
'''Batches''' (как часть примеров выборки) — Пачки? Блоки?
+
'''Batches''' — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
-
'''Perplexity''' — Недоумение?
+
'''Noisecontrastive estimation''' — отделение от шума? конрастивное оценивание?
-
 
+
-
'''Noisecontrastive estimation''' — отделение от шума?
+
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Версия 21:47, 6 декабря 2015

В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.


Термины с "уверенным" русскоязычным переводом

Deep learning — глубокое или глубинное обучение

Shallow learning — малослойное обучение (а соответствующие сети малослойные)

Representation Learning, learning representations — обучение представлений

Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков

Feature learning — обучение признаков

Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"

Explaining Away — эффект оправдания, эффект редукции причины

Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство


Deep belief networks — глубокая сеть доверия

Deep neural network — глубокая нейронная сеть

Stacked Auto-Encoders — вложенные автокодировщики

Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики

Contractive Auto-Encoders — сжимающие автокодировщики

Support Vector Machine — метод (не машина!) опорных векторов

Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста

MCMC — методы Монте-Карло с Марковскими цепями

Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия

Semisupervised embedding — представление по обучению с неполной (частичной) разметкой

Nearest neighbor graph - граф ближайших соседей

Local Coordinate Coding, LCC — алгоритм локального кодирования координат

Leveraging the modeled tangent spaces — использование моделей касательного пространства

Independent Subspace Analysis — анализ независимых подпространств

Smoothed n-gram models — сглаженные n-граммные модели


Pooling (в свёрточных сетях) — агрегирование, операция объединения

Softmax function — функция мягкого максимума, софтмакс

Similarity function — функция близости (сходства)

Rectified linear unit (ReLU) — усеченное линейное преобразование

Cumulative density function (CDF) — функция распределения

Probability density function (PDF) — плотность вероятности

Parameterized transformation — параметризованное преобразование

Perplexity — перплексия


Термины, пока не имеющие хорошего перевода:

Dropout — дропаут? выбивание? вычёркивание?

Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)

Noisecontrastive estimation — отделение от шума? конрастивное оценивание?

Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?

Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора

Сredit assignment path (CAP)

Manifold Tangent Classifier — Касательный классификатор на базе многообразий?

Score matching

Estimated score

Denoising score matching

Ratio-matching

mPoT модель (mean-product of Student’s T-distributions model) —

Tiled-convolution traning

Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —

Patch-based traning

Deconvolutional networks (изобретение Зейлера) —

Личные инструменты