Словарь терминов машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
м Словарь терминов» переименована в «Словарь терминов машинного обучения»: Уточнение названия)
(категория)
Строка 110: Строка 110:
[[Категория:Учебные материалы]]
[[Категория:Учебные материалы]]
 +
[[Категория:Энциклопедия анализа данных]]
[[Категория:Рекомендации для студентов]]
[[Категория:Рекомендации для студентов]]

Версия 18:02, 2 января 2016

В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.


Термины с "уверенным" русскоязычным переводом

Deep learning — глубокое или глубинное обучение

Shallow learning — малослойное обучение (а соответствующие сети малослойные)

Representation Learning, learning representations — обучение представлений

Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков

Feature learning — обучение признаков

Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"

Explaining Away — эффект оправдания, эффект редукции причины

Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство


Deep belief networks — глубокая сеть доверия

Deep neural network — глубокая нейронная сеть

Stacked Auto-Encoders — вложенные автокодировщики

Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики

Contractive Auto-Encoders — сжимающие автокодировщики

Support Vector Machine — метод (не машина!) опорных векторов

Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста

MCMC — методы Монте-Карло с Марковскими цепями

Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия

Semisupervised embedding — представление по обучению с неполной (частичной) разметкой

Nearest neighbor graph - граф ближайших соседей

Local Coordinate Coding, LCC — алгоритм локального кодирования координат

Leveraging the modeled tangent spaces — использование моделей касательного пространства

Independent Subspace Analysis — анализ независимых подпространств

Smoothed n-gram models — сглаженные n-граммные модели


Pooling (в свёрточных сетях) — агрегирование, операция объединения

Softmax function — функция мягкого максимума, софтмакс

Similarity function — функция близости (сходства)

Rectified linear unit (ReLU) — усеченное линейное преобразование

Cumulative density function (CDF) — функция распределения

Probability density function (PDF) — плотность вероятности

Parameterized transformation — параметризованное преобразование

Perplexity — перплексия


Термины, пока не имеющие хорошего перевода:

Dropout — дропаут? выбивание? вычёркивание?

Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)

Noisecontrastive estimation — отделение от шума? конрастивное оценивание?

Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?

Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора

Сredit assignment path (CAP)

Manifold Tangent Classifier — Касательный классификатор на базе многообразий?

Score matching

Estimated score

Denoising score matching

Ratio-matching

mPoT модель (mean-product of Student’s T-distributions model) —

Tiled-convolution traning

Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —

Patch-based traning

Deconvolutional networks (изобретение Зейлера) —