Словарь терминов машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
 
Строка 5: Строка 5:
== Термины с "уверенным" русскоязычным переводом ==
== Термины с "уверенным" русскоязычным переводом ==
 +
При написании выпускных квалификационных работ просьба использовать словарь терминов:
 +
 +
1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;
 +
 +
2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;
 +
 +
3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться.
 +
[[Media:slovar_2.pdf|Slovar]]
'''Deep learning''' — глубокое или глубинное обучение
'''Deep learning''' — глубокое или глубинное обучение

Текущая версия

В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.

Короткая ссылка на эту страницу: https://bit.ly/31b7aI4

Термины с "уверенным" русскоязычным переводом

При написании выпускных квалификационных работ просьба использовать словарь терминов:

1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;

2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;

3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. Slovar

Deep learning — глубокое или глубинное обучение

Shallow learning — малослойное обучение (а соответствующие сети малослойные)

Representation Learning, learning representations — обучение представлений

Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков

Feature learning — обучение признаков

Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"

Explaining Away — эффект оправдания, эффект редукции причины

Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство


Deep belief networks — глубокая сеть доверия

Deep neural network — глубокая нейронная сеть

Stacked Auto-Encoders — вложенные автокодировщики

Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики

Contractive Auto-Encoders — сжимающие автокодировщики

Support Vector Machine — метод (не машина!) опорных векторов

Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста

MCMC — методы Монте-Карло с Марковскими цепями

Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия

Semisupervised embedding — представление по обучению с неполной (частичной) разметкой

Nearest neighbor graph - граф ближайших соседей

Local Coordinate Coding, LCC — алгоритм локального кодирования координат

Leveraging the modeled tangent spaces — использование моделей касательного пространства

Independent Subspace Analysis — анализ независимых подпространств

Smoothed n-gram models — сглаженные n-граммные модели


Pooling (в свёрточных сетях) — агрегирование, операция объединения

Softmax function — функция мягкого максимума, софтмакс

Similarity function — функция близости (сходства)

Rectified linear unit (ReLU) — усеченное линейное преобразование

Cumulative density function (CDF) — функция распределения

Probability density function (PDF) — плотность вероятности

Parameterized transformation — параметризованное преобразование

Perplexity — перплексия


Credit assignment path (CAP) — путь передачи ответственности (цепочка преобразований от входа к выходу)

Credit assignment — присвоение коэффициентов доверия

Policy gradient — градиентный спуск по стратегиям

Fully connected — полносвязная

Reward Signal — сигнал вознаграждения (подкрепления)

Training set — обучающая выборка

Validation set — проверочная выборка

Good Old-Fashioned Artificial Intelligence — символический искусственный интеллект

Generalization performance/ability — обобщающая способность

Spiking neuron — импульсный нейрон

Group Method of Data Handlingметод группового учёта аргументов

Subsampling — подвыборка

Downsampling — субдискретизация

Time-Delay Neural Network — нейронная сеть с временной задержкой

Weight decay — сокращение веса

Constant error carousel — карусель константной ошибки

Long Short-Term Memory (LSTM) — Долгая краткосрочная память

Термины, пока не имеющие хорошего перевода:

Dropout — дропаут? выбивание? вычёркивание?

Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)

Noisecontrastive estimation — отделение от шума? конрастивное оценивание?

Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?

Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора

Manifold Tangent Classifier — Касательный классификатор на базе многообразий?

Score matching

Estimated score

Denoising score matching

Ratio-matching

mPoT модель (mean-product of Student’s T-distributions model) —

Tiled-convolution traning

Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —

Patch-based traning

Deconvolutional networks (изобретение Зейлера) —

Личные инструменты