Словарь терминов машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Создан словарь по некоторым терминам машинного обучения, сформированный при совместном обсуждении Дмитрием Ветровым и Константином Во)
 
(11 промежуточных версий не показаны.)
Строка 1: Строка 1:
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.
 +
Короткая ссылка на эту страницу: [https://bit.ly/31b7aI4 https://bit.ly/31b7aI4]
-
== Термины с "уверенным" русскоязычным переодом ==
+
== Термины с "уверенным" русскоязычным переводом ==
 +
При написании выпускных квалификационных работ просьба использовать словарь терминов:
 +
 +
1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;
 +
 +
2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;
 +
 +
3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться.
 +
[[Media:slovar_2.pdf|Slovar]]
'''Deep learning''' — глубокое или глубинное обучение
'''Deep learning''' — глубокое или глубинное обучение
Строка 13: Строка 22:
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
'''Handcrafted features''' — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков
-
'''Feature learning''' — выучивание признаков
+
'''Feature learning''' — обучение признаков
-
'''Traning''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
+
'''Training''' и '''learning''' — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"
'''Explaining Away''' — эффект оправдания, эффект редукции причины
'''Explaining Away''' — эффект оправдания, эффект редукции причины
-
'''Word embedding''' — (внутреннее) представление слова
+
'''Word embedding''' — (векторное) представление слова, погружение слова в линейное векторное пространство
Строка 28: Строка 37:
'''Stacked Auto-Encoders''' — вложенные автокодировщики
'''Stacked Auto-Encoders''' — вложенные автокодировщики
-
'''Denoising Auto-Encoders''' — шумоподавляющие автокодировщики
+
'''Denoising Auto-Encoders''' — шумоподавляющие (помехоустойчивые) автокодировщики
'''Contractive Auto-Encoders''' — сжимающие автокодировщики
'''Contractive Auto-Encoders''' — сжимающие автокодировщики
Строка 34: Строка 43:
'''Support Vector Machine''' — метод (не машина!) опорных векторов
'''Support Vector Machine''' — метод (не машина!) опорных векторов
-
'''Kernel Machine''' — ядровой метод/реализация/модификация в зависимости от контекста
+
'''Kernel Machine''' — ядровой метод / реализация / модификация в зависимости от контекста
'''MCMC''' — методы Монте-Карло с Марковскими цепями
'''MCMC''' — методы Монте-Карло с Марковскими цепями
Строка 40: Строка 49:
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия
'''Stochastic Maximum Likelihood''' — алгоритм стохастической максимизации правдоподобия
-
'''Semisupervised embedding''' — представление по обучению с неполной разметкой
+
'''Semisupervised embedding''' — представление по обучению с неполной (частичной) разметкой
'''Nearest neighbor graph''' - граф ближайших соседей
'''Nearest neighbor graph''' - граф ближайших соседей
Строка 57: Строка 66:
'''Softmax function''' — функция мягкого максимума, софтмакс
'''Softmax function''' — функция мягкого максимума, софтмакс
-
'''Similarity function''' — функция близости
+
'''Similarity function''' — функция близости (сходства)
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование
'''Rectified linear unit (ReLU)''' — усеченное линейное преобразование
Строка 67: Строка 76:
'''Parameterized transformation''' — параметризованное преобразование
'''Parameterized transformation''' — параметризованное преобразование
 +
'''Perplexity''' — перплексия
 +
'''Credit assignment path (CAP)''' — путь передачи ответственности (цепочка преобразований от входа к выходу)
-
== Термины, пока не имеющие хорошего перевода: ==
+
'''Credit assignment''' — присвоение коэффициентов доверия
 +
'''Policy gradient''' — градиентный спуск по стратегиям
-
'''Dropout''' — дропаут (может быть попробовать переводить как выбивание значений?)
+
'''Fully connected''' — полносвязная
-
'''Batches''' (как часть примеров выборки) — Пачки? Блоки?
+
'''Reward Signal''' — сигнал вознаграждения (подкрепления)
-
'''Perplexity''' — Недоумение?
+
'''Training set''' — обучающая выборка
-
'''Noisecontrastive estimation''' — отделение от шума?
+
'''Validation set''' — проверочная выборка
 +
 
 +
'''Good Old-Fashioned Artificial Intelligence''' — символический искусственный интеллект
 +
 
 +
'''Generalization performance/ability''' — обобщающая способность
 +
 
 +
'''Spiking neuron''' — импульсный нейрон
 +
 
 +
'''Group Method of Data Handling''' — [[метод группового учёта аргументов]]
 +
 
 +
'''Subsampling''' — подвыборка
 +
 
 +
'''Downsampling''' — субдискретизация
 +
 
 +
'''Time-Delay Neural Network''' — нейронная сеть с временной задержкой
 +
 
 +
'''Weight decay''' — сокращение веса
 +
 
 +
'''Constant error carousel''' — карусель константной ошибки
 +
 
 +
'''Long Short-Term Memory (LSTM)''' — Долгая краткосрочная память
 +
 
 +
== Термины, пока не имеющие хорошего перевода: ==
 +
 
 +
 
 +
'''Dropout''' — дропаут? выбивание? вычёркивание?
 +
 
 +
'''Batches''' — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)
 +
 
 +
'''Noisecontrastive estimation''' — отделение от шума? конрастивное оценивание?
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
'''Сontrastive divergence''' — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?
Строка 87: Строка 128:
'''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно,
'''Spike-and-Slab RBMs''' — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно,
что имеется в виду характерный вид регуляризатора
что имеется в виду характерный вид регуляризатора
-
 
-
'''Сredit assignment path (CAP)''' —
 
'''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий?
'''Manifold Tangent Classifier''' — Касательный классификатор на базе многообразий?
Строка 111: Строка 150:
[[Категория:Учебные материалы]]
[[Категория:Учебные материалы]]
 +
[[Категория:Энциклопедия анализа данных]]
[[Категория:Рекомендации для студентов]]
[[Категория:Рекомендации для студентов]]

Текущая версия

В данной статье приводится рекомендуемый перевод тех или иных устоявшихся англоязычных терминов в области машинного обучения. Однако даже несмотря на наличие русскоязычного перевода термина при написании работ рекомендуется в скобках также приводить англоязычный вариант.

Короткая ссылка на эту страницу: https://bit.ly/31b7aI4

Термины с "уверенным" русскоязычным переводом

При написании выпускных квалификационных работ просьба использовать словарь терминов:

1)часто слова многозначны, и надо давать перевод именно того смысла, что понимается в Машинном обучении, Распознавании образов и Классификации, работах по Искусственному Интеллекту, Искусственным Нейронным сетям и т. д. - исключительно по нашей тематике;

2)надо стремиться к предельным (а) краткости и (б) точности, что одновременно не просто;

3)легко впасть в Толковый словарь с объяснением терминов. Иногда такое пояснение необходимо, но в целом этого надо избегать: составление Толкового словаря - огромная работа, не будем за это (пока?) браться. Slovar

Deep learning — глубокое или глубинное обучение

Shallow learning — малослойное обучение (а соответствующие сети малослойные)

Representation Learning, learning representations — обучение представлений

Handcrafted features — вручную построенные признаки, инженерия признаков, "инженерный подход" к построению признаков

Feature learning — обучение признаков

Training и learning — синонимы, необходимо переводить как "обучение" и то и другое, но строго не как "тренировка"

Explaining Away — эффект оправдания, эффект редукции причины

Word embedding — (векторное) представление слова, погружение слова в линейное векторное пространство


Deep belief networks — глубокая сеть доверия

Deep neural network — глубокая нейронная сеть

Stacked Auto-Encoders — вложенные автокодировщики

Denoising Auto-Encoders — шумоподавляющие (помехоустойчивые) автокодировщики

Contractive Auto-Encoders — сжимающие автокодировщики

Support Vector Machine — метод (не машина!) опорных векторов

Kernel Machine — ядровой метод / реализация / модификация в зависимости от контекста

MCMC — методы Монте-Карло с Марковскими цепями

Stochastic Maximum Likelihood — алгоритм стохастической максимизации правдоподобия

Semisupervised embedding — представление по обучению с неполной (частичной) разметкой

Nearest neighbor graph - граф ближайших соседей

Local Coordinate Coding, LCC — алгоритм локального кодирования координат

Leveraging the modeled tangent spaces — использование моделей касательного пространства

Independent Subspace Analysis — анализ независимых подпространств

Smoothed n-gram models — сглаженные n-граммные модели


Pooling (в свёрточных сетях) — агрегирование, операция объединения

Softmax function — функция мягкого максимума, софтмакс

Similarity function — функция близости (сходства)

Rectified linear unit (ReLU) — усеченное линейное преобразование

Cumulative density function (CDF) — функция распределения

Probability density function (PDF) — плотность вероятности

Parameterized transformation — параметризованное преобразование

Perplexity — перплексия


Credit assignment path (CAP) — путь передачи ответственности (цепочка преобразований от входа к выходу)

Credit assignment — присвоение коэффициентов доверия

Policy gradient — градиентный спуск по стратегиям

Fully connected — полносвязная

Reward Signal — сигнал вознаграждения (подкрепления)

Training set — обучающая выборка

Validation set — проверочная выборка

Good Old-Fashioned Artificial Intelligence — символический искусственный интеллект

Generalization performance/ability — обобщающая способность

Spiking neuron — импульсный нейрон

Group Method of Data Handlingметод группового учёта аргументов

Subsampling — подвыборка

Downsampling — субдискретизация

Time-Delay Neural Network — нейронная сеть с временной задержкой

Weight decay — сокращение веса

Constant error carousel — карусель константной ошибки

Long Short-Term Memory (LSTM) — Долгая краткосрочная память

Термины, пока не имеющие хорошего перевода:

Dropout — дропаут? выбивание? вычёркивание?

Batches — группы, серии, блоки (как часть примеров выборки), пакеты, пачки (как часть коллекции текстовых документов)

Noisecontrastive estimation — отделение от шума? конрастивное оценивание?

Сontrastive divergence — "контрастирование", "сравнение расхождения», «сопоставительное отклонение»?

Predictive Sparse Decomposition — Предсказательная разреженная декомпозиция?

Spike-and-Slab RBMs — можно переводить как спайковый (распределение, больцмановская машина, и пр.) предполагая, что по контексту станет ясно, что имеется в виду характерный вид регуляризатора

Manifold Tangent Classifier — Касательный классификатор на базе многообразий?

Score matching

Estimated score

Denoising score matching

Ratio-matching

mPoT модель (mean-product of Student’s T-distributions model) —

Tiled-convolution traning

Parametric mapping (в контексте Learning a parametric mapping based on a neighborhood graph) —

Patch-based traning

Deconvolutional networks (изобретение Зейлера) —

Личные инструменты