Интерпретируемая модель машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
(Новая: '''Интерпретируемая модель машинного обучения''' — это такая модель, структуру которой способен объяс...)
Строка 1: Строка 1:
-
'''Интерпретируемая модель машинного обучения''' — это такая модель, структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.
+
'''Интерпретируемая модель машинного обучения''' — это [[Регрессионная модель|такая модель]], структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.
При интерпретации модели эксперт объясняет
При интерпретации модели эксперт объясняет
Строка 22: Строка 22:
== Литература ==
== Литература ==
* [http://strijov.com/papers/Kulunchakov2014RankingBySimpleFun.pdf Kulunchakov A.S., Strijov V.V. Generation of simple structured Information Retrieval functions by genetic algorithm without stagnation // Expert Systems with Applications, 2017, 85 : 221-230.]
* [http://strijov.com/papers/Kulunchakov2014RankingBySimpleFun.pdf Kulunchakov A.S., Strijov V.V. Generation of simple structured Information Retrieval functions by genetic algorithm without stagnation // Expert Systems with Applications, 2017, 85 : 221-230.]
-
* [https://arxiv.org/pdf/1606.03490.pdf Zachary C. Lipton The Mythos of Model Interpretability // arXiv:1606.03490v3 [cs.LG] 6 Mar 2017.]
+
* [https://arxiv.org/pdf/1606.03490.pdf Zachary C. Lipton The Mythos of Model Interpretability // arXiv:1606.03490v3, cs.LG, 6 Mar 2017.]
* [ https://doi.org/10.1016/S0893-6080(01)00127-7 Raphael Féraud, Fabrice Clérot A methodology to explain neural network classification // Neural Networks. Volume 15, Issue 2, March 2002, Pages 237-246.]
* [ https://doi.org/10.1016/S0893-6080(01)00127-7 Raphael Féraud, Fabrice Clérot A methodology to explain neural network classification // Neural Networks. Volume 15, Issue 2, March 2002, Pages 237-246.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]

Версия 22:09, 26 июля 2018

Интерпретируемая модель машинного обучения — это такая модель, структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.

При интерпретации модели эксперт объясняет

  • как отдельные признаки и элементы модели влияют на целевую переменную,
  • какова их функциональная взаимосвязь,
  • как изменение параметров модели влияет на точность и устойчивость аппроксимации,
  • каким образом описываются отдельные части выборки (свойства локальной модели),
  • какие свойства имеет модель при аппроксимации выборки в целом (свойства универсальной модели).

При построении интерпретируемых моделей, аппроксимирующих нейросети, черные ящики, или пополняемые выборки, накладываются следующие ограничения, определяющие интерпретируемость.

  1. Исходное пространство имеет невысокую размерность (или высокая размерность агрегируется).
  2. Модель является суперпозицией интерпретируемых функций-примитивов.
  3. На параметры модели накладываются ограничения, учитывающие природу или модель измерений.
  4. На модель накладываются ограничения области определения, значений, дифференцируемости, липшицевости.
  5. Точность аппроксимации и другие критерии качества модели вычисляются в той области определения или области пространства измерений, которая соответствует модели измерений.

Примеры интерпретируемых моделей: обобщенно-линейные модели, функции радиального базиса малой размерности, решающие правила, суперпозиции нелинейных функций-примитивов, суррогатные модели, смеси экспертов. Пример интерпретации скоринговой модели: модель является (обобщенной) линейной комбинацией переменных, источник которых задают эксперты (поля анкеты клиента), области значений переменных заданы, веса комбинации положительны, их значения соответствуют экспертным ожиданиям.

При построении моделей, аппроксимирующих нейросети, учитывается тот факт, что сеть может быть прорежена без значимого падения точности аппроксимации. Интерпретируемая модель может быть построена, если статистическая сложность прореженной сети позволяет представить элементы сети в виде интерпретируемой суперпозиции. Иначе, интерпретируемая модель может быть построена при условии, что падение точности аппроксимации не значимо и допустимо для получения адекватной модели.

Литература

Личные инструменты