Интерпретируемая модель машинного обучения

Материал из MachineLearning.

(Различия между версиями)
Перейти к: навигация, поиск
 
(2 промежуточные версии не показаны)
Строка 1: Строка 1:
-
'''Интерпретируемая модель машинного обучения''' — это [[Регрессионная модель|такая модель]], структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.
+
'''Интерпретируемая модель машинного обучения''' — это [[Регрессионная модель|такая модель]], структуру которой способен [[эксперт|объяснить эксперт]]. Она не противоречит той модели измерений, согласно которой была получена выборка.
При интерпретации модели эксперт объясняет
При интерпретации модели эксперт объясняет
Строка 23: Строка 23:
* [http://strijov.com/papers/Kulunchakov2014RankingBySimpleFun.pdf Kulunchakov A.S., Strijov V.V. Generation of simple structured Information Retrieval functions by genetic algorithm without stagnation // Expert Systems with Applications, 2017, 85 : 221-230.]
* [http://strijov.com/papers/Kulunchakov2014RankingBySimpleFun.pdf Kulunchakov A.S., Strijov V.V. Generation of simple structured Information Retrieval functions by genetic algorithm without stagnation // Expert Systems with Applications, 2017, 85 : 221-230.]
* [https://arxiv.org/pdf/1606.03490.pdf Zachary C. Lipton The Mythos of Model Interpretability // arXiv:1606.03490v3, cs.LG, 6 Mar 2017.]
* [https://arxiv.org/pdf/1606.03490.pdf Zachary C. Lipton The Mythos of Model Interpretability // arXiv:1606.03490v3, cs.LG, 6 Mar 2017.]
-
* [ https://doi.org/10.1016/S0893-6080(01)00127-7 Raphael Féraud, Fabrice Clérot A methodology to explain neural network classification // Neural Networks. Volume 15, Issue 2, March 2002, Pages 237-246.]
+
* [https://doi.org/10.1016/S0893-6080(01)00127-7 Raphael Féraud, Fabrice Clérot A methodology to explain neural network classification // Neural Networks. Volume 15, Issue 2, March 2002, Pages 237-246.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]
* [http://www.machinelearning.ru/wiki/images/b/b9/Strijov08ln.pdf Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с.]
* [http://www.machinelearning.ru/wiki/images/b/b9/Strijov08ln.pdf Стрижов В. В. Методы индуктивного порождения регрессионных моделей. М.: ВЦ РАН. 2008. 55 с.]
Строка 29: Строка 29:
* [https://elibrary.ru/item.asp?id=20902229 Е.В. Бурнаев, П.В. Приходько Методология построения суррогатных моделей для аппроксимации пространственно неоднородных функций // Труды МФТИ, 2013. Том 5, No 4 : 122-132.]
* [https://elibrary.ru/item.asp?id=20902229 Е.В. Бурнаев, П.В. Приходько Методология построения суррогатных моделей для аппроксимации пространственно неоднородных функций // Труды МФТИ, 2013. Том 5, No 4 : 122-132.]
* [https://cyberleninka.ru/article/n/surrogatnye-funktsionaly-v-zadachah-diagnostiki Григорьева К.В. Суррогатные функционалы в задачах диагностики // Вестник Санкт-Петербургского университета. Серия 10. Прикладная математика. Информатика. Процессы управления // 2010, Вып. 41 : 33-42.]
* [https://cyberleninka.ru/article/n/surrogatnye-funktsionaly-v-zadachah-diagnostiki Григорьева К.В. Суррогатные функционалы в задачах диагностики // Вестник Санкт-Петербургского университета. Серия 10. Прикладная математика. Информатика. Процессы управления // 2010, Вып. 41 : 33-42.]
-
* https://christophm.github.io/interpretable-ml-book/ Christoph Molnar Interpretable Machine Learning A Guide for Making Black Box Models Explainable, 2018-07-02.]
+
* [https://christophm.github.io/interpretable-ml-book/ Christoph Molnar Interpretable Machine Learning A Guide for Making Black Box Models Explainable, 2018-07-02.]
* [https://sites.google.com/site/2016whi/ Workshop on Human Interpretability in Machine Learning WHI 2016 @ ICML, New York, June 23, 2016.]
* [https://sites.google.com/site/2016whi/ Workshop on Human Interpretability in Machine Learning WHI 2016 @ ICML, New York, June 23, 2016.]
* [https://sites.google.com/view/whi2017/home Workshop on Human Interpretability in Machine Learning (WHI), August 10, 2017.]
* [https://sites.google.com/view/whi2017/home Workshop on Human Interpretability in Machine Learning (WHI), August 10, 2017.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]
* [http://jmlr.org/papers/volume18/16-003/16-003.pdf Tong Wang et al. A Bayesian Framework for Learning Rule Sets for Interpretable Classification // Journal of Machine Learning Research 18 (2017) 1-37.]
-
* [http://www.sciencedirect.com/science/article/pii/S0893608001001277 Raphael Féraud Fabrice Clérot A methodology to explain neural network classification // Neural Networks, Volume 15, Issue 2, March 2002, Pages 237-246.]
 
* [https://www.microsoft.com/en-us/research/video/parallel-coordinates-visual-multidimensional-geometry-and-its-applications/ Alfred Inselberg Parallel Coordinates: Visual Multidimensional Geometry and its Applications // Microsoft Research Talks, July 26, 2013.]
* [https://www.microsoft.com/en-us/research/video/parallel-coordinates-visual-multidimensional-geometry-and-its-applications/ Alfred Inselberg Parallel Coordinates: Visual Multidimensional Geometry and its Applications // Microsoft Research Talks, July 26, 2013.]

Текущая версия

Интерпретируемая модель машинного обучения — это такая модель, структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.

При интерпретации модели эксперт объясняет

  • как отдельные признаки и элементы модели влияют на целевую переменную,
  • какова их функциональная взаимосвязь,
  • как изменение параметров модели влияет на точность и устойчивость аппроксимации,
  • каким образом описываются отдельные части выборки (свойства локальной модели),
  • какие свойства имеет модель при аппроксимации выборки в целом (свойства универсальной модели).

При построении интерпретируемых моделей, аппроксимирующих нейросети, черные ящики, или пополняемые выборки, накладываются следующие ограничения, определяющие интерпретируемость.

  1. Исходное пространство имеет невысокую размерность (или высокая размерность агрегируется).
  2. Модель является суперпозицией интерпретируемых функций-примитивов.
  3. На параметры модели накладываются ограничения, учитывающие природу или модель измерений.
  4. На модель накладываются ограничения области определения, значений, дифференцируемости, липшицевости.
  5. Точность аппроксимации и другие критерии качества модели вычисляются в той области определения или области пространства измерений, которая соответствует модели измерений.

Примеры интерпретируемых моделей: обобщенно-линейные модели, функции радиального базиса малой размерности, решающие правила, суперпозиции нелинейных функций-примитивов, суррогатные модели, смеси экспертов. Пример интерпретации скоринговой модели: модель является (обобщенной) линейной комбинацией переменных, источник которых задают эксперты (поля анкеты клиента), области значений переменных заданы, веса комбинации положительны, их значения соответствуют экспертным ожиданиям.

При построении моделей, аппроксимирующих нейросети, учитывается тот факт, что сеть может быть прорежена без значимого падения точности аппроксимации. Интерпретируемая модель может быть построена, если статистическая сложность прореженной сети позволяет представить элементы сети в виде интерпретируемой суперпозиции. Иначе, интерпретируемая модель может быть построена при условии, что падение точности аппроксимации не значимо и допустимо для получения адекватной модели.

Литература

Личные инструменты