Интерпретируемая модель машинного обучения

Материал из MachineLearning.

Версия от 22:07, 26 июля 2018; Strijov (Обсуждение | вклад)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)
Перейти к: навигация, поиск

Интерпретируемая модель машинного обучения — это такая модель, структуру которой способен объяснить эксперт. Она не противоречит той модели измерений, согласно которой была получена выборка.

При интерпретации модели эксперт объясняет

  • как отдельные признаки и элементы модели влияют на целевую переменную,
  • какова их функциональная взаимосвязь,
  • как изменение параметров модели влияет на точность и устойчивость аппроксимации,
  • каким образом описываются отдельные части выборки (свойства локальной модели),
  • какие свойства имеет модель при аппроксимации выборки в целом (свойства универсальной модели).

При построении интерпретируемых моделей, аппроксимирующих нейросети, черные ящики, или пополняемые выборки, накладываются следующие ограничения, определяющие интерпретируемость.

  1. Исходное пространство имеет невысокую размерность (или высокая размерность агрегируется).
  2. Модель является суперпозицией интерпретируемых функций-примитивов.
  3. На параметры модели накладываются ограничения, учитывающие природу или модель измерений.
  4. На модель накладываются ограничения области определения, значений, дифференцируемости, липшицевости.
  5. Точность аппроксимации и другие критерии качества модели вычисляются в той области определения или области пространства измерений, которая соответствует модели измерений.

Примеры интерпретируемых моделей: обобщенно-линейные модели, функции радиального базиса малой размерности, решающие правила, суперпозиции нелинейных функций-примитивов, суррогатные модели, смеси экспертов. Пример интерпретации скоринговой модели: модель является (обобщенной) линейной комбинацией переменных, источник которых задают эксперты (поля анкеты клиента), области значений переменных заданы, веса комбинации положительны, их значения соответствуют экспертным ожиданиям.

При построении моделей, аппроксимирующих нейросети, учитывается тот факт, что сеть может быть прорежена без значимого падения точности аппроксимации. Интерпретируемая модель может быть построена, если статистическая сложность прореженной сети позволяет представить элементы сети в виде интерпретируемой суперпозиции. Иначе, интерпретируемая модель может быть построена при условии, что падение точности аппроксимации не значимо и допустимо для получения адекватной модели.

Литература

Личные инструменты