“Интерпретируемость” относится к той степени, в которой вы можете понять аргументы, лежащие в основе решения. С другой стороны, машинное обучение позволяет компьютеру совершенствовать свои решения на основе собранных данных. Таким образом, создается модель машинного обучения, которая постоянно совершенствует код шаблонов и алгоритмов на основе данных. Интерпретируемость в машинном обучении, однако, означает нечто иное.
Если модель машинного обучения имеет низкую интерпретируемость, вы не сможете понять, почему модель машинного обучения принимает определенные решения, а не другие. Напротив, благодаря высокой интерпретируемости модели, вы сможете легко определить причины решений, принимаемых моделью машинного обучения.
Линейная и логистическая регрессия, дерево решений и т.д. – это некоторые техники модели машинного обучения.

Важность интерпретируемости

Почему, по вашему мнению, важно, чтобы модель машинного обучения была интерпретируемой?
Машинные модели обучения имеют множество применений в эту цифровую эпоху. Рекомендации фильма по потоковым приложениям и предложения по страницам в социальных сетях – это лишь верхушка айсберга. Чатботы искусственного интеллекта (AI) могут проводить интервью, помогать онлайн-клиентам принимать решения о покупке, а также приводить в действие умный пылесос, который заряжается и работает сам по себе.
Дальнейшее использование машинного обучения расширяется до очень сложных и рискованных сценариев. Дорогостоящие бизнес-решения, прогнозирование кредитоспособности кандидата в банке, рецепты на лекарства в больнице и даже в криминальных отделах для анализа улик и т.д.
Но как обнаружить лазейки в предсказаниях и решениях модели машинного обучения? Возможно, вы захотите узнать, почему модель прописывает пациенту определенный препарат. Предположим, вы обнаружите, что определенное решение, принятое моделью машинного обучения, неверно или неточно. В этом случае, Вам необходимо знать алгоритмы и шаги, которые машина использует для получения такого результата.
Именно здесь интерпретируемые модели машинного обучения эффективны. При правильной технике и реализации, они помогут Вам понять обоснование модели обучения. В отличие от объяснимых моделей, интерпретируемые модели используют различные техники (линейная регрессия, логистическая регрессия, дерево решений и т.д.) и достаточно просты для понимания.
Давайте обсудим, почему интерпретируемые модели машинного обучения так важны.

Легкость понимания

Например, вы создали модель, которая объясняет, сколько времени займет проект здания. Эта же модель может также оценить, какой доход она будет приносить в течение первых нескольких лет эксплуатации. Она делает это, используя данные, которые вы ввели в модель, в дополнение к тому, что она собирает из Интернета (рыночные тенденции, промышленный потенциал района, статистика доходов и инвестиций района и т.д.).
И прежде чем внедрять такую модель в бизнес, необходимо получить одобрение высшего руководства. Помните, что единственный способ утвердить модель – это если они ее поймут.
Таким образом, интерпретируемость объяснит вашему начальнику, как работает модель, используя простой язык, а не техническую тарабарщину.

Модель может научить вас некоторым вещам.

Возможно, вы не знали, что в вашем рабочем процессе применяется определенная формула или код. Интерпретируемая модель поможет Вам легко понять, почему она была использована, и позволит Вам учиться на ней. Поэтому, чем выше интерпретируемость модели, тем больше вы понимаете.

Non-Bias и Just Decisions

Очевидно, что модель машинного обучения будет принимать решения, основываясь на данных, которые она собирает, и на данных, которые вы вложили в нее изначально. Неправда, что модель всегда будет принимать беспристрастное решение. Например, из-за сегрегации при обработке данных о местоположении определенного лица может иметь место расовое профилирование. В связи с расовой принадлежностью, модель может принимать предвзятое решение.
Однако с помощью интерпретируемой модели можно определить, приняла ли ваша модель справедливое решение. Более того, вы можете легко исправить это и избежать подобных трудностей в будущем.

Прогнозирование будущей производительности модели

С течением времени производительность модели машинного обучения может либо улучшаться, либо ухудшаться. Переменные, которые она использует в своих вычислениях, или данные, которые она использует, могут устареть или перестать быть жизнеспособными для ее алгоритмов. Например, модель, предсказывающая пол человека на основе информации о разрыве в его доходах/заработной плате, может оказаться бесполезной, если разрыв в заработной плате в нашем современном обществе перестанет существовать.
Например, модель прогнозирует лиц с доходом от 18 000 до 20 000 долл. как женщин, и лиц с доходом от 15 000 до 17 000 долл. как мужчин. Однако в случае сокращения разрыва в оплате труда для модели может оказаться трудным принять решение. Если диапазон доходов мужчин колеблется от 15 000-17 000 до 16 000-19 000, то в этом случае модель может предложить мужчин как женщин.
Таким образом, можно предсказать будущие результаты работы модели и компенсировать их.

Недостатки моделей машинного обучения

Модели машинного обучения обладают восприимчивостью к эксплуатации. Пользователи могут легко манипулировать результатами, которые дает машинная учебная модель.
Например, давайте рассмотрим модель, которая работает для расчета риска и доверия к кандидатам на получение кредита. Она знает, как отвергнуть кандидата с несколькими кредитными картами, так как они представляют высокий риск при возвращении кредита. Однако, если кандидат знает об этом, он может аннулировать все свои кредитные карты, прежде чем появится в качестве кандидата на получение кредита.
Таким образом, они манипулируют моделью, показывая их в качестве подходящих кандидатов для получения кредита.

Заключение

Интерпретация в машинном обучении позволяет лучше понимать. Эта функция позволяет пользователям легко исправлять любые ошибки или недочеты и компенсировать будущие усовершенствования.
Благодаря более высокой интерпретируемости можно добиться максимального понимания того, как модель машинного обучения приняла решение. Это позволит вам подкрепить свои решения, объясняя их другим с помощью интерпретируемой модели.
Это обоснованное убеждение, что, зная, как работает машина и как она улучшается сама по себе, вы можете улучшить свои знания и понимание интеллекта. Это может помочь вам создать автоматизированные модели, которые могут в дальнейшем развиваться в лучшие версии.