La “interpretabilidad” se refiere a la medida en que se puede entender el razonamiento que hay detrás de una decisión. Por otro lado, el aprendizaje automático permite a un ordenador mejorar sus decisiones basándose en los datos que recoge. Así, crea un modelo de aprendizaje automático que va mejorando el código de patrones y algoritmos a partir de los datos. Sin embargo, la interpretabilidad en el Aprendizaje Automático significa algo diferente.
Si un modelo de aprendizaje automático tiene una baja interpretabilidad, no podrás comprender por qué el modelo de aprendizaje automático toma ciertas decisiones y no otras. Por el contrario, con una alta interpretabilidad del modelo, podrá determinar fácilmente las razones de las decisiones de un modelo de aprendizaje automático.
La regresión lineal y logística, el árbol de decisión, etc., son algunas de las técnicas de un modelo de aprendizaje automático.

Importancia de la interpretabilidad

¿Por qué crees que es importante que un modelo de aprendizaje automático sea interpretable?
Los modelos de aprendizaje automático tienen numerosas aplicaciones en esta era digital. Las recomendaciones de películas en aplicaciones de streaming y las sugerencias de páginas de redes sociales son sólo la punta del iceberg. Los chatbots de inteligencia artificial (IA) pueden realizar entrevistas, ayudar a los clientes en línea a tomar una decisión de compra y hacer funcionar una aspiradora inteligente que se carga y funciona sola.
El empleo posterior del aprendizaje automático se expande a escenarios muy complejos y de riesgo. Decisiones empresariales costosas, predicción de la credibilidad de un candidato en un banco, prescripciones de medicamentos en un hospital, e incluso departamentos de criminalística para analizar pruebas, etc.
Pero, ¿cómo se pueden detectar las lagunas en las predicciones y decisiones de un modelo de aprendizaje automático? Quizá quieras saber por qué un modelo prescribe un determinado medicamento a un paciente. Supongamos que descubres que una determinada decisión del modelo de aprendizaje automático es errónea o inexacta. En ese caso, querrá conocer los algoritmos y los pasos que la máquina utilizó para producir ese resultado.
Aquí es donde los modelos de aprendizaje automático interpretables son eficaces. Con las técnicas y la implementación adecuadas, ayudan a entender el razonamiento de un modelo de aprendizaje. A diferencia de los modelos explicables, los modelos interpretables emplean diferentes técnicas (regresión lineal, regresión logística, árbol de decisión, etc.) y son bastante fáciles de entender.
Veamos por qué son tan importantes los modelos interpretables de aprendizaje automático.

Facilidad de comprensión

Por ejemplo, usted ha creado un modelo que explica el tiempo que tardará en completarse un proyecto de construcción. El mismo modelo también podría estimar cuántos ingresos generaría durante los primeros años de funcionamiento. Para ello, utiliza los datos que has introducido en el modelo, además de los que recoge de Internet (tendencias del mercado, capacidad industrial de la zona, estadísticas de ingresos e inversiones de la zona, etc.).
Y antes de implantar ese modelo en la empresa, necesitas la aprobación de los altos ejecutivos. Recuerda que sólo aprobarán un modelo si lo entienden.
Por tanto, la interpretabilidad explicará a su jefe cómo funciona el modelo, utilizando un lenguaje sencillo y no un galimatías técnico.

Un modelo puede enseñarle ciertas cosas

Es posible que no sepa que su proceso de trabajo aplica una determinada fórmula o código. Un modelo interpretable te ayudará a entender fácilmente por qué se ha utilizado y te permitirá aprender de él. Por lo tanto, cuanto mayor sea la interpretabilidad del modelo, más entenderás.

Decisiones justas y sin prejuicios

Es obvio que el modelo de aprendizaje automático tomará decisiones en función de los datos que recoge y de los datos que usted le ponga inicialmente. No es cierto que un modelo vaya a producir siempre una decisión no sesgada. Por ejemplo, debido a la segregación, puede haber perfiles raciales en el tratamiento de la ubicación de ciertos individuos. Debido a la raza, el modelo puede tomar una decisión sesgada.
Sin embargo, con un modelo interpretable, usted puede determinar si su modelo tomó una decisión justa. Además, puede corregirlo fácilmente y evitar esas dificultades en el futuro.

Previsión del rendimiento futuro de un modelo

Con el paso del tiempo, el rendimiento de un modelo de aprendizaje automático puede mejorar o empeorar. Las variables que utiliza en sus cálculos o los datos que utiliza pueden quedar obsoletos o dejar de ser viables para sus algoritmos. Por ejemplo, un modelo que predice el género de un individuo basándose en la información de su brecha salarial/de ingresos puede resultar inútil si las brechas salariales de nuestra sociedad moderna dejan de existir.
Por ejemplo, el modelo predice que los individuos con ingresos de 18.000 a 20.000 dólares son mujeres, y que los individuos con ingresos de 15.000 a 17.000 dólares son hombres. Sin embargo, al reducirse las diferencias salariales, el modelo podría tener dificultades para tomar una decisión. Si el rango de ingresos de los hombres pasa de 15.000-17.000 a 16.000-19.000, en este caso, un modelo podría sugerir a los hombres como mujeres.
Así, se puede predecir el rendimiento futuro de un modelo y compensarlo.

Un inconveniente de los modelos de aprendizaje automático

Los modelos de aprendizaje automático son susceptibles de ser explotados. Los usuarios pueden manipular fácilmente los resultados que produce un modelo de aprendizaje automático.
Por ejemplo, consideremos un modelo que funciona para calcular el riesgo y la credibilidad de los candidatos a un préstamo. Sabe que debe rechazar a los candidatos con varias tarjetas de crédito, ya que suponen un alto riesgo en la devolución del préstamo. Sin embargo, si un candidato es consciente de ello, podría cancelar todas sus tarjetas de crédito antes de presentarse como candidato al préstamo.
De este modo, manipulan el modelo para que les muestre como candidatos adecuados para el préstamo.

Conclusión

La interpretabilidad en el aprendizaje automático permite una mejor comprensión. Es una característica que facilita a los usuarios la mejora de cualquier error o equivocación y la compensación de futuras mejoras.
Con una mayor interpretabilidad, se puede lograr una máxima comprensión de cómo un modelo de aprendizaje automático tomó una decisión. Esto le permitirá respaldar sus decisiones a otros explicándoles mediante un modelo interpretable.
Es una creencia válida que al conocer cómo funciona y se mejora una máquina, puedes mejorar tu conocimiento y comprensión de la inteligencia. Esto puede ayudarle a crear modelos automatizados, que pueden avanzar hasta convertirse en mejores versiones.