“Interpretabilidade” refere-se à medida em que se pode compreender o raciocínio por detrás de uma decisão. Por outro lado, a aprendizagem automática permite a um computador melhorar as suas decisões com base nos dados que recolhe. Assim, cria um modelo de aprendizagem automática que continua a melhorar o código de padrões e algoritmos a partir dos dados. A interpretabilidade na Aprendizagem Automática, no entanto, significa algo diferente.
Se um modelo de aprendizagem automática tiver baixa capacidade de interpretação, não será capaz de compreender porque é que o modelo de aprendizagem automática toma certas decisões e não outras. Pelo contrário, com a elevada interpretabilidade do modelo, pode facilmente determinar as razões das decisões de um modelo de aprendizagem de máquina.
Regressão Linear e Logística, Árvore de Decisão, etc., são algumas técnicas de um modelo de aprendizagem de máquina.

Importância da Interpretabilidade

Porque pensa que é importante que um modelo de aprendizagem de máquinas seja interpretável?
Os modelos de aprendizagem de máquinas têm numerosas aplicações nesta era digital. As recomendações de filmes sobre aplicações de streaming e as sugestões de páginas de social media são apenas a ponta do iceberg. Os Chatbots da Inteligência Artificial (IA) podem conduzir entrevistas, ajudar os clientes em linha a tomar uma decisão de compra, e alimentar um aspirador inteligente que carrega e funciona por si próprio.
O emprego da aprendizagem de máquinas expande-se para cenários muito complexos e que comportam riscos. Decisões empresariais dispendiosas, prevendo a credibilidade de um candidato num banco, receitas de medicamentos num hospital, e até departamentos de crime para analisar provas, etc.
Mas como se pode detectar lacunas nas previsões e decisões de um modelo de aprendizagem automática? Talvez queira saber porque é que um modelo prescreve um determinado medicamento a um paciente. Suponha que descobre que uma determinada decisão do modelo de aprendizagem da máquina é errada ou imprecisa. Nesse caso, gostaria de conhecer os algoritmos e passos que a máquina utilizou para produzir tal resultado.
É aqui que os modelos de aprendizagem da máquina interpretáveis são eficazes. Com técnicas e implementação adequadas, ajudam a compreender o raciocínio de um modelo de aprendizagem. Ao contrário dos modelos explicáveis, os modelos interpretáveis empregam diferentes técnicas (Regressão Linear, Regressão Logística, Árvore de Decisão, etc.) e são bastante fáceis de compreender.
Vamos discutir porque é que os modelos de aprendizagem de máquinas interpretáveis são tão importantes.

Facilidade de compreensão

Por exemplo, criou um modelo que explica quanto tempo levará um projecto de construção a ser concluído. O mesmo modelo pode também estimar o montante de receitas que geraria durante os primeiros anos de funcionamento. Fá-lo utilizando os dados que coloca no modelo, além do que recolhe da Internet (tendências do mercado, capacidade industrial da área, estatísticas de rendimento e investimento da área, etc.).
E antes de implementar tal modelo nos negócios, é necessária a aprovação dos executivos de topo. Lembre-se, a única forma de aprovarem um modelo é se o compreenderem.
Assim, a interpretabilidade explicará ao seu chefe como funciona o modelo, utilizando linguagem simples em vez de algaraviadas técnicas.

Um modelo pode ensinar-lhe certas coisas

Pode não ter sabido que o seu processo de trabalho aplica uma determinada fórmula ou código. Um modelo interpretável irá ajudá-lo a compreender facilmente porque foi utilizado e permitir-lhe-á aprender com ele. Portanto, quanto maior for a interpretabilidade do modelo, mais compreenderá.

Decisões não tendenciosas e justas

É óbvio que o modelo de aprendizagem da máquina tomará decisões com base nos dados que recolher e nos dados que colocar inicialmente. Não é verdade que um modelo irá sempre produzir uma decisão imparcial. Por exemplo, devido à segregação, pode haver um perfil racial no processamento dos locais de certos indivíduos. Devido à raça, o modelo pode tomar uma decisão tendenciosa.
No entanto, com um modelo interpretável, é possível determinar se o seu modelo tomou uma decisão justa. Além disso, pode facilmente corrigi-lo e evitar tais dificuldades no futuro.

Previsão do desempenho futuro de um modelo

Com o passar do tempo, o desempenho de um modelo de aprendizagem de máquinas pode melhorar ou deteriorar-se. As variáveis que utiliza nos seus cálculos ou os dados que utiliza podem tornar-se obsoletos ou deixar de ser viáveis para os seus algoritmos. Por exemplo, um modelo que prevê o género de um indivíduo com base na informação do seu rendimento/desvio salarial pode tornar-se inútil se os desvios salariais na nossa sociedade moderna deixarem de existir.
Por exemplo, o modelo prevê indivíduos com rendimentos de $18.000-$20.000 como mulheres, e indivíduos com rendimentos de $15.000-17.000 como homens. No entanto, ao reduzir as diferenças salariais, poderá ser difícil para o modelo tomar uma decisão. Se a gama de rendimentos para os homens passar de 15.000-17.000 para 16.000-19.000, neste caso, um modelo pode sugerir homens como mulheres.
Assim, é possível prever o desempenho futuro de um modelo e compensá-lo.

Um Drawback dos Modelos de Aprendizagem da Máquina

Os modelos de aprendizagem mecânica possuem a susceptibilidade à exploração. Os utilizadores podem facilmente manipular os resultados que um modelo de aprendizagem de máquinas produz.
Por exemplo, consideremos um modelo que funciona para calcular o risco e a credibilidade dos candidatos a empréstimo. Sabe rejeitar candidatos com múltiplos cartões de crédito, uma vez que representam um alto risco no reembolso de empréstimos. Contudo, se um candidato estiver ciente disto, ele ou ela pode cancelar todos os seus cartões de crédito antes de aparecer como candidato ao empréstimo.
Desta forma, manipulam o modelo para os mostrar como candidatos adequados para o empréstimo.

Conclusão

A interpretabilidade na aprendizagem mecânica permite uma melhor compreensão. É uma característica que facilita aos utilizadores a melhoria de quaisquer erros ou erros e a compensação de melhorias futuras.
Com uma maior interpretabilidade, é possível alcançar uma compreensão máxima de como um modelo de aprendizagem automática tomou uma decisão. Isto permitir-lhe-á apoiar as suas decisões aos outros, explicando-lhes através de um modelo interpretável.
É uma crença válida que ao saber como uma máquina funciona e se melhora a si própria, pode melhorar o seu conhecimento e compreensão da inteligência. Isto pode ajudá-lo a criar modelos automatizados, que podem avançar ainda mais para versões melhores.