“Interpretabilità” si riferisce alla misura in cui si può capire il ragionamento dietro una decisione. D’altra parte, il Machine Learning permette a un computer di migliorare le sue decisioni in base ai dati che raccoglie. Così, crea un modello di apprendimento automatico che continua a migliorare il codice di modelli e algoritmi dai dati. L’interpretabilità nel Machine Learning, tuttavia, significa qualcosa di diverso.
Se un modello di apprendimento automatico ha una bassa interpretabilità, non sarete in grado di capire perché il modello di apprendimento automatico prende certe decisioni e non altre. Al contrario, con un’alta interpretabilità del modello, è possibile determinare facilmente le ragioni delle decisioni di un modello di machine learning.
Regressione lineare e logistica, albero delle decisioni, ecc., sono alcune tecniche di un modello di apprendimento automatico.

Importanza dell’interpretabilità

Perché pensi che sia importante che un modello di apprendimento automatico sia interpretabile?
I modelli di apprendimento automatico hanno numerose applicazioni in questa era digitale. Le raccomandazioni di film sulle applicazioni di streaming e i suggerimenti delle pagine dei social media sono solo la punta dell’iceberg. I chatbot di intelligenza artificiale (AI) possono condurre interviste, aiutare i clienti online a prendere una decisione di acquisto e alimentare un aspirapolvere intelligente che si carica e funziona da solo.
L’ulteriore impiego del machine learning si espande a scenari molto complessi e rischiosi. Decisioni commerciali costose, prevedere la credibilità del prestito di un candidato in una banca, prescrizioni di farmaci in un ospedale, e persino dipartimenti di criminalità per analizzare le prove, ecc.
Ma come si possono individuare le falle nelle previsioni e decisioni di un modello di apprendimento automatico? Si potrebbe voler sapere perché un modello prescrive un certo farmaco a un paziente. Supponiamo che si scopra che una certa decisione del modello di apprendimento automatico è sbagliata o imprecisa. In questo caso, vorreste conoscere gli algoritmi e i passi che la macchina ha utilizzato per produrre un tale risultato.
È qui che i modelli di apprendimento automatico interpretabili sono efficaci. Con tecniche e implementazioni adeguate, aiutano a capire il ragionamento di un modello di apprendimento. Contrariamente ai modelli spiegabili, i modelli interpretabili impiegano diverse tecniche (regressione lineare, regressione logistica, albero di decisione, ecc.) e sono abbastanza facili da capire.
Discutiamo perché i modelli interpretabili di apprendimento automatico sono così importanti.

Facilità di comprensione

Per esempio, avete creato un modello che spiega quanto tempo ci vorrà per completare un progetto di costruzione. Lo stesso modello potrebbe anche stimare quante entrate genererebbe durante i primi anni di funzionamento. Lo fa utilizzando i dati che hai inserito nel modello, oltre a quelli che raccoglie da internet (tendenze del mercato, capacità industriale della zona, statistiche di reddito e di investimento della zona, ecc.)
E prima di implementare un tale modello negli affari, hai bisogno dell’approvazione dei dirigenti. Ricordate, l’unico modo in cui approveranno un modello è se lo capiranno.
Quindi, l’interpretabilità spiegherà al vostro capo come funziona il modello, usando un linguaggio semplice piuttosto che un gergo tecnico.

Un modello può insegnarti certe cose

Potresti non sapere che il tuo processo di lavoro applica una certa formula o codice. Un modello interpretabile vi aiuterà a capire facilmente perché è stato usato e vi permetterà di imparare da esso. Perciò, maggiore è l’interpretabilità del modello, più si capisce.

Decisioni senza pregiudizi e giuste

È ovvio che il modello di apprendimento automatico prenderà decisioni in base ai dati che raccoglie e ai dati che gli avete messo inizialmente. Non è vero che un modello produrrà sempre una decisione imparziale. Per esempio, a causa della segregazione, ci può essere un profiling razziale nell’elaborazione delle posizioni di alcuni individui. A causa della razza, il modello può prendere una decisione distorta.
Tuttavia, con un modello interpretabile, potete determinare se il vostro modello ha preso una decisione giusta. Inoltre, è possibile correggerla facilmente ed evitare tali difficoltà in futuro.

Previsione delle prestazioni future di un modello

Con il passare del tempo, le prestazioni di un modello di apprendimento automatico possono migliorare o peggiorare. Le variabili che usa nei suoi calcoli o i dati che utilizza possono diventare obsoleti o non essere più validi per i suoi algoritmi. Per esempio, un modello che predice il sesso di un individuo sulla base delle informazioni del suo reddito/differenza salariale può diventare inutile se le differenze salariali nella nostra società moderna cessano di esistere.
Per esempio, il modello predice gli individui con un reddito di $18.000-$20.000 come femmine, e gli individui con un reddito di $15.000-17.000 come maschi. Tuttavia, sulla riduzione del divario salariale, potrebbe essere difficile per il modello prendere una decisione. Se la gamma di reddito per gli uomini si sposta da 15.000-17.000 a 16.000-19.000, in questo caso, un modello potrebbe suggerire i maschi come femmine.
Così, è possibile prevedere le prestazioni future di un modello e compensarle.

Uno svantaggio dei modelli di apprendimento automatico

I modelli di apprendimento automatico possiedono la suscettibilità allo sfruttamento. Gli utenti possono facilmente manipolare i risultati che un modello di apprendimento automatico produce.
Per esempio, consideriamo un modello che lavora per calcolare il rischio e la credibilità dei candidati al prestito. Sa di rifiutare i candidati con più carte di credito perché rappresentano un alto rischio sul rimborso del prestito. Tuttavia, se un candidato è consapevole di questo, potrebbe cancellare tutte le sue carte di credito prima di apparire come candidato per il prestito.
In questo modo, manipolano il modello per mostrarli come candidati adatti al prestito.

Conclusione

L’interpretabilità nel Machine Learning permette una migliore comprensione. È una caratteristica che rende facile per gli utenti migliorare qualsiasi errore o sbaglio e compensare il miglioramento futuro.
Con una maggiore interpretabilità, è possibile ottenere una massima comprensione di come un modello di apprendimento automatico ha preso una decisione. Questo vi permetterà di sostenere le vostre decisioni agli altri spiegando loro attraverso un modello interpretabile.
È una valida convinzione che sapendo come una macchina funziona e si migliora, si può migliorare la propria conoscenza e comprensione dell’intelligenza. Questo può aiutarvi a creare modelli automatizzati, che possono avanzare ulteriormente in versioni migliori.