L'”interprétabilité” désigne la mesure dans laquelle vous pouvez comprendre le raisonnement qui sous-tend une décision. D’autre part, l’apprentissage automatique permet à un ordinateur d’améliorer ses décisions sur la base des données qu’il recueille. Ainsi, il crée un modèle d’apprentissage automatique qui ne cesse d’améliorer le code des modèles et des algorithmes à partir des données. L’interprétabilité dans l’apprentissage machine, cependant, signifie quelque chose de différent.
Si un modèle d’apprentissage automatique a une faible interprétabilité, vous ne pourrez pas comprendre pourquoi le modèle d’apprentissage automatique prend certaines décisions et pas d’autres. Au contraire, grâce à la grande capacité d’interprétation du modèle, vous pouvez facilement déterminer les raisons des décisions d’un modèle d’apprentissage automatique.
La régression linéaire et logistique, l’arbre de décision, etc. sont quelques techniques d’un modèle d’apprentissage machine.

Importance de l’interprétabilité

Pourquoi pensez-vous qu’il est important qu’un modèle d’apprentissage machine soit interprétable ?
Les modèles d’apprentissage machine ont de nombreuses applications en cette ère numérique. Les recommandations de films sur les applications de streaming et les suggestions de pages de médias sociaux ne sont que la partie visible de l’iceberg. Les chatbots d’intelligence artificielle (IA) peuvent mener des interviews, aider les clients en ligne à prendre une décision d’achat et alimenter un aspirateur intelligent qui se charge et fonctionne tout seul.
L’utilisation de l’apprentissage machine s’étend à des scénarios très complexes et risqués. Des décisions commerciales coûteuses, la prédiction de la crédibilité d’un prêt d’un candidat dans une banque, les prescriptions de médicaments dans un hôpital, et même les services de lutte contre la criminalité pour analyser les preuves, etc.
Mais comment détecter les failles dans les prévisions et les décisions d’un modèle d’apprentissage machine ? Vous voudrez peut-être savoir pourquoi un modèle prescrit un certain médicament à un patient. Supposons que vous découvriez qu’une certaine décision prise par le modèle d’apprentissage machine est erronée ou inexacte. Dans ce cas, vous voudriez connaître les algorithmes et les étapes que la machine a utilisés pour produire un tel résultat.
C’est là que les modèles d’apprentissage machine interprétables sont efficaces. Avec des techniques et une mise en œuvre appropriées, ils vous aident à comprendre le raisonnement d’un modèle d’apprentissage. Contrairement aux modèles explicables, les modèles interprétables utilisent différentes techniques (Régression linéaire, Régression logistique, Arbre de décision, etc.
) et sont assez faciles à comprendre. Voyons pourquoi les modèles d’apprentissage machine interprétables sont si importants.

Facilité de compréhension

Par exemple, vous avez créé un modèle qui explique combien de temps il faudra pour réaliser un projet de construction. Ce même modèle peut également estimer les revenus qu’il générera au cours des premières années d’exploitation. Il le fait en utilisant les données que vous avez introduites dans le modèle, en plus de ce qu’il recueille sur Internet (tendances du marché, capacité industrielle de la région, statistiques sur les revenus et les investissements de la région, etc.)
). Et avant de mettre en œuvre un tel modèle dans votre entreprise, vous devez obtenir l’approbation des cadres supérieurs. N’oubliez pas que la seule façon dont ils approuveront un modèle est qu’ils le comprennent.
Ainsi, la capacité d’interprétation permettra d’expliquer à votre patron comment le modèle fonctionne, en utilisant un langage simple plutôt qu’un charabia technique.

Un modèle peut vous apprendre certaines choses

Vous ne saviez peut-être pas que votre processus de travail applique une certaine formule ou un certain code. Un modèle interprétable vous aidera à comprendre facilement pourquoi il a été utilisé et vous permettra d’en tirer des enseignements. Par conséquent, plus l’interprétabilité du modèle est élevée, plus vous comprenez.

Des décisions justes et sans parti pris

Il est évident que le modèle d’apprentissage machine prendra des décisions en fonction des données qu’il recueille et des données que vous y avez mises au départ. Il n’est pas vrai qu’un modèle produira toujours une décision impartiale. Par exemple, en raison de la ségrégation, il peut y avoir un profilage racial dans le traitement des lieux de certaines personnes. En raison de la race, le modèle peut prendre une décision biaisée.
Cependant, avec un modèle interprétable, vous pouvez déterminer si votre modèle a pris une décision juste. De plus, vous pouvez facilement le corriger et éviter de telles difficultés à l’avenir.

Prévision des performances futures d’un modèle

Au fil du temps, les performances d’un modèle d’apprentissage machine peuvent soit s’améliorer, soit se détériorer. Les variables qu’il utilise dans ses calculs ou les données qu’il utilise peuvent devenir obsolètes ou ne plus être viables pour ses algorithmes. Par exemple, un modèle qui prédit le sexe d’un individu sur la base des informations relatives à son revenu/écart de salaire peut devenir inutile si les écarts de salaire dans notre société moderne cessent d’exister.
Par exemple, le modèle prédit des individus ayant un revenu de 18 000 à 20 000 dollars en tant que femmes, et des individus ayant un revenu de 15 000 à 17 000 dollars en tant qu’hommes. Toutefois, en ce qui concerne la réduction des écarts de salaires, il pourrait être difficile pour le modèle de prendre une décision. Si la fourchette de revenus des hommes passe de 15 000-17 000 à 16 000-19 000, dans ce cas, un modèle pourrait suggérer des hommes en tant que femmes.
Ainsi, vous pouvez prévoir les performances futures d’un modèle et les compenser.

Un inconvénient des modèles d’apprentissage automatique

Les modèles d’apprentissage machine sont susceptibles d’être exploités. Les utilisateurs peuvent facilement manipuler les résultats que produit un modèle d’apprentissage machine.
Prenons, par exemple, un modèle qui permet de calculer le risque et la crédibilité des candidats à un prêt. Il sait rejeter les candidats ayant plusieurs cartes de crédit car ils présentent un risque élevé pour le remboursement du prêt. Toutefois, si un candidat en est conscient, il peut annuler toutes ses cartes de crédit avant de se présenter comme candidat au prêt.
De cette façon, il manipule le modèle pour les présenter comme des candidats appropriés pour le prêt.

Conclusion

L’interprétabilité dans l’apprentissage automatique permet une meilleure compréhension. C’est une caractéristique qui permet aux utilisateurs d’améliorer facilement les erreurs et de compenser les améliorations futures.
Grâce à une meilleure interprétabilité, vous pouvez comprendre au maximum comment un modèle d’apprentissage automatique a pris une décision. Vous pourrez ainsi étayer vos décisions aux autres en leur expliquant au moyen d’un modèle interprétable.
On peut légitimement penser qu’en sachant comment une machine fonctionne et s’améliore, vous pouvez améliorer votre connaissance et votre compréhension de l’intelligence. Cela peut vous aider à créer des modèles automatisés, qui peuvent encore évoluer vers de meilleures versions.