Historique de l’analyse prédictive et progrès actuels

Bien que l’analyse prédictive existe depuis des décennies, c’est une technologie dont l’heure est venue. De plus en plus d’organisations se tournent vers l’analyse prédictive pour augmenter leurs profits et leur avantage concurrentiel. Pourquoi maintenant ?

Les volumes et les types de données augmentent, et l’intérêt pour l’utilisation des données afin de produire des informations utiles est plus grand.

Des ordinateurs plus rapides et moins chers.

Des logiciels plus faciles à utiliser.

Des conditions économiques plus difficiles et un besoin de différenciation concurrentielle.

Avec la popularité croissante des logiciels interactifs et faciles à utiliser, l’analyse prédictive n’est plus seulement le domaine des mathématiciens et des statisticiens. Les analystes commerciaux et les experts des secteurs d’activité utilisent également ces technologies.

Pourquoi l’analyse prédictive est-elle importante ?

Les organisations se tournent vers l’analyse prédictive pour résoudre des problèmes difficiles et découvrir de nouvelles opportunités. Parmi les utilisations courantes, citons :

Détection de la fraude. La combinaison de plusieurs méthodes d’analyse peut améliorer la détection des modèles et prévenir les comportements criminels. Avec la cybersécurité, qui devient une préoccupation croissante, l’analyse comportementale basée sur les performances examine toutes les actions sur un réseau en temps réel afin d’identifier les anomalies qui peuvent suggérer une fraude, les vulnérabilités de type “zero-day” et les menaces persistantes avancées.

Optimisation des campagnes de marketing. L’analyse prédictive est utilisée pour déterminer les réponses ou les achats des clients, ainsi que pour promouvoir les opportunités de ventes croisées. Les modèles prédictifs aident les entreprises à attirer, conserver et développer des clients plus rentables.

Amélioration des opérations. De nombreuses entreprises utilisent des modèles prédictifs pour prévoir les stocks et gérer les actifs. Les compagnies aériennes utilisent l’analyse prédictive pour établir le prix des billets. Les hôtels essaient de prédire le nombre de clients par nuit pour maximiser l’occupation et augmenter les revenus. L’analyse prédictive permet aux organisations de fonctionner plus efficacement.

Réduire les risques. Les scores de crédit sont utilisés pour évaluer la probabilité de défaillance des acheteurs sur les achats et sont un exemple bien connu d’analyse prédictive. Un score de crédit est un nombre généré par un modèle prédictif qui intègre toutes les données relatives à la solvabilité d’une personne. Parmi les autres utilisations liées au risque, citons les réclamations d’assurance et le recouvrement.

Qui l’utilise ?

Tout secteur d’activité peut utiliser l’analyse prédictive pour réduire les risques, optimiser les opérations et augmenter les revenus. Voici quelques exemples.

Services bancaires et financiers

Le secteur financier, avec d’énormes quantités de données et d’argent en jeu, a depuis longtemps adopté l’analyse prédictive pour détecter et réduire la fraude, mesurer le risque de crédit, maximiser les opportunités de ventes croisées/augmentées et conserver les clients de valeur. La Commonwealth Bank utilise l’analyse pour prédire la probabilité de fraude pour toute transaction avant qu’elle ne soit autorisée – dans les 40 millisecondes suivant le début de la transaction.

Vente au détail

À partir de l’étude désormais tristement célèbre qui a montré que les hommes qui achètent des couches-culottes achètent souvent de la bière en même temps, les détaillants du monde entier utilisent l’analyse prédictive pour la planification des marchandises et l’optimisation des prix, pour analyser l’efficacité des événements promotionnels et pour déterminer quelles offres sont les mieux adaptées aux consommateurs. Staples a acquis une meilleure connaissance des clients en analysant leur comportement, en fournissant une image complète de leurs clients et en réalisant un retour sur investissement de 137 %.

Pétrole, gaz et services publics

Qu’il s’agisse de prévoir les défaillances des équipements et les besoins futurs en ressources, d’atténuer les risques en matière de sécurité et de fiabilité ou d’améliorer les performances globales, l’industrie de l’énergie a adopté avec vigueur l’analyse prédictive. Le projet Salt River est la deuxième plus grande compagnie d’électricité publique des États-Unis et l’un des plus grands fournisseurs d’eau de l’Arizona. L’analyse des données des capteurs des machines permet de prédire quand les turbines de production d’énergie ont besoin d’être entretenues.

Gouvernements et secteur public

Les gouvernements ont joué un rôle clé dans l’avancement des technologies de l’information. Le Bureau du recensement américain a analysé les données pour comprendre les tendances démographiques depuis des décennies. Les gouvernements utilisent maintenant l’analyse prédictive comme beaucoup d’autres industries – pour améliorer le service et les performances, détecter et prévenir la fraude, et mieux comprendre le comportement des consommateurs. Ils utilisent également l’analyse prédictive pour améliorer la sécurité de l’information.

Comment cela fonctionne-t-il ?

Les modèles prédictifs utilisent des résultats connus pour développer (ou former) un modèle qui peut être utilisé pour prédire des valeurs pour des données différentes ou nouvelles. La modélisation fournit des résultats sous la forme de prédictions qui représentent une probabilité de la variable cible (par exemple, les revenus) en fonction de l’importance estimée d’un ensemble de variables d’entrée.

Cela diffère des modèles descriptifs qui aident à comprendre ce qui s’est passé, ou des modèles diagnostiques qui aident à comprendre les relations clés et à déterminer pourquoi quelque chose s’est produit. Des livres entiers sont consacrés aux méthodes et techniques d’analyse. Des programmes universitaires complets explorent ce sujet en profondeur. Mais pour commencer, voici quelques éléments de base.

Il existe deux types de modèles prédictifs. Les modèles de classification impliquent l’appartenance à une classe. Par exemple, ils tentent de classer si quelqu’un est susceptible de partir, s’il répondra à une sollicitation, si c’est un bon ou un mauvais risque de crédit, etc. Habituellement, les résultats du modèle sont sous la forme de 0 ou de 1, et 1 est l’événement visé. Les modèles de régression prédisent un nombre – par exemple, combien un client va générer au cours de l’année suivante ou le nombre de mois avant qu’un composant ne tombe en panne sur une machine.

Les techniques de modélisation prédictive les plus couramment utilisées sont les arbres de décision, la régression et les réseaux de neurones.

Les arbres de décision sont des modèles de classification qui subdivisent les données en sous-ensembles basés sur des catégories de variables d’entrée. Cela permet de comprendre le cheminement des décisions de quelqu’un. L’arbre de décision se présente sous la forme d’un arbre dont chaque branche représente un choix entre un ensemble d’alternatives et chaque feuille représente une classification ou une décision. Il examine les données et tente de trouver la seule variable qui divise les données en groupes logiques les plus divers. Les arbres décisionnels sont populaires parce qu’ils sont faciles à comprendre et à interpréter. Ils traitent également bien les valeurs manquantes et sont utiles pour la sélection préliminaire des variables. Ainsi, si vous avez beaucoup de valeurs manquantes ou si vous voulez une réponse rapide et facile à interpréter, vous pouvez commencer par un arbre.

La régression (linéaire et logistique) est l’une des méthodes les plus populaires en statistique. L’analyse de régression permet d’estimer les relations entre les variables. Destinée aux données continues dont on peut supposer qu’elles suivent une distribution normale, elle trouve des modèles clés dans de grands ensembles de données et est souvent utilisée pour déterminer comment des facteurs spécifiques, tels que le prix, affectent le mouvement d’un actif. Avec l’analyse de régression, nous voulons prédire un nombre, appelé réponse ou variable Y. Avec la régression linéaire, une variable indépendante est utilisée pour expliquer et/ou prédire le résultat de Y. La régression multiple utilise deux ou plusieurs variables indépendantes pour prédire le résultat. Avec la régression logistique, les variables inconnues d’une variable discrète sont prédites sur la base de la valeur connue d’autres variables. La variable de réponse est catégorique, ce qui signifie qu’elle ne peut prendre qu’un nombre limité de valeurs. Une variable de réponse n’a que deux valeurs telles que 0 ou 1 dans la régression logistique binaire. Une variable de réponse peut avoir différents niveaux, comme faible, moyen et élevé, ou 1, 2 et 3 dans la régression logistique multiple… Elles sont populaires parce qu’elles sont puissantes et flexibles. La puissance vient de leur capacité à traiter des relations non linéaires dans les données, ce qui est de plus en plus courant à mesure que l’on collecte davantage de données. Ils sont souvent utilisés pour confirmer les résultats de techniques simples telles que la régression et les arbres de décision. Les réseaux neuronaux sont basés sur la reconnaissance de modèles et certains processus d’IA qui “modélisent” graphiquement les paramètres. Ils fonctionnent bien lorsqu’il n’y a pas de formule mathématique connue qui relie les entrées aux sorties, lorsque la prévision est plus importante que l’explication ou lorsqu’il y a beaucoup de données de formation. Les réseaux neuronaux artificiels ont été développés à l’origine par des chercheurs qui cherchaient à imiter la neurophysiologie du cerveau humain.

Autres techniques populaires dont vous pouvez entendre parler

Analyse bayésienne. Les méthodes bayésiennes traitent les paramètres comme des variables aléatoires et définissent la probabilité comme des “degrés de croyance” (c’est-à-dire que la probabilité d’un événement est le degré auquel on croit que l’événement est vrai). Lorsque vous effectuez une analyse bayésienne, vous commencez par une croyance antérieure concernant la distribution de probabilité d’un paramètre inconnu. Après avoir pris connaissance des informations contenues dans les données dont vous disposez, vous pouvez modifier ou mettre à jour votre croyance concernant le paramètre inconnu.

Assemblez les modèles. Les modèles d’ensemble sont produits en entraînant plusieurs modèles similaires et en combinant leurs résultats pour améliorer la précision, réduire la distorsion, réduire la variance et identifier le meilleur modèle à utiliser avec les nouvelles données.

Augmenter le gradient. Il s’agit d’une approche de renforcement qui rééchantillonne l’ensemble de données plusieurs fois afin de générer des résultats qui forment une moyenne pondérée de l’ensemble de données rééchantillonné. Comme les arbres de décision, le boosting ne fait aucune hypothèse sur la distribution des données. Elle est moins sujette au surdimensionnement des données qu’un arbre de décision unique, et si un arbre de décision correspond suffisamment bien aux données, alors la dynamisation améliore souvent la correspondance. (Le surajustement des données signifie que vous utilisez trop de variables et que le modèle est trop complexe. Le sous-ajustement signifie le contraire : il n’y a pas assez de variables et le modèle est trop simple. Ces deux facteurs réduisent la précision des prévisions).

Réponse incrémentielle (également appelée modèles de levage ou de levage net). Ces modèles représentent le changement de probabilité causé par une action. Ils sont largement utilisés pour réduire le taux de désabonnement et pour découvrir les effets des différents programmes de marketing.

K le plus proche (knn). Il s’agit d’une méthode non paramétrique de classification et de régression qui implique les valeurs d’un objet ou l’appartenance à une classe sur la base d’exemples de formation k-plus proche.

Raisonnement basé sur la mémoire. Le raisonnement basé sur la mémoire est une technique de k-plus proche voisin pour classer ou prédire les observations.

Minimums carrés partiels. Cette technique statistique flexible peut être appliquée à des données de toute forme. Elle modélise les relations entre les entrées et les sorties même lorsque les entrées sont liées et bruitées, qu’il y a plus de sorties ou qu’il y a plus d’entrées que d’observations. La méthode des moindres carrés partiels recherche les facteurs qui expliquent à la fois les variations des réponses et des prédicteurs.

Analyse des principales composantes. L’objectif de l’analyse des composantes principales est de dériver un petit nombre de combinaisons linéaires indépendantes (composantes principales) d’un ensemble de variables qui conservent autant d’informations que possible dans les variables d’origine.

Support de la machine vectorielle. Cette technique d’apprentissage machine supervisée utilise des algorithmes d’apprentissage associés pour analyser les données et reconnaître les modèles. Elle peut être utilisée à la fois pour la classification et la régression.

Exploration de données de séries chronologiques. Les données de séries chronologiques sont chronométrées et collectées dans le temps à un intervalle de temps donné (ventes dans un mois, appels par jour, visites sur le web par heure, etc.) L’exploration de données de séries chronologiques combine les techniques traditionnelles d’exploration de données et de prévision. Les techniques d’exploration de données telles que l’échantillonnage, le regroupement et les arbres de décision sont appliquées aux données collectées au fil du temps dans le but d’améliorer les prévisions.