Qu’est-ce que l’APC ?

Supposons que vous deviez prévoir ce que sera la production nationale totale (produit intérieur brut) des États-Unis en 2017. Vous disposez d’un tas de données accessibles : le produit intérieur brut des États-Unis pour le principal trimestre de 2017, le produit intérieur brut des États-Unis pour le total de 2016, 2015, etc. Vous disposez de n’importe quel indicateur monétaire accessible, comme le taux de chômage, le taux d’expansion, etc. Vous disposez d’informations sur l’enregistrement aux États-Unis en 2010, qui évaluent le nombre d’Américains travaillant dans chaque secteur d’activité, et d’informations sur l’examen des groupes de population américaine, qui actualisent les évaluations figurant au milieu de chaque statistique. Vous savez combien de personnes de la Chambre et du Sénat ont une place dans chaque groupe idéologique. Vous pourriez accumuler des informations sur la valeur des actions, la quantité d’introductions en bourse qui ont lieu dans une année et le nombre de chefs qui semblent monter une offre d’ouverture de poste. Bien que le nombre de facteurs à prendre en compte soit stupéfiant, cette foire commence à exposer ce qu’il y a en dessous.

Vous pouvez poser la question suivante : “Comment pourrais-je prendre l’ensemble des facteurs que j’ai recueillis et me concentrer sur quelques uns d’entre eux seulement ? En termes spécialisés, vous devez “diminuer la composante de l’espace de votre élément”. En diminuant l’élément de votre espace élément, vous avez moins de connexions entre les facteurs à prendre en compte et vous êtes plus réticent à surdimensionner votre modèle. (Remarque : cela ne signifie pas rapidement que le suréquipement, et ainsi de suite, n’est plus jamais un problème – cependant, nous avançons dans la bonne direction).

Dans une certaine mesure, la diminution de l’élément de l’espace composant est évidemment classée comme “diminution de la dimensionnalité”. Il existe de nombreuses approches pour réaliser la diminution de la dimensionnalité, mais une grande partie de ces procédures peuvent être classées dans l’une des deux classes :

Mettre l’accent sur l’élimination

Extraction des faits saillants

La disposition des hautes lumières est ce qu’elle semble être : nous diminuons l’espace des composants en nous passant des hautes lumières. Dans le modèle du produit intérieur brut ci-dessus, plutôt que de penser à chacun des facteurs, nous pouvons laisser tomber tous les facteurs, à l’exception des trois qui, selon nous, permettront de mieux prévoir à quoi ressemblera la production nationale totale des États-Unis. Les points d’intérêt des techniques de mise en évidence et de fin incorporent la facilité et le maintien de l’interprétabilité de vos facteurs.

Cependant, pour vous rendre un mauvais service, vous n’obtenez aucune donnée à partir des variables que vous avez supprimées. Si nous utilisons le produit intérieur brut d’il y a un an, l’importance de la population dans l’assemblage des professions selon les derniers chiffres de l’American People Group Study, et le taux de chômage pour prévoir le produit intérieur brut de l’année en cours, nous passons à côté de tout ce que les facteurs abandonnés pourraient ajouter à notre modèle. En nous dispensant des points forts, nous avons en outre totalement éliminé tous les avantages que ces facteurs abandonnés pourraient apporter.

L’extraction de la lumière, quoi qu’il en soit, ne se heurte pas à ce problème. Supposons que nous ayons dix facteurs autonomes. Dans l’extraction d’inclusion, nous faisons dix “nouveaux” facteurs autonomes, où chaque “nouveau” facteur libre est un mélange de chacun des dix “anciens” facteurs autonomes. Dans tous les cas, nous créons ces nouvelles variables libres dans un certain but et nous demandons ces nouveaux facteurs en fonction de la façon dont ils prévoient notre variable dépendante.

Vous pouvez dire : “Où la diminution de la dimensionnalité devient-elle un facteur intégral ? Eh bien, nous gardons le même nombre de nouvelles variables libres que nous avons besoin, cependant, nous laissons tomber les “moins significatives”. Puisque nous avons demandé les nouvelles variables en fonction de la façon dont elles prévoient notre variable nécessaire, nous réalisons quelle variable est la plus significative et la moins significative. Quoi qu’il en soit, – et c’est là que le bât blesse – au motif que ces nouveaux facteurs libres sont des mélanges de nos anciens facteurs, même si nous conservons les éléments les plus significatifs de nos anciens facteurs, en tout cas, lorsque nous abandonnons au moins une de ces “nouvelles” variables !

L’enquête sur le segment de tête est une méthode d’extraction d’inclusion – elle consolide donc nos facteurs d’information dans un certain but, à ce moment-là nous pouvons laisser tomber les facteurs “les moins importants” tout en conservant les éléments les plus importants de l’ensemble des facteurs ! En outre, chacun des “nouveaux” facteurs après l’ACP est dans l’ensemble libre de tout autre facteur. Il s’agit d’un avantage dans la mesure où les présomptions d’un modèle linéaire exigent que nos facteurs autonomes soient libres les uns des autres. Si nous choisissons de faire correspondre un modèle de rechute simple à ces “nouvelles” variables (voir la section “rechute de la tête” ci-dessous), cette présomption sera essentiellement respectée.

Quand est-il conseillé d’utiliser l’APC ?

Vous souhaitez diminuer le nombre de facteurs, mais vous n’êtes pas prêt à reconnaître les facteurs à exclure totalement de la réflexion ?

Voulez-vous garantir que vos facteurs sont libres les uns des autres ?

Est-il vrai que vous êtes ouvert à la possibilité de rendre vos facteurs libres moins interprétables ?

Si vous avez répondu “oui” à chacune des trois enquêtes, l’APC est alors une bonne stratégie à utiliser. Si vous avez répondu “non” à la troisième, vous ne devriez pas utiliser l’APC.

Comment fonctionne l’APC ?

Le segment suivant examine pourquoi l’ACP fonctionne, mais il peut être utile de donner un bref aperçu avant de passer au calcul :

Nous allons élaborer un cadre qui décrit comment nos facteurs s’identifient tous les uns aux autres.

Nous séparerons alors ce treillis en deux segments distincts : le cap et la grandeur. Nous serions alors en mesure de comprendre les “titres” de nos informations et leur “étendue” (ou la “signification” de chaque cours). La capture d’écran ci-dessous, tirée de l’applet setosa.io, montre les deux principaux repères de cette information : le “cap rouge” et le “cap vert”. Pour cette situation, le “cap rouge” est le plus significatif. Nous verrons plus tard pourquoi il en est ainsi, mais compte tenu de l’organisation des points, pourriez-vous percevoir une raison pour laquelle le “cap rouge” semble plus significatif que le “cap vert” (Indication : À quoi pourrait ressembler une ligne qui correspondrait le mieux à cette information)

Nous modifierons nos informations uniques pour nous aligner sur ces rubriques importantes (qui sont des mélanges de nos facteurs uniques). La capture d’écran en dessous (toujours de setosa.io) est une information précise et indiscernable du dessus, mais modifiée dans le but que les x et y-tomahawks soient actuellement le “cap rouge” et le “cap vert”. À quoi pourrait ressembler la ligne de meilleur ajustement ici ?

Bien que le modèle visuel soit ici bidimensionnel (et dans ce sens, nous avons deux “rubriques”), considérons une situation où nos informations ont plus de mesures. En distinguant les “repères” qui sont généralement “significatifs”, nous pouvons regrouper ou étendre nos informations dans un petit espace en laissant tomber les “rubriques” qui sont “les moins significatives”. En anticipant nos informations dans un petit espace, nous diminuons la dimensionnalité de notre espace composant… mais depuis que nous avons modifié nos informations de ces diverses “manières”, nous avons tenu à conserver chaque variable unique dans notre modèle !