Qu’est-ce que l’algorithme EM ?

L’algorithme de maximisation des attentes (EM) est une approche qui permet de découvrir les jauges de probabilité les plus extrêmes pour les paramètres du modèle lorsque vos informations sont inadéquates, qu’elles sont incomplètes ou qu’elles présentent des facteurs d’inutilisation secrets (dissimulés). Il s’agit d’une méthode itérative qui permet d’inexécuter le travail sur les probabilités les plus extrêmes. Si la plupart des estimations de probabilité extrême permettent de trouver le modèle “le mieux adapté” pour un grand nombre d’informations, elles ne fonctionnent pas particulièrement bien pour les indices informationnels déficients. Plus le calcul EM est époustouflant, plus il permet de découvrir les paramètres du modèle, que vous ayez ou non des informations manquantes. Il fonctionne en choisissant des qualités arbitraires pour les foyers d’information manquants et en utilisant ces conjectures pour évaluer le deuxième arrangement d’information. Les nouvelles qualités sont utilisées pour faire une conjecture supérieure pour l’ensemble primaire, et la procédure se poursuit jusqu’à ce que le calcul fusionne sur un point fixe.

EML contre EM

Bien que l’estimation de la probabilité la plus extrême (ELM) et la SE puissent toutes deux découvrir les paramètres “les mieux adaptés”, elles découvrent que les modèles sont tout à fait différents. La MLE regroupe d’abord l’ensemble des informations, puis utilise ces informations pour développer le modèle sans doute. EM spécule d’abord sur les paramètres – représentant les informations manquantes – puis modifie le modèle pour qu’il corresponde aux conjectures et aux informations observées. Les étapes fondamentales du calcul sont les suivantes :

Une théorie sous-jacente est élaborée pour les paramètres du modèle et un transfert de probabilité est effectué. Cette méthode est parfois appelée “E-Venture” pour la transmission “normale”.

Les informations récemment observées sont intégrées dans le modèle.

Le transfert de probabilité de l’étape électronique est modifié pour intégrer les nouvelles informations. C’est ce qu’on appelle ici et là l'”étape M”.

Les étapes 2 à 4 sont répétées jusqu’à ce que la solidité soit atteinte (par exemple une circulation qui ne se transforme pas de la E-venture à la M-step).

Le calcul EM améliore constamment l’estimation d’un paramètre grâce à ce processus en plusieurs étapes. En tout état de cause, il nécessite dans certains cas quelques irrégularités commence à localiser le meilleur modèle à la lumière du fait que le calcul peut se concentrer sur un maximum de quartier qui n’est pas si proche des maxima mondiaux (idéaux). En fin de compte, il peut être plus performant si vous le contraignez à redémarrer et à reprendre cette “hypothèse sous-jacente” de la première étape. Parmi l’ensemble des paramètres potentiels, vous pourrez alors choisir celui qui présente la meilleure probabilité la plus extrême.

En réalité, les moyennes comprennent des probabilités mathématiques (de réconciliation) et restrictives vraiment substantielles, ce qui dépasse la portée de cet article. Dans le cas où vous auriez besoin d’une décomposition progressivement spécialisée (par exemple basée sur les mathématiques) de la procédure, je vous prescris profondément de lire l’article de Gupta et Chen de 2010.

Demandes

Le calcul de l’EM a de nombreuses applications, notamment :

Signe superposé de désensibilisation,

Évaluation des modèles de mélange gaussien (MGM),

Évaluation des modèles de Markov cachés (Gee),

Evaluation des paramètres des transports composés de Dirichlet,

Trouver des mélanges idéaux de modèles fixes.

Restrictions

Le calcul de l’EM peut être incroyablement lent, même sur le PC le plus rapide. Il fonctionne mieux lorsque vous avez juste un petit niveau d’informations manquantes et que la dimensionnalité de l’information n’est pas trop énorme. Plus la dimensionnalité est élevée, plus l’étape E est lente ; pour les informations de plus grande dimensionnalité, vous pouvez découvrir que l’étape E est incroyablement retardée lorsque le système se rapproche d’un extrême proche.