¿Qué es el algoritmo EM?

El algoritmo de Expectativa-Máxima (EM) es un enfoque para descubrir los indicadores de probabilidad más extremos para los parámetros del modelo cuando su información es inadecuada, tiene focos de información faltantes, o tiene en secreto (encubierto) factores ociosos. Es un método iterativo para inexactuar el trabajo de probabilidad más extremo. Aunque la estimación de la probabilidad más extrema puede localizar el modelo “más adecuado” para mucha información, no funciona especialmente bien para índices de información deficientes. El cálculo más alucinante de la EM puede descubrir los parámetros del modelo sin importar si tiene información faltante. Funciona escogiendo cualidades arbitrarias para los focos de información faltante y utilizando esas conjeturas para evaluar la segunda disposición de la información. Las nuevas cualidades se utilizan para hacer una conjetura superior para el conjunto primario, y el procedimiento procede hasta que el cálculo se fusiona en un punto fijo.

MLE contra EM

Aunque la Estimación de Probabilidad más extrema (EM) y la EM pueden descubrir los parámetros “más adecuados”, la forma en que descubren los modelos es totalmente diferente. La EML agrega la totalidad de la información primero y después, utiliza esa información para desarrollar el modelo sin duda. El EM especula primero con los parámetros, representando la información que falta, y en ese momento cambia el modelo para que se ajuste a las conjeturas y a la información observada. Los pasos fundamentales para el cálculo son:

Se elabora una teoría subyacente para los parámetros del modelo y se realiza un transporte de probabilidad. Esto se llama de vez en cuando el “E-Venture” para el transporte “Normal”.

La información observada recientemente se alimenta en el modelo.

La transmisión de probabilidad del paso E se modifica para incorporar la nueva información. Esto es aquí y allá llamado el “Paso M”.

Las etapas 2 a 4 se repiten hasta que se alcanza la solidez (por ejemplo, una circulación que no se transforma del paso E al paso M).

El Cálculo EM mejora consistentemente la estimación de un parámetro a través de este proceso de múltiples pasos. En cualquier caso, en algunos casos necesita un par de irregulares comienza a localizar el mejor modelo a la luz del hecho de que el cálculo puede centrarse en un máximo de vecindario que no está tan cerca de los máximos mundiales (ideales). Al final del día, puede funcionar mejor en el caso de que lo obligues a reiniciar y a tomar esa “suposición subyacente” de la Etapa 1 una vez más. A partir de la totalidad de los parámetros potenciales, sería entonces capaz de elegir el de mayor probabilidad más extrema.

En realidad, los medios incluyen algunas matemáticas verdaderamente sustanciales (reconciliación) y probabilidades restrictivas, lo que supera el alcance de este artículo. En caso de que necesite un desglose progresivamente especializado (por ejemplo, basado en las matemáticas) del procedimiento, le prescribo profundamente que lea el artículo de Gupta y Chen de 2010.

Aplicaciones

El cálculo del EM tiene numerosas aplicaciones, entre ellas:

Signo superpuesto que desensibiliza,

Evaluando los modelos de mezcla gaussianos (GMM),

Evaluando los modelos ocultos de Markov (Gee),

Evaluando los parámetros de los transportes compuestos de Dirichlet,

Encontrar mezclas ideales de modelos fijos.

Restricciones

El cálculo del EM puede ser increíblemente lento, incluso en el PC más rápido. Funciona mejor cuando tienes un pequeño nivel de información faltante y la dimensionalidad de la información no es demasiado enorme. Cuanto más alta es la dimensionalidad, más lento es el E-step; para información con mayor dimensionalidad, puedes descubrir que el E-step corre increíblemente retrasado a medida que el sistema se mueve hacia un extremo cercano.