O que é o Algoritmo EM?

O algoritmo de Expectativa-Maximização (EM) é uma abordagem para descobrir a maioria dos medidores de probabilidade extremos para parâmetros do modelo quando a sua informação é inadequada, tem focos de informação ausentes, ou tem em segredo (encobertos) fatores ociosos. É um método iterativo para imprecisar o trabalho de probabilidade mais extrema. Enquanto a maioria das estimativas de probabilidade extrema pode localizar o modelo “melhor ajuste” para muitas informações, ele não funciona especialmente bem para índices informativos deficientes. Quanto mais o cálculo do EM surpreende, mais os parâmetros do modelo podem ser descobertos, independentemente de você ter ou não informações em falta. Ele funciona escolhendo qualidades arbitrárias para os focos de informação em falta e utilizando essas conjecturas para avaliar o segundo arranjo de informação. As novas qualidades são utilizadas para fazer uma conjectura superior para o conjunto primário, e o procedimento continua até que o cálculo se funda em um ponto fixo.

EML versus EM

Embora a maioria das estimativas de probabilidade extrema (EML) e EM possam ambos descobrir os parâmetros “best-fit”, como eles descobrem que os modelos são totalmente diferentes. A EML agrega a totalidade da informação primeiro e depois, utiliza essa informação para desenvolver o modelo sem dúvida. O EM especula primeiro sobre os parâmetros – representando a informação que falta – nesse ponto muda o modelo para se ajustar às conjecturas e à informação observada. Os passos fundamentais para o cálculo são:

Uma teoria subjacente é feita para os parâmetros do modelo e uma transmissão de probabilidade é feita. Isto é de vez em quando chamado de “E-Venture” para o transporte “Normal”.

A informação observada recentemente é alimentada no modelo.

A transmissão de probabilidade do passo E é alterada para incorporar as novas informações. Isto é aqui e ali chamado o “passo M”.

As etapas de 2 a 4 são reajustadas até que a solidez (por exemplo, uma circulação que não se transforma do E-venture para o M-step) seja atingida.

O Cálculo EM melhora consistentemente a estimativa de um parâmetro através deste processo de múltiplas etapas. De qualquer forma, em alguns casos, ele precisa de um par de irregulares começa a localizar o melhor modelo à luz do fato de que o cálculo pode se concentrar no máximo de uma vizinhança que não está tão próxima dos máximos (ideais) mundiais. No final do dia, ele pode ter um melhor desempenho na chance de que você o restrinja a recomeçar e a tomar aquela “suposição subjacente” da Etapa 1 mais uma vez. A partir da totalidade dos parâmetros potenciais, você seria então capaz de escolher aquele com a melhor probabilidade mais extrema.

Na realidade, os meios incluem alguma matemática verdadeiramente substancial (reconciliação) e probabilidades restritivas, o que já ultrapassou a extensão deste artigo. No caso de você precisar de uma decomposição progressivamente especializada (por exemplo, baseada em matemática) do procedimento, eu prescrevo profundamente que você leia o artigo de Gupta e Chen de 2010.

Aplicações

O cálculo EM tem inúmeras aplicações, incluindo:

Sinal de des-substituição,

Avaliação de modelos de misturas Gaussianas (GMMs),

Avaliação de modelos Markov ocultos (Gee),

Parâmetros de avaliação para o transporte composto de Dirichlet,

Encontrar as misturas ideais de modelos fixos.

Restrições

O cálculo EM pode ser incrivelmente lento, mesmo no PC mais rápido. Funciona melhor quando você tem apenas um pequeno nível de informação em falta e a dimensionalidade da informação não é muito grande. Quanto maior a dimensionalidade, mais lento o E-step; para informações com maior dimensionalidade, você pode descobrir que o E-step funciona incrivelmente atrasado à medida que o sistema se move em direção a um extremo mais próximo.