Ir al contenido

Algoritmo EM y modelo GMM

De Wikipedia, la enciclopedia libre

En estadística, el algoritmo EM (maximización de expectativas) maneja variables latentes, mientras que GMM es el modelo de mezcla gaussiana.

Antecedentes

[editar]

En la imagen de abajo, se muestran la concentración de hemoglobina en glóbulos rojos y el volumen de glóbulos rojos de dos grupos de personas: el grupo con anemia y el grupo control (es decir, el grupo de personas sin anemia ). Como era de esperar, las personas con anemia tienen un volumen de glóbulos rojos y una concentración de hemoglobina en glóbulos rojos más bajos que aquellas sin anemia.

Modelo GMM con etiquetas

es un vector aleatorio tal que , y según estudios médicos[cita requerida] se sabe que se distribuye normalmenteen cada grupo, es decir, .

se denota como el grupo al que pertenece con cuando pertenece al grupo con anemia y cuando pertenece al grupo de control. Además, donde , y . Véase la distribución categórica.

El siguiente procedimiento se puede utilizar para estimar .

Se puede aplicar una estimación de máxima verosimilitud:

Dado que para cada son conocidos, la función de verosimilitud logarítmica se puede simplificar del siguiente modo:

Ahora la función de verosimilitud puede maximizarse tomando la derivada parcial sobre , obteniendo:

[1]

Si es conocido, la estimación de los parámetros resulta bastante sencilla con la estimación de máxima verosimilitud . Pero si se desconoce, es mucho más complicado. [2]

GMM sin etiquetas

Siendo una variable latente (es decir, no observada), en un escenario no etiquetado, se necesita el algoritmo de maximización de expectativas para estimar así como otros parámetros. Generalmente, este problema se plantea como un GMM, dado que los datos de cada grupo se distribuyen normalmente.

En el aprendizaje automático, la variable latente 𝑧 se considera como un patrón oculto subyacente a los datos, que el observador no puede ver de manera muy directa. son los datos conocidos, mientras que son los parámetros del modelo. Con el algoritmo EM, se puede encontrar algún patrón subyacente en los datos , junto con la estimación de los parámetros. La amplia aplicación de esta circunstancia en el aprendizaje automático es lo que hace que el algoritmo EM sea tan importante.

Animation of updates to a GMM at each update to the distribution in the EM algorithm.
Entrenamiento del GMM sobre datos artificiales

Algoritmo EM en GMM

[editar]

El algoritmo EM consta de dos pasos: el paso E y el paso M. En primer lugar, se definen los parámetros del modelo y los se puede inicializar aleatoriamente. En el paso E, el algoritmo intenta adivinar el valor de basado en los parámetros, mientras que en el paso M, el algoritmo actualiza el valor de los parámetros del modelo en función de la estimación de del paso E. Estos dos pasos se repiten hasta alcanzar la convergencia.

El algoritmo en GMM es:

Repetir hasta la convergencia:

2. (Paso M) Actualizar los parámetros
  
   
   

[3]

Con la regla de Bayes se obtiene el siguiente resultado mediante el paso E:

Según la configuración del GMM, se obtienen las siguientes fórmulas:

De esta manera, es posible cambiar entre el paso E y el paso M, según los parámetros inicializados aleatoriamente.

Referencias

[editar]
  1. Ng, Andrew. «CS229 Lecture notes». 
  2. Hui, Jonathan (13 de octubre de 2019). «Machine Learning —Expectation-Maximization Algorithm (EM)». Medium (en inglés). 
  3. Ng, Andrew. «CS229 Lecture notes».