En la imagen de abajo, se muestran la concentración de hemoglobina en glóbulos rojos y el volumen de glóbulos rojos de dos grupos de personas: el grupo con anemia y el grupo control (es decir, el grupo de personas sin anemia ). Como era de esperar, las personas con anemia tienen un volumen de glóbulos rojos y una concentración de hemoglobina en glóbulos rojos más bajos que aquellas sin anemia.
se denota como el grupo al que pertenece con cuando pertenece al grupo con anemia y cuando pertenece al grupo de control. Además, donde , y . Véase la distribución categórica.
El siguiente procedimiento se puede utilizar para estimar .
Se puede aplicar una estimación de máxima verosimilitud:
Si es conocido, la estimación de los parámetros resulta bastante sencilla con la estimación de máxima verosimilitud . Pero si se desconoce, es mucho más complicado. [2]
GMM sin etiquetas
Siendo una variable latente (es decir, no observada), en un escenario no etiquetado, se necesita el algoritmo de maximización de expectativas para estimar así como otros parámetros. Generalmente, este problema se plantea como un GMM, dado que los datos de cada grupo se distribuyen normalmente.
En el aprendizaje automático, la variable latente 𝑧 se considera como un patrón oculto subyacente a los datos, que el observador no puede ver de manera muy directa. son los datos conocidos, mientras que son los parámetros del modelo. Con el algoritmo EM, se puede encontrar algún patrón subyacente en los datos , junto con la estimación de los parámetros. La amplia aplicación de esta circunstancia en el aprendizaje automático es lo que hace que el algoritmo EM sea tan importante.
El algoritmo EM consta de dos pasos: el paso E y el paso M. En primer lugar, se definen los parámetros del modelo y los se puede inicializar aleatoriamente. En el paso E, el algoritmo intenta adivinar el valor de basado en los parámetros, mientras que en el paso M, el algoritmo actualiza el valor de los parámetros del modelo en función de la estimación de del paso E. Estos dos pasos se repiten hasta alcanzar la convergencia.