Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

En cuanto a las percepciones, un modelo mixto es un modelo probabilístico para hablar de la cercanía de las subpoblaciones dentro de una población general, sin que sea necesario que una colección de información vigilada distinga la subpoblación a la que pertenece una percepción individual. Oficialmente, un modelo mixto se relaciona con la circulación mixta que habla de la probable dispersión de las percepciones en la población general. Sea como fuere, mientras que las cuestiones relacionadas con las “apropiaciones mixtas” se identifican con la inferencia de las propiedades de la población general a partir de las de las subpoblaciones, los “modelos mixtos” se utilizan para hacer deducciones mensurables sobre las propiedades de las subpoblaciones dadas sólo las percepciones sobre la población agrupada, sin datos de carácter de las subpoblaciones.

Algunas formas diferentes de actualizar los modelos de combinación incluyen pasos que caracterizan los caracteres de las subpoblaciones con hipótesis a percepciones singulares (o cargas hacia dichas subpoblaciones), en cuyo caso pueden considerarse como una especie de sistemas de aprendizaje en solitario o de agrupamiento. En cualquier caso, no todas las técnicas de deducción incluyen tales avances.

Los modelos de mezcla no deben confundirse con los modelos de información de composición, es decir, información cuyos segmentos se ven obligados a agregarse a un valor constante (1, 100%, etc.). En cualquier caso, los modelos de composición pueden considerarse como modelos de mezcla, en los que los individuos de la población son examinados sin rumbo. Por otra parte, los modelos de mezcla pueden considerarse como modelos de composición, en los que la población que se examina a fondo se ha estandarizado a 1.

Modelo de mezcla general

Un modelo común de mezcla de dimensiones limitadas es un modelo de varios niveles que comprende los segmentos que lo acompañan:

N variables irregulares que se observan, cada una de ellas dispersas por una mezcla de segmentos K, teniendo los segmentos un lugar con el grupo paramétrico equivalente de difusión (por ejemplo, todos los ordinarios, todos los Zipfian, etc.) pero con varios parámetros

N factores inertes arbitrarios que indican el carácter de la mezcla parte de cada percepción, cada uno apropiado por un transporte no mitigado de la dimensión K

Muchas cargas de mezcla de K, que son probabilidades que se agregan a 1.

Muchos parámetros K, cada uno de los cuales determina el parámetro del segmento de mezcla de comparación. Por regla general, cada “parámetro” es en realidad un montón de parámetros. Por ejemplo, si las partes de la mezcla son apropiaciones gaussianas, habrá una media y un cambio para cada segmento. En el caso de que las partes de la mezcla sean todas diseminadas (por ejemplo, cuando cada percepción sea una señal de un conjunto limitado de letras de tamaño V), habrá un vector de probabilidades V que se sumará a 1.

Además, en un entorno bayesiano, las cargas de mezcla y los parámetros serán en sí mismos factores arbitrarios, y las diseminaciones anteriores se pondrán por encima de los factores. En tal caso, las cargas se consideran normalmente como un vector arbitrario de dimensión K extraído de una circulación Dirichlet (el conjugado anterior de la apropiación absoluta), y los parámetros serán transmitidos por sus previos conjugados individuales.

Científicamente, un modelo de mezcla paramétrica fundamental puede ser representado como persigue:

En un entorno bayesiano, todos los parámetros están asociados con variables aleatorias, como sigue:

En esta representación se utilizan la F y la H para representar por separado las transmisiones discrecionales sobre las percepciones y los parámetros. Comúnmente H será el conjugado anterior de F. Las dos decisiones más básicas de F son gaussianas, también conocidas como “se esperaría” (para percepciones genuinamente estimadas) y claras (para percepciones discretas). Otros posibles resultados normales para la apropiación de los segmentos de mezcla son:

Difusión binomial, para la cantidad de “acontecimientos positivos” (por ejemplo, triunfos, sí emitir un voto, y así sucesivamente.) dado un número fijo de acontecimientos absolutos

Circulación multidimensional, como la apropiación binomial, sin embargo para la verificación de eventos multidireccionales (por ejemplo, sí/no/quizás en una visión general)

Circulación binomial negativa, para las percepciones de tipo binomial, sin embargo, donde la cantidad de intriga es el número de decepciones antes de que ocurra un determinado número de victorias

La circulación de Poisson, por el número de eventos de una ocasión en un marco de tiempo determinado, por una ocasión que es retratada por un ritmo fijo del evento

La dispersión exponencial, para el tiempo antes de que ocurra la siguiente ocasión, para una ocasión que es retratada por un ritmo fijo del evento

Difusión logarítmica, para obtener números genuinos positivos que se acepten para desarrollarse de manera exponencial, por ejemplo, los medios de vida o los costos

Circulación ordinaria multivariante (también conocida como apropiación gaussiana multivariante), para vectores de resultados relacionados que son exclusivamente gaussianos

Difusión multivariante de Student’s-t (también conocida como circulación t multivariante), para vectores de resultados relacionados de seguimiento abrumador[1]

Un vector de valores difundidos por Bernoulli, que se compara, por ejemplo, con una imagen de alto contraste, en la que cada uno de ellos habla con un píxel; véase el modelo de reconocimiento de caligrafía que figura debajo:

Modelo de mezcla gaussiana

Una versión bayesiana de un modelo de mezcla gaussiana es la siguiente:

Modelo de mezcla multivariante gaussiana

Un modelo de mezcla bayesiana gaussiana se extiende normalmente para ajustarse a un vector de parámetros oscuros (lo que se quiere decir en llamativo), o a transportes ordinarios multivariantes. En una dispersión multivariante (por ejemplo, una que muestre un vector x con N factores irregulares) se puede demostrar un vector de parámetros, (por ejemplo, unas pocas percepciones de un signo o fijaciones dentro de un cuadro) utilizando un modelo de mezcla gaussiana dispersión anterior en el vector de evaluaciones dadas por

Tales circulaciones son útiles para esperar estados de parches de imágenes y ramos, por ejemplo. Debido a la representación de las imágenes, cada Gaussiano podría estar inclinado, extendido y distorsionado por las redes de covarianza . Un transporte gaussiano del conjunto es adecuado para cada fijo (por regla general de tamaño 8×8 píxeles) de la imagen. Eminentemente, cualquier transmisión de focos alrededor de un grupo (búsqueda-implicaciones) podría recibir suficientes segmentos gausianos, sin embargo, se espera que apenas por encima de K=20 segmentos se demuestre con precisión una apropiación de la imagen dada o un montón de información.

Languages

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.