В понимании, смешанная модель является вероятностной моделью для разговора о близости субпопуляций внутри общего населения, без необходимости, чтобы наблюдаемый информационный сборник должен различать субпопуляций, к которым имеет место индивидуальное восприятие. Официально смешанная модель относится к смешанной циркуляции, которая говорит о вероятности рассеивания восприятий в широких слоях населения. Как бы то ни было, в то время как вопросы, связанные с “смешиванием ассигнований”, отождествляются с выводом о свойствах населения в целом и субпопулярных групп, “смесительные модели” используются для того, чтобы сделать измеримые выводы о свойствах субпопулярных групп, которые дают лишь представления об объединенном населении, без использования данных о характере субпопулярных групп.

Несколько различных способов актуализации моделей бленда включают шаги, которые характеризуют гипотетические персонажи суб-популяций к сингулярным восприятиям (или нагрузкам на такие суб-популяции), и в этом случае их можно рассматривать как своего рода сольные обучающие или связующие системы. В любом случае не все методы дедукции включают в себя такие достижения.

Модели смешивания не следует путать с моделями для композиционной информации, т.е. информации, сегменты которой вынуждены агрегироваться до устойчивой стоимости (1, 100% и т.д.). В любом случае, композиционные модели можно рассматривать как блендовые, в которых люди из числа населения рассматриваются бесцельно. С другой стороны, блендовые модели можно рассматривать как композиционные модели, в которых все представители населения были стандартизированы до 1.

Общая модель смеси

Общая ограниченная по размерам модель смеси представляет собой разноуровневую модель, состоящую из сопроводительных сегментов:

N нерегулярных переменных, которые наблюдаются, каждая из которых рассеяна смесью K сегментов, при этом сегменты имеют место с эквивалентной параметрической группой рассеяния (например, все обычные, все Зипфийские и т.д.), но с различными параметрами

N произвольные инертные факторы, указывающие на характер смесительной части каждого восприятия, каждое из которых присваивается K-мерной несмешанной передаче

Много K-грузов смешивания, которые являются вероятностями, которые агрегируются до 1.

Много К-параметров, каждый из которых определяет параметр сравниваемого сегмента бленда. Как правило, каждый “параметр” – это действительно много параметров. Например, если части бленда являются гауссовыми ассигнованиями, то для каждого сегмента будет среднее и изменение. В том случае, если все части бленда являются диссеменциями (например, когда каждое восприятие является токеном из ограниченного набора букв размера V), то будет вектор вероятностей V, прибавляющий к 1.

Кроме того, в байесовской установке нагрузки и параметры смеси сами по себе будут произвольными факторами, а более ранние диссеменции будут ставиться над факторами. В этом случае нагрузки обычно рассматриваются как K-мерный произвольный вектор, взятый из дирихлетной циркуляции (конъюгат раннее из вертикального присвоения), а параметры будут передаваться их индивидуальными конъюгат-приорами.

С научной точки зрения фундаментальная модель параметрической смеси может быть изображена в виде преследований:

В байесовской установке все параметры связаны со случайными переменными следующим образом:

В этом изображении F и H используются для раздельного отображения дискреционных передач восприятия и параметров. Обычно Н является конъюгатом более раннего из F. Два самых основных решения F – гауссовские, иначе известные как “ожидаемое” (для истинно уважаемых восприятий) и ясное (для дискретных восприятий). Другими нормальными потенциальными результатами для присвоения сегментов смеси являются:

Двухстороннее распространение, для количества “позитивных событий” (например, триумфы, да, голосование и т.д.) с учетом фиксированного числа абсолютных событий.

Многосторонняя циркуляция, как и биномиальное присвоение, однако, для проверки многополосных событий (например, да/нет/может быть в обзоре)

Отрицательное биномиальное кровообращение, для биномиальных восприятий, однако, где количество интриг – это количество разочарований до определенного количества побед.

Пуассонский тираж, по количеству событий, происходящих в определенный период времени, по событию, которое изображается фиксированным темпом события

Экспоненциальное рассеяние, на время, предшествующее следующему событию, на событие, которое изображается фиксированным темпом события

Чрезвычайное распространение бревенчатых историй для положительных подлинных чисел, которые, как принято считать, развиваются экспоненциально, например, средства к существованию или расходы

Многомерный обычный тираж (иначе известный как многомерное гауссово присвоение), для векторов связанных результатов, которые исключительно гауссово подтверждены

Многомерное распространение t студента (иначе известное как многомерная t-циркуляция), для векторов подавляющего числа последующих связанных результатов[1].

Вектор разделенных Бернулли значений, сравнивая, например, с высококонтрастной картинкой, каждый из которых стоит говорить с пикселем; см. модель подтверждения чистописания, расположенную внизу:

Гауссова смесь модель

Байесовская версия модели гауссовской смеси выглядит следующим образом:

Многомерная модель гауссовской смеси

Модель байесовской гауссовской смеси обычно вытягивается, чтобы соответствовать вектору непонятных параметров (означенных в ударных), или многомерным обычным перемещениям. В многомерной дисперсии (например, отображающей вектор x с N нерегулярными факторами) можно продемонстрировать вектор параметров (например, несколько восприятий знака или фиксаций внутри картинки), используя модель гауссовской смеси, ранее рассеянную по вектору оценок, заданному

Такие тиражи полезны, например, при ожидании патч-состава картинок и пучков. Из-за изображения картинки каждый гауссов может быть наклонен, растянут и искажен ковариационными сетями. Один гауссовский перенос набора подходит для каждого исправления (как правило, размером 8х8 пикселей) на картинке. В частности, любая передача фокусов вокруг группы (seek-implies) может быть достаточно точно передана гауссовским сегментам, однако едва ли более K=20 сегментов, как ожидается, точно продемонстрируют апробацию данного изображения или кучу информации