Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

W spostrzeżeniach model mieszany jest probabilistycznym modelem mówienia o bliskości subpopulacji wewnątrz ogólnej populacji, bez konieczności wyróżniania subpopulacji, do której indywidualna percepcja ma miejsce. Oficjalnie model mieszany odnosi się do obiegu mieszanego, który mówi o prawdopodobieństwie rozproszenia percepcji w populacji ogólnej. Tak czy inaczej, podczas gdy kwestie związane z “środkami przeznaczonymi na mieszanie” utożsamiają się z wnioskowaniem właściwości populacji ogólnej z właściwościami pod-zbiorów, “modele mieszane” są wykorzystywane do dokonywania wymiernych dedukcji na temat właściwości pod-zbiorów, którym przypisano tylko postrzeganie na zbiorze, bez danych o charakterze pod-zbioru.

Kilka różnych sposobów aktualizacji modeli mieszania obejmuje kroki, które cechują hipotetyczne pod-pululaki do pojedynczych postrzegań (lub obciążeń w kierunku takich pod-pulaków), w którym to przypadku mogą być one postrzegane jako rodzaje systemów samodzielnego uczenia się lub grupowania. W każdym razie, nie wszystkie techniki dedukcji obejmują takie postępy.

Modele blendingowe nie powinny być mylone z modelami informacji składowej, tzn. informacji, których segmenty są zmuszone do agregacji do stałej wartości (1, 100% itd.). W każdym razie, modele kompozycyjne można uznać za modele mieszane, w których jednostki z populacji są badane bez celu. Z drugiej strony, modele mieszane mogą być postrzegane jako modele kompozycyjne, w których wszystkie wielkości populacji zostały znormalizowane do 1.

Ogólny model mieszanki

Powszechnym modelem mieszanek o ograniczonych wymiarach jest różnowymiarowy model składający się z towarzyszących mu segmentów:

N nieregularnych zmiennych, które są obserwowane, z których każda jest rozproszona przez mieszaninę segmentów K, przy czym segmenty te mają miejsce o równoważnej parametrycznej grupie rozproszenia (np. wszystkie zwykłe, wszystkie Zipfian, itd.), ale o różnych parametrach

N arbitralne czynniki bezwładności wskazujące na charakter mieszanej części każdej percepcji, z których każdy zawłaszczony jest przez niezmieniony przekaz w wymiarze K

Dużo ładunków mieszanki K, które są prawdopodobne, że sumują się do 1.

Duża ilość parametrów K, z których każdy określa parametr porównywanego segmentu mieszanki. Z reguły, każdy “parametr” to naprawdę dużo parametrów. Na przykład, jeśli części mieszanki są środkami Gaussian’a, to dla każdego segmentu będzie istniała średnia i zmiana. W przypadku, gdy wszystkie elementy miksowania są rozrzucone (np. gdy każde postrzeganie jest tokenem z ograniczonego zestawu liter o rozmiarze V), będzie istniał wektor prawdopodobieństwa V dodawany do 1.

Ponadto, w bajesowskim ustawieniu, obciążenia i parametry miksowania będą same w sobie czynnikami arbitralnymi, a wcześniejsza disseminacja zostanie przełożona na czynniki. W takim przypadku, obciążenia są zwykle postrzegane jako wektor arbitralny w wymiarze K, zaczerpnięty z obiegu Dirichleta (koniugat wcześniejszy z prawej alokacji), a parametry będą przenoszone przez ich poszczególne priory koniugatowe.

Z naukowego punktu widzenia, podstawowy model mieszanki parametrycznej może być przedstawiony jako pursues:

W ustawieniu bayesowskim wszystkie parametry są powiązane ze zmiennymi losowymi w następujący sposób:

Ten portret wykorzystuje F i H do przedstawiania dyskretnych przekazów nad postrzeganiem i parametrami, oddzielnie. Najczęściej H będzie koniugatem wcześniejszej F. Dwie najbardziej podstawowe decyzje F to Gaussian, inaczej znany jako “oczekiwany” (dla prawdziwie cenionych postrzegań) i wyraźne cięcie (dla dyskretnych postrzegań). Inne normalne potencjalne wyniki dla zawłaszczenia segmentów mieszanych to:

Binomalne rozpowszechnienie, dla ilości “pozytywnych zdarzeń” (np. triumfy, tak rzucenie karty do głosowania, itd.) przy ustalonej liczbie bezwzględnych zdarzeń

Wielomianowy obieg, podobnie jak w przypadku dwumianowego przydziału środków, jednak w przypadku kontroli zdarzeń wielodrożnościowych (np. tak/nie/może w przeglądzie)

Ujemny dwumianowy obieg, dla percepcji dwumianowych, gdzie jednak ilością intrygi jest liczba rozczarowań zanim nastąpi określona liczba zwycięstw

Poisson circulation, dla liczby wydarzeń z danej okazji w danym okresie czasu, dla okazji, która jest przedstawiona w stałym tempie wydarzenia

Rozproszenie wykładnicze, na czas przed wystąpieniem następnej okazji, na okazję, która jest przedstawiona w stałym tempie wydarzenia

Zwyczajne rozpowszechnianie, dla pozytywnych liczb rzeczywistych, które są akceptowane do rozwoju wykładniczego, na przykład, środki utrzymania lub koszty

Wielozmienny obieg zwykły (inaczej zwany wielozmienną odmianą gauzyjską), dla wektorów wyników powiązanych, które są wyłącznie pochodzenia gauzyjskiego

Wielowymiarowa popularyzacja Studenta-t (inaczej nazywana wielowymiarową t-cyrkulacją), dla wektorów o przytłaczających powiązanych ze sobą wynikach[1].

Wektor wartości rozpropagowanych przez Bernoulliego, porównujący np. do obrazu o wysokim kontraście, z każdym wartym mówienia do piksela; patrz model potwierdzenia penmanship pod spodem:

Gaussian mix model

Bajesowska wersja modelu mieszanki gaussowskiej jest następująca:

Wieloczynnościowy model mieszanki gaussowskiej

Bajesarski model mieszanki gaussowskiej jest zwykle rozciągnięty tak, aby pasował do wektora o nieokreślonych parametrach (rozumianych jako uderzające) lub wielowymiarowych zwykłych transportów. W dyspersji wielowymiarowej (na przykład takiej, w której wyświetlany jest wektor x z N nieregularnymi czynnikami) można zademonstrować wektor parametrów (na przykład kilka postrzegań znaku lub utrwaleń wewnątrz obrazu) z wykorzystaniem modelu mieszanki gaussowskiej wcześniejszej dyspersji na wektorze ocen podanych przez

Takie cyrkulacje są pomocne na przykład w oczekiwaniu na plamiste stany obrazów i pęczków. Ze względu na portret obrazu, każdy Gaussa może być przechylony, rozszerzony i zniekształcony przez sieci kowarianckie. Do każdej poprawki (z reguły o rozmiarze 8×8 pikseli) w obrazie pasuje jeden przekaz Gaussiana. Eminentnie, każdy przekaz ognisk wokół grupy (seek-implies) może być dokładnie podany z wystarczającą ilością segmentów gaussowskich, jednak niewiele ponad K=20 segmentów ma dokładnie demonstrować zawłaszczenie danego obrazu lub wiązki informacji.