https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Witamy na drugim kamieniu wentylacyjnym Nadzorowanego Nauczania Maszyn. Po raz kolejny, ta sekcja jest podzielona na dwie części. Sekcja 1 (ta) analizuje hipotezę, parametry pracy i strojenia. W sekcji 2 (tutaj) podejmujemy się małych wyzwań związanych z kodowaniem.

W przypadku, gdybyście nie czytali naiwnych bajerów, proponuję intensywne korzystanie z nich tutaj.

0. Wprowadzenie .

Support Vector Machine (SVM) jest klasyfikacją dyskryminacyjną oficjalnie charakteryzującą się hiperpłaszczyzną izolacyjną. Pod koniec dnia, pod nazwą przygotowania informacji (administrowanego uczenia się), obliczenia dają idealną hiperpłaszczyznę, która układa nowe modele. W przestrzeni dwuwymiarowej hiperpłaszczyzna ta jest linią izolującą płaszczyznę w dwóch odcinkach, gdzie w każdej klasie leżą po obu stronach.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Być może pomyślałeś o czymś takim jak po (zdjęcie B). To przyzwoicie izoluje te dwie klasy. Każdy punkt, który znajduje się na lewo od linii, należy do klasy ciemnego koła, a na prawo do klasy niebieskiego kwadratu. Oddzielenie klas. To jest właśnie to, co SVM robi. Odkrywa on linię/hiperpłaszczyznę (w wielowymiarowej przestrzeni, która różni się klasami zewnętrznymi). Bez dalszego rozwodzenia się, porozmawiamy o tym, dlaczego skomponowałem wielowymiarową przestrzeń.

1. Czyniąc ją trochę skomplikowaną…

Do tej pory nie było żadnych problemów. Obecnie zastanówcie się nad wyobrażeniem sobie scenariusza, w którym mielibyśmy informacje, które pojawiły się na zdjęciu poniżej. Niewątpliwie nie ma linii, która mogłaby oddzielić te dwie klasy w tej płaszczyźnie x-y. Więc co robimy? Stosujemy zmianę i dołączamy jeszcze jeden pomiar, jak go nazywamy z-hub. Przyjmijmy oszacowanie ognisk na płaszczyźnie z, w = x² + y². W tej sytuacji możemy ją kontrolować jako oddzielenie punktu od z-ception. Obecnie w przypadku, gdy wykreślamy w pikiecie z, oczywisty jest wyraźny podział i można narysować linię.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Kiedy przekształcamy tę linię z powrotem w oryginalną płaszczyznę, mapuje ona do okrągłej granicy, jak pokazano na rysunku E. Transformacje te nazywane są jądrami.

2. Czyniąc to trochę bardziej skomplikowanym…

A co, jeśli wykres danych nachodzi na siebie? Albo, co w przypadku, gdy niektóre z czarnych punktów znajdują się wewnątrz niebieskich? Którą linię pomiędzy 1 lub 2? Czy powinniśmy narysować?

Którą z nich należy narysować? Biorąc pod uwagę wszystko, obie odpowiednie odpowiedzi są prawidłowe. Pierwsza z nich znosi pewne skupienia wyjątków. Kolejny stara się osiągnąć 0 odporności z nieskazitelnym odcinkiem.

W każdym razie, następuje wymiana. W certyfikowanej aplikacji, odkrycie idealnej klasy dla wielu osób przygotowujących indeks informacyjny zajmuje trochę czasu. Jak można znaleźć w kodowaniu. Nazywa się to parametrem regularności. W następnym segmencie charakteryzujemy dwa pojęcia parametr normalizacji i gamma. Są to parametry strojenia w klasyfikatorze SVM. Przesuwając te możemy osiągnąć rozległe w prostej linii z większą dokładnością w rozsądnym przedziale czasu. W ćwiczeniu kodowania (sekcja 2 tej części) zobaczymy jak możemy zbudować dokładność SVM poprzez dostrojenie tych parametrów.

Jeszcze jeden parametr jest częścią. Charakteryzuje on, czy potrzebujemy prostego bezpośredniego podziału. O tym również jest mowa w następnym obszarze.

Parametry strojenia: Piece, Regularization, Gamma i Edge.

Utwór .

Nauka hiperpłaszczyzny w prostej SVM kończy się zmianą zagadnienia z wykorzystaniem matematyki opartej na zmiennych bezpośrednich. Jest to miejsce, w którym część zakłada pracę.

Dla prostej części warunek oczekiwania na inną informację wykorzystującą element dab między informacją (x) a każdym wektorem pomocy (xi) jest określony jako pursues:

Parametry strojenia: Część, Regulacja, Gamma i Edge.

Część

Uczenie się hiperpłaszczyzny w bezpośrednim SVM kończy się zmianą zagadnienia przy użyciu prostej matematyki opartej na zmiennych zmiennych. To jest miejsce, w którym utwór przyjmuje pracę.

Dla bitu bezpośredniego warunek oczekiwania na inną informację wykorzystującą element spotowy pomiędzy informacją (x) a każdym wektorem pomocy (xi) jest określony jako pursues:

f(x) = B(0) + suma(ai * (x,xi))

Jest to warunek, który obejmuje ustalenie wewnętrznych wyników innego wektora informacji (x) z pomocą wszystkich wektorów w przygotowaniu informacji. Współczynniki B0 i ai (dla każdej informacji) muszą być oceniane na podstawie informacji o przygotowaniu poprzez obliczenie nauki.

Wielomianowa część może być złożona jako K(x,xi) = 1 + suma(x * xi)^d i wykładnicza jako K(x,xi) = exp(- gamma * suma((x – xi²)). [Źródło dla tej części: http://machinelearningmastery.com/].

Wielomianowe i wykładnicze części ustalają linię przegrody w wyższym wymiarze. Nazywa się to stuntem częściowym

Regularizacja

Parametr Regularization (często nazywany parametrem C w bibliotece sklearnowej Pythona) mówi SVM usprawniającym ilość potrzebną do powstrzymania się od błędnego klasyfikowania każdego modelu przygotowania.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Dla ogromnych szacunków C, usprawnienie wybierze litszą krawędź hiperpłaszczyzny, jeśli hiperpłaszczyzna ta sprawi, że wszystkie skupienia preparatu będą ułożone dokładnie. Z drugiej strony, wyjątkowo małe oszacowanie C spowoduje, że analizator będzie szukał większej krawędzi izolującej hiperpłaszczyznę, niezależnie od tego, czy hiperpłaszczyzna ta błędnie klasyfikuje więcej ognisk.

Zdjęcia poniżej (takie same jak na zdjęciu 1 i zdjęciu 2 w obszarze 2) są przypadkiem dwóch różnych parametrów regulacji. Lewy z nich jest źle sklasyfikowany z powodu niższej oceny regularności. Wyższa wartość skłania do takich wyników jak prawa.

Gamma

Parametr gamma charakteryzuje jak daleko sięgają zakresy modeli do samodzielnego przygotowania, przy czym niskie jakości oznaczają “daleko”, a wysokie – “blisko”. W związku z tym, przy niskim współczynniku gamma, w obliczeniach dla linii separacji brane są pod uwagę ogniska daleko od możliwej linii separacji. W przypadku gdy wysokie wartości gamma oznaczają, że ogniska znajdują się blisko możliwej linii separacji, są one uwzględniane w obliczeniach.

Margines

Wreszcie ostatnia, choć bardzo ważna cecha klasyfikatora SVM. SVM do centrum próbuje osiągnąć przyzwoitą przewagę.

Margines jest partycją linii do najbliższego ogniska klasy.

Przyzwoite zbocze to taka, gdzie ta partycja jest większa dla obu klas. Zdjęcia poniżej przedstawiają wizualne przypadki dobrego i okropnego zbocza. Prawidłowe zbocze pozwala na to, aby ogniska były w ich poszczególnych klasach bez skrzyżowań z inną klasą.