https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Herzlich willkommen zum zweiten Wagnisstein des Angeleiteten Maschinellen Lernens. Auch dieser Abschnitt ist wieder in zwei Abschnitte unterteilt. Abschnitt 1 (dieser hier) untersucht die Hypothese sowie die Arbeits- und Abstimmungsparameter. In Abschnitt 2 (hier) stellen wir uns kleinen Herausforderungen in Bezug auf Codierungsaktivitäten.

Für den Fall, dass Sie den Naive Bayes nicht gelesen haben, würde ich Ihnen vorschlagen, ihn hier intensiv durchzulesen.

0. Einführung

Eine Support-Vektor-Maschine (SVM) ist ein diskriminierender Klassifikator, der offiziell durch eine isolierende Hyperebene gekennzeichnet ist. Am Ende des Tages, genannt Vorbereiten von Informationen (verwaltetes Lernen), ergibt die Berechnung eine ideale Hyperebene, die neue Modelle anordnet. Im zweidimensionalen Raum ist diese Hyperebene eine Linie, die eine Ebene in zwei Abschnitten isoliert, die in jeder Klasse auf beiden Seiten liegen.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Vielleicht haben Sie an etwas wie danach gedacht (Bild B). Es isoliert die beiden Klassen anständig voneinander. Jeder Punkt, der links von der Linie liegt, fällt in eine Klasse mit dunklem Kreis und rechts in eine Klasse mit blauem Quadrat. Eine Abtrennung der Klassen. Das ist das, was die SVM macht. Sie entdeckt eine Linie/Hyperebene (im multidimensionalen Raum, die verschiedene Klassen trennt). Ohne weitere Umschweife werden wir darüber sprechen, warum ich den mehrdimensionalen Raum komponiert habe.

1. Es ein bisschen komplex machen…

Bislang keine Probleme. Stellen Sie sich jetzt ein Szenario vor, in dem wir Informationen hätten, wie sie auf dem Bild unten zu sehen sind. Unverkennbar ist, dass es keine Linie gibt, die die beiden Klassen in dieser x-y-Ebene isolieren kann. Was sollen wir also tun? Wir wenden die Änderung an und fügen eine weitere Messung ein, die wir z-Hub nennen. Akzeptieren wir die Schätzung der Brennpunkte auf der z-Ebene, w = x² + y². Für diese Situation können wir sie als eine Trennung des Punktes von der z-Entscheidung kontrollieren. Für den Fall, dass wir in z-Drehpunkt zeichnen, ist eine unverkennbare Teilung offensichtlich und es kann eine Linie gezeichnet werden.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Wenn wir diese Linie in die ursprüngliche Ebene zurücktransformieren, wird sie auf eine kreisförmige Begrenzung abgebildet, wie in Bild E gezeigt.

2. Etwas komplexer machen…

Was ist, wenn sich die Datenplotts überlappen? Oder, was ist, wenn einige der schwarzen Punkte innerhalb der blauen liegen? Welche Linie zwischen 1 oder 2?sollten wir zeichnen?

Welche denken Sie? Alles in allem sind die beiden passenden Antworten richtig. Die erste erträgt einige Ausnahmefokusse. Die folgende versucht, mit einem tadellosen Segment eine 0-Resilienz zu erreichen.

In jedem Fall findet ein Austausch statt. Bei zertifizierbarer Anwendung nimmt die Entdeckung der idealen Klasse für viele, die einen Informationsindex vorbereiten, ein Stück Zeit in Anspruch. Wie Sie in der Kodierung finden werden. Man nennt dies den Regularisierungsparameter. Im nächsten Abschnitt charakterisieren wir die beiden Begriffe Regularisierungsparameter und Gamma. Dies sind Abstimmungsparameter im SVM-Klassifikator. Verschieben wir diese, können wir in gerader Reihenfolgelinie mit größerer Genauigkeit in einem vernünftigen Zeitmaß extensive erreichen. In der Codierungsübung (Abschnitt 2 dieses Teils) werden wir erkennen, wie wir die Genauigkeit der SVM durch Abstimmung dieser Parameter aufbauen können.

Ein weiterer Parameter ist ein Teil. Er charakterisiert, ob wir eine gerade oder direkte Teilung benötigen. Auch darüber wird im nächsten Bereich gesprochen.

Parameter abstimmen: Stück, Regularisierung, Gamma und Kante.

Stück

Das Erlernen der Hyperebene in gerader SVM wird durch Ändern des Problems unter Verwendung einer auf direkten Variablen basierenden Mathematik beendet. Dies ist der Ort, an dem der Teil eine Aufgabe übernimmt.

Für den geraden Teil wird die Bedingung für die Erwartung einer anderen Information unter Verwendung des Tupf-Elements zwischen der Information (x) und jedem Hilfsvektor (xi) als Verfolgung bestimmt:

Parameter abstimmen: Teil, Regularisierung, Gamma und Kante.

Teil

Das Erlernen der Hyperebene in der direkten SVM wird beendet, indem das Problem unter Verwendung einer auf geraden Variablen basierenden Mathematik geändert wird. Dies ist der Ort, an dem das Stück die Aufgabe übernimmt.

Für das direkte Bit wird die Bedingung für die Erwartung einer anderen Information unter Verwendung des Punktes zwischen der Information (x) und jedem Hilfsvektor (xi) als Verfolgung bestimmt:

f(x) = B(0) + Summe(ai * (x,xi))

Dies ist eine Bedingung, die das Ermitteln der internen Ergebnisse eines anderen Informationsvektors (x) mit allen Hilfsvektoren bei der Informationsaufbereitung einschließt. Die Koeffizienten B0 und ai (für jede Information) müssen von der Vorbereitungsinformation durch die Lernberechnung ausgewertet werden.

Der Polynomteil kann als K(x,xi) = 1 + Summe(x * xi)^d und exponentiell als K(x,xi) = exp(- gamma * Summe((x – xi²)) zusammengesetzt werden. [Quelle für diesen Teil: http://machinelearningmastery.com/].

Polynom- und Exponentialteil bestimmen die Teilungslinie in höherer Messung. Dies wird Stück-Stunt genannt.

Regularisierung

Der Regularisierungsparameter (in der Sklearn-Bibliothek von Python häufig als C-Parameter bezeichnet) teilt der SVM mit, wie viel Sie darauf achten müssen, dass jedes Präparationsmodell nicht falsch klassifiziert wird.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Bei großen Schätzungen von C wird die Rationalisierung eine kleinere Randhyperebene wählen, wenn diese Hyperebene eine bessere Leistung bei der genauen Anordnung aller Präparationsschwerpunkte erbringt. Andererseits wird eine außergewöhnlich geringe Schätzung von C den Analysator veranlassen, nach einer größeren Kantenisolationshyperebene zu suchen, unabhängig davon, ob diese Hyperebene mehr Fokusse falsch klassifiziert.

Die Bilder unten (wie Bild 1 und Bild 2 im Bereich 2) sind ein Fall von zwei verschiedenen Regularisierungsparametern. Das linke hat eine gewisse Fehlklassifikation aufgrund einer geringeren Wertschätzung der Regularisierung. Höhere Wertschätzung führt zu Prompts wie beim rechten Bild.

Gamma

Der Gamma-Parameter charakterisiert, wie weit der Einfluss eines einzelnen vorbereitenden Modells reicht, wobei niedrige Qualitäten “weit” und hohe Qualitäten “nah” bedeuten. So werden bei niedrigem Gamma bei der Berechnung für die Trennlinie Schwerpunkte berücksichtigt, die weit von der denkbaren Trennlinie entfernt sind. Bei hohem Gamma werden die Brennpunkte nahe der denkbaren Trennlinie bei der Schätzung berücksichtigt.

Marge

Zuletzt noch ein letztes jedoch sehr wichtiges Merkmal des SVM-Klassifikators. SVM zu zentrieren versucht, eine anständige Kante zu erreichen.

Ein Rand ist eine Unterteilung einer Linie in die nächstgelegenen Klassenschwerpunkte.

Ein anständiger Rand ist ein Rand, bei dem diese Unterteilung für beide Klassen größer ist. Die Bilder unten zeigen die visuellen Fälle einer guten und einer schlechten Kante. Ein ordentlicher Rand ermöglicht es, dass die Brennpunkte in ihren jeweiligen Klassen liegen, ohne dass es zu Überschneidungen mit einer anderen Klasse kommt.