https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Benvenuti alla seconda pietra avventuristica della Supervised Machine Learning. Ancora una volta, questa sezione è divisa in due sezioni. La sezione 1 (questa) esamina le ipotesi, i parametri di lavoro e di messa a punto. La sezione 2 (qui) affronta le piccole sfide dell’attività di codifica.

Nel caso in cui non abbiate letto il Naive Bayes, vi propongo di approfondirlo qui.

0. Introduzione

Una Support Vector Machine (SVM) è un classificatore discriminante ufficialmente caratterizzato da un iperpiano isolante. Alla fine della giornata, dato il nome di preparazione delle informazioni (administered learning), il calcolo produce un iperpiano ideale che organizza nuovi modelli. Nello spazio bidimensionale questo iperpiano è una linea che isola un piano in due sezioni dove in ogni classe si trovava in entrambi i lati.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Forse avete pensato a qualcosa come dopo (foto B). Questo isola decentemente le due classi. Qualsiasi punto a sinistra della linea cade in una classe di cerchio scuro e a destra cade in una classe quadrata blu. Un distacco di classi. Questa è la cosa che fa SVM. Scopre una linea/iper piano (in uno spazio multidimensionale che supera le classi). Senza ulteriori indugi, parleremo del perché ho composto lo spazio multidimensionale.

1. Renderlo un po’ complesso…

Nessun problema fino ad ora. Al momento, pensate a immaginare uno scenario in cui avessimo informazioni come quelle che appaiono nella foto qui sotto. Inconfondibilmente, non c’è una linea che possa isolare le due classi in questo piano x-y. Allora cosa facciamo? Applichiamo la modifica e includiamo un’altra misura, come la chiamiamo z-hub. Accettiamo la stima dei focus sul piano z, w = x² + y². Per questa situazione, possiamo controllarla come separazione del punto da z-incezione. Attualmente, nel caso in cui tracciamo in z-pivot, una partizione inconfondibile è ovvia e si può tracciare una linea.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Quando trasformiamo di nuovo questa linea al piano originale, essa traccia un confine circolare come mostrato nell’immagine E. Queste trasformazioni sono chiamate kernel.

2. Rendendola un po’ più complessa…

Cosa succede se i dati si sovrappongono? Oppure, cosa succede se alcuni dei punti neri sono all’interno di quelli blu? Quale linea tra 1 o 2?

Quale pensi che sia? Tutto sommato, entrambe le risposte appropriate sono giuste. La prima subisce qualche eccezione si concentra. La successiva cerca di ottenere una resilienza 0 con un segmento impeccabile.

In ogni caso, c’è uno scambio off. Nell’applicazione certificabile, scoprire la classe ideale per molti preparando l’indice informativo richiede un sacco di tempo. Come si trova nella codifica. Questo è chiamato il parametro di regolarizzazione. Nel segmento successivo, caratterizziamo due termini parametro di regolarizzazione e gamma. Questi sono parametri di regolazione nel classificatore SVM. Spostando quelli che possiamo ottenere estesi in linea d’ordine rettilinea con maggiore esattezza in una misura sensibile del tempo. Nell’esercizio di codifica (sezione 2 di questa parte) percepiremo come possiamo costruire l’esattezza dell’SVM sintonizzando questi parametri.

Un altro parametro è una parte. Esso caratterizza se abbiamo bisogno di un rettilineo di divisione diretta. Di questo si parla anche nella prossima area.

Parametri di sintonizzazione: Pezzo, Regolarizzazione, Gamma e Bordo.

Pezzo

L’apprendimento dell’iperplano in SVM dritto è terminato cambiando l’argomento utilizzando un po’ di matematica diretta basata su variabili. Questo è il luogo in cui la porzione assume un lavoro.

Per la porzione diritta la condizione per l’aspettativa di un’altra informazione utilizzando l’elemento dab tra l’informazione (x) e ogni vettore di aiuto (xi) è determinata come pursues:

Parametri di sintonia: Parte, Regolarizzazione, Gamma e Bordo.

Parte

L’apprendimento dell’iperplano in SVM diretto è terminato cambiando l’argomento utilizzando un po’ di matematica rettilinea basata su variabili. Questo è il posto in cui il pezzo assume lavoro.

Per il bit diretto la condizione per l’aspettativa di un’altra informazione utilizzando la voce spot tra l’informazione (x) e ogni vettore di aiuto (xi) è determinata come pursues:

f(x) = B(0) + somma(ai * (x,xi))

Questa è una condizione che include l’accertamento dei risultati interni di un altro vettore di informazione (x) con tutti i vettori di aiuto nella preparazione delle informazioni. I coefficienti B0 e ai (per ogni informazione) devono essere valutati a partire dalle informazioni di preparazione dal calcolo di apprendimento.

La parte polinomiale può essere composta come K(x,xi) = 1 + somma(x,xi)^d ed esponenziale come K(x,xi) = exp(- gamma * somma((x – xi²)). Fonte per questa parte: http://machinelearningmastery.com/].

Le parti polinomiali ed esponenziali accertano la linea di divisione nella misura più alta. Questo è chiamato acrobazia del pezzo

Regolarizzazione

Il parametro Regularization (spesso chiamato come parametro C nella libreria di python’s sklearn) dice all’SVM di razionalizzare la quantità di cui si ha bisogno per evitare di sbagliare la classificazione di ogni modello di preparazione.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Per le stime enormi di C, la razionalizzazione sceglierà un iperpiano di bordo più piccolo se questo iperpiano fa una dimostrazione superiore di ottenere tutti i focus di preparazione disposti con precisione. D’altra parte, una stima eccezionalmente piccola di C farà sì che l’analizzatore cerchi un iperpiano più grande che isola il bordo, indipendentemente dal fatto che quell’iperpiano classifichi erroneamente più focolai.

Le immagini sottostanti (come quelle della figura 1 e della figura 2 nell’area 2) sono un caso di due diversi parametri di regolarizzazione. Quello di sinistra ha una classificazione errata a causa della minore stima di regolarizzazione. Un valore più alto richiede risultati come quello di destra.

Gamma

Il parametro gamma caratterizza quanto lontano sia l’impatto di un modello di preparazione solitario, con qualità basse che significano “lontano” e qualità alte che significano “vicino”. Come tale, con gamma bassa, si concentra lontano dalla linea di separazione concepibile sono considerati nel calcolo per la linea di separazione. Dove come gamma alta implica che i focus vicino alla linea concepibile sono considerati nella stima.

Margine

Infine, ultimo tratto comunque molto importante del classificatore SVM. SVM al centro dei tentativi di realizzare un bordo decente.

Un Margine è una partizione di una linea alla classe più vicina si concentra.

Un bordo decente è quello in cui questa partizione è più grande per entrambe le classi. Le immagini sottostanti forniscono i casi visivi di un buon e terribile bordo. Un bordo decente permette ai focus di essere nelle loro classi particolari senza intersezioni con una classe diversa.