https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Bem-vindos à segunda pedra de inauguração da aprendizagem supervisionada por máquinas. Mais uma vez, esta secção é separada em duas secções. A secção 1 (esta) examina as hipóteses, os parâmetros de trabalho e de afinação. Secção 2 (aqui) assumimos pequenos desafios de codificação da actividade.

No caso de não ter lido o Naive Bayes, proponho-lhe que o leia intensivamente aqui.

0. Introdução

Uma Máquina Vectorial de Apoio (SVM) é um classificador discriminatório oficialmente caracterizado por um hiperplano isolador. No final do dia, dado o nome de preparação da informação (aprendizagem administrada), o cálculo produz um hiperplano ideal que organiza novos modelos. No espaço bidimensional, este hiperplano é uma linha que isola um plano em duas secções onde, em cada uma das classes, se encontra um dos lados.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Talvez tenha pensado em algo como depois (imagem B). Isola decentemente as duas classes. Qualquer ponto que fique da linha cai numa classe de círculo escuro e à direita cai numa classe de quadrado azul. Um desprendimento de classes. É o que faz a SVM. Descobre uma linha/plano hiper-plano (no espaço multidimensional que exclui diferentes classes). Sem mais delongas, vamos falar sobre o porquê de eu ter composto o espaço multidimensional.

1. Torná-lo um pouco complexo…

Até agora, não houve problemas. Pense agora em imaginar um cenário em que tivéssemos informações como as que aparecem na imagem abaixo. Não há, indiscutivelmente, uma linha que possa isolar as duas classes neste plano x-y. Então o que é que fazemos? Aplicamos a mudança e incluímos mais uma medida, como lhe chamamos z-hub. Vamos aceitar a estimativa de focos no plano z, w = x² + y². Para esta situação, podemos controlá-la como uma separação entre o ponto e a concepção z. Actualmente, no caso de traçarmos em z-pivot, é evidente uma divisão inequívoca e pode ser traçada uma linha.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Quando transformamos esta linha de volta ao plano original, ela mapeia para um limite circular, como mostra a imagem E. Estas transformações são chamadas kernels.

2. Tornando-a um pouco mais complexa.

E se as parcelas de dados se sobrepuserem? Ou, e se alguns dos pontos negros estiverem dentro dos pontos azuis? Que linha entre 1 ou 2?devemos traçar?

Qual deles acha? Tudo considerado, ambas as respostas adequadas estão correctas. A primeira é a primeira, com algumas excepções. A seguinte é a tentativa de conseguir 0 de resiliência com um segmento impecável.

Em todo o caso, há uma troca. Na aplicação certificável, a descoberta da classe ideal para muitos na preparação do índice informativo leva uma parcela de tempo. Como se pode encontrar na codificação. A isto se chama o parâmetro de regularização. No segmento seguinte, caracterizamos dois termos parâmetro de regularização e gama. Estes são parâmetros de afinação no classificador SVM. Deslocando aqueles que podemos alcançar em linha recta com maior exactidão numa medida de tempo sensata. No exercício de codificação (secção 2 desta parte) vamos perceber como podemos construir a exactidão do SVM através da afinação destes parâmetros.

Mais um parâmetro é uma parte. Ele caracteriza se precisamos de uma reta de divisão direta. Isto também é falado na próxima área.

Parâmetros de afinação: Piece, Regularization, Gamma e Edge.

Peça

A aprendizagem do hiperplano em SVM recto termina com a alteração da questão, utilizando alguma matemática directa baseada em variáveis. Este é o lugar em que a parte assume um trabalho.

Para a porção recta a condição para a expectativa de outra informação utilizando o item da ABD entre a informação (x) e cada vector de ajuda (xi) é determinada como se segue:

Parâmetros de afinação: Parte, Regularização, Gama e Bordo.

Parte

A aprendizagem do hiperplano em SVM directo termina com a alteração da questão utilizando alguma matemática baseada em variáveis rectas. Este é o local onde a peça assume o trabalho.

Para o bit directo, a condição de expectativa para outra informação utilizando o item spot entre a informação (x) e cada vector de ajuda (xi) é determinada como a procura:

f(x) = B(0) + soma(ai * (x,xi))

Esta é uma condição que inclui a verificação dos resultados internos de outro vector de informação (x) com todos os vectores de ajuda na preparação da informação. Os coeficientes B0 e ai (para cada informação) devem ser avaliados a partir da informação de preparação através do cálculo da aprendizagem.

A parte polinomial pode ser composta como K(x,xi) = 1 + soma(x * xi)^d e exponencial como K(x,xi) = exp(- gamma * soma((x – xi²))). [Fonte para esta parte : http://machinelearningmastery.com/].

As partes polinomial e exponencial verificam a linha de separação em medições superiores. Isto é chamado de acrobacia de peça

Regularização

O parâmetro Regularização (frequentemente nomeado como parâmetro C na biblioteca de sklearn da python) diz à SVM a racionalização da quantidade necessária para se abster de classificar mal cada modelo de preparação.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Para enormes estimativas de C, a racionalização irá escolher um hiperplano de borda mais pequena, se esse hiperplano fizer uma demonstração superior de ter todos os focos de preparação organizados com precisão. Por outro lado, uma estimativa excepcionalmente pequena de C fará com que o analisador procure um hiperplano isolante de borda maior, independentemente de esse hiperplano classificar erroneamente mais focos.

As imagens por baixo (tal como a imagem 1 e a imagem 2 na área 2) são um caso de dois parâmetros de regularização diversos. O da esquerda tem algumas classificações erradas devido a uma menor estima de regularização. O de maior valor suscita resultados como o da direita.

Gama

O parâmetro gama caracteriza até que ponto o impacto de um modelo de preparação solitária varia, com qualidades baixas significando “longe” e qualidades altas significando “perto”. Como tal, com baixa gama, os focos distantes da linha de separação concebível são considerados no cálculo para a linha de separação. Quando a gama alta implica que os focos próximos da linha concebível são considerados na estimativa.

Margem

Por último, por último, uma característica muito importante do classificador SVM. SVM para centralizar as tentativas de conseguir uma vantagem decente.

Uma Margem é uma divisão de uma linha para os focos de classe mais próximos.

Uma margem decente é aquela em que esta partição é maior para ambas as classes. As imagens abaixo fornecem os casos visuais de borda boa e horrível. Uma aresta decente permite que os focos estejam nas suas classes particulares sem intersecções com uma classe diferente.