https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Bienvenidos a la segunda piedra de la máquina de aprendizaje supervisado. Una vez más, esta sección está separada en dos secciones. La sección 1 (ésta) examina la hipótesis, el funcionamiento y los parámetros de ajuste. En la sección 2 (aquí) abordamos los pequeños retos de la actividad de codificación.

En caso de que no hayan leído el Bayes ingenuo, les propongo que lo examinen intensivamente aquí.

0. Introducción

Una máquina de vector de apoyo (SVM) es un clasificador discriminatorio caracterizado oficialmente por un hiperplano aislante. Al final del día, dada la información de preparación nombrada (aprendizaje administrado), el cálculo arroja un hiperplano ideal que dispone de nuevos modelos. En el espacio bidimensional este hiperplano es una línea que aísla un plano en dos secciones donde en cada clase se encuentran en cada lado.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Es posible que hayas pensado en algo como después (foto B). Aísla decentemente las dos clases. Cualquier punto a la izquierda de la línea cae en una clase de círculo oscuro y a la derecha en una clase de cuadrado azul. Una separación de clases. Eso es lo que hace la SVM. Descubre una línea/hiper plano (en el espacio multidimensional que las diferentes clases salen). Sin más preámbulos, hablaremos de por qué compuse el espacio multidimensional.

1. Haciéndolo un poco complejo…

No hay problemas hasta ahora. Actualmente piense en imaginar un escenario en el que tuviéramos información como la que aparece en la imagen de abajo. Sin duda, no hay una línea que pueda aislar las dos clases en este plano x-y. Entonces, ¿qué hacemos? Aplicamos el cambio e incluimos una medida más como la llamamos z-hub. Aceptemos la estimación de los focos en el plano z, w = x² + y². Para esta situación, podemos controlarlo como una separación del punto de inicio z. Actualmente, en el caso de que trazemos en el plano z, una separación inconfundible es obvia y se puede trazar una línea.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Cuando volvemos a transformar esta línea al plano original, se traza un límite circular como se muestra en la imagen E. Estas transformaciones se llaman núcleos.

2. Haciéndolo un poco más complejo…

¿Y si los datos se superponen? O, ¿qué pasa si algunos de los puntos negros están dentro de los azules? ¿Qué línea entre 1 o 2? ¿Debemos dibujar?

¿Cuál crees? Considerando todas las cosas, las dos respuestas apropiadas son correctas. La primera soporta algunos enfoques de excepción. La siguiente intenta lograr 0 de resistencia con un segmento impecable.

En cualquier caso, hay un intercambio de salida. En una aplicación certificable, descubrir la clase ideal para muchos preparando un índice de información lleva una parcela de tiempo. Como encontrarán en la codificación. Esto se llama el parámetro de regularización. En el siguiente segmento, caracterizamos dos términos parámetro de regularización y gamma. Estos son los parámetros de regularización en el clasificador SVM. Desplazando estos podemos lograr extensos en línea recta de orden con más exactitud en una medida sensible de tiempo. En el ejercicio de codificación (sección 2 de esta parte) percibiremos cómo podemos construir la exactitud del SVM mediante la sintonización de estos parámetros.

Un parámetro más es una parte. Caracteriza si necesitamos una recta de división directa. De esto se habla también en la siguiente área.

Parámetros de sintonía: Pieza, Regularización, Gamma y Borde.

Pieza

El aprendizaje del hiperplano en SVM directo se termina cambiando el tema utilizando algunas matemáticas basadas en variables directas. Este es el lugar donde la porción asume un trabajo.

Para la porción recta, la condición para la expectativa de otra información utilizando el elemento de la mancha entre la información (x) y cada vector de ayuda (xi) se determina como persigue:

Parámetros de ajuste: Parte, Regularización, Gamma y Borde.

Parte

El aprendizaje del hiperplano en SVM directo se termina cambiando el tema utilizando algunas matemáticas basadas en variables directas. Este es el lugar donde la pieza asume el trabajo.

Para el bit directo la condición de expectativa para otra información utilizando el punto entre la información (x) y cada vector de ayuda (xi) se determina como persigue:

f(x) = B(0) + suma(ai * (x,xi))

Esta es una condición que incluye la comprobación de los resultados internos de otro vector de información (x) con todos los vectores de ayuda en la preparación de la información. Los coeficientes B0 y ai (para cada información) deben ser evaluados a partir de la información de preparación por el cálculo de aprendizaje.

La parte polinómica puede estar compuesta como K(x,xi) = 1 + suma(x * xi)^d y exponencial como K(x,xi) = exp(- gamma * suma((x – xi²)). [Fuente de esta parte: http://machinelearningmastery.com/].

Las partes polinómica y exponencial determinan la línea de partición en una medida más alta. Esto se llama el truco de la pieza

Regularización

El parámetro de regularización (frecuentemente llamado parámetro C en la biblioteca sklearn de python) le dice al SVM que racionalice la cantidad que debe abstenerse de clasificar erróneamente cada modelo de preparación.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Para grandes estimaciones de C, la racionalización elegirá un pequeño hiperplano de borde si ese hiperplano hace una demostración superior de conseguir todos los focos de preparación dispuestos con precisión. Por otro lado, una estimación excepcionalmente pequeña de C hará que el analizador busque un hiperplano aislante de borde más grande, sin importar si ese hiperplano clasifica erróneamente más focos.

Las imágenes de abajo (igual que la imagen 1 y la imagen 2 del área 2) son un caso de dos parámetros de regularización diversos. El de la izquierda tiene alguna clasificación errónea debido a la menor estima de la regularización. El de mayor valor da resultados como el de la derecha.

Gamma

El parámetro gamma caracteriza hasta dónde llega el impacto de un modelo de preparación solitario, con calidades bajas que significan “lejos” y calidades altas que significan “cerca”. Como tal, con bajos gamma, los focos lejos de la línea de separación concebible se consideran en el cálculo de la línea de separación. Donde con gamma alto implica que los focos cercanos a la línea concebible se consideran en la estimación.

Margen

Por último, el último pero muy importante rasgo del clasificador SVM. El SVM al centro intenta lograr un borde decente.

Un Margen es una partición de una línea a los centros de clase más cercanos.

Un borde decente es aquel en el que esta partición es más grande para ambas clases. Las imágenes de abajo proveen los casos visuales de un borde bueno y uno malo. Un borde decente permite a los focos estar en sus clases particulares sin intersecciones con una clase diferente.