La regularización es esencial en la máquina y el aprendizaje profundo. No es una técnica complicada y simplifica el proceso de aprendizaje de la máquina. La creación de un modelo de aprendizaje de la máquina no se trata sólo de alimentar los datos. Cuando usted está entrenando su modelo a través del aprendizaje de la máquina con la ayuda de redes neuronales artificiales, se encontrará con numerosos problemas. Estos problemas podrían afectar drásticamente a la producción. Este artículo le ayudará a entender las técnicas que puede utilizar para reducir los problemas durante el proceso de aprendizaje de la máquina.


Qué es la regularización?

El uso de la regularización es el mismo que el nombre sugiere. La regularización significa hacer que las cosas sean aceptables o regulares. La regularización es una técnica que reduce el error de un modelo evitando el sobreajuste y entrenando al modelo para que funcione correctamente.


Sobreajuste

La sobrecarga es un problema común. Cuando sobrealimentas el modelo con datos que no tienen la capacidad de manejar, comienza a actuar de forma irregular. Esta irregularidad incluirá ruido en lugar de señal en el resultado. Tu modelo comenzará a considerar los datos innecesarios como el concepto. El término utilizado para referirse a esto es “sobrecarga”, y lleva a resultados inexactos, disminuyendo la precisión y la eficiencia de los datos.
Supongamos que necesitamos predecir si los estudiantes recién graduados calificarán para la entrevista. Entrenaremos nuestro sistema con 20.000 currículums para ver si calificaron o no. El resultado que obtendremos será un 99 por ciento exacto. Ahora, al probar su modelo con un conjunto de datos completamente diferente, el resultado será menos del 50 por ciento. Esto sucede porque el modelo que estamos entrenando no generaliza el resultado a partir de datos no vistos. También podemos ver que encaja en nuestra vida cotidiana.


Ruido y señal

La señal es un patrón que ayuda al modelo a aprender los datos relevantes. Sin embargo, el ruido es una forma aleatoria e irrelevante de los datos que no quiere involucrar en el resultado. No queremos que nuestros modelos incluyan datos irrelevantes y que afecten a nuestros resultados. La razón detrás de esta irregularidad es el algoritmo del modelo. Aprende y elimina los errores durante el proceso de entrenamiento.
El entrenamiento por un período más largo, incluso después de resolver todos los errores, disminuirá el rendimiento, ya que el modelo comenzará a aprender datos irrelevantes. Esto complicará nuestro modelo y no podrá generalizar nuevos datos. Un buen algoritmo separará el ruido y la señal.

Cómo funciona la regularización

La razón principal por la que el modelo se “sobreajusta” es que no logra generalizar los datos debido a su excesiva irrelevancia. Sin embargo, la regularización es un método eficaz que mejora la precisión del modelo y reduce las variaciones innecesarias.
Además, esta técnica también evita la pérdida de datos importantes, lo que sucede con la “subadaptación”. La regularización ayuda al modelo a aprender aplicando los ejemplos aprendidos previamente a los nuevos datos no vistos. También puede reducir la capacidad del modelo llevando a cero varios parámetros. La regularización eliminará los pesos adicionales de características específicas y distribuirá esos pesos de manera uniforme.
Entendamos cómo funciona. Cuando queremos que el modelo funcione correctamente, definimos la función de pérdida. Esta función de pérdida definirá el rendimiento del modelo según los datos por cálculo de pérdida. Necesitamos minimizar la pérdida para encontrar el modelo que queremos. Para ello, la regularización añade lambda para penalizar la función de pérdida. Obtenemos la solución óptima de esta técnica ya que rechaza los errores de regularización con valores lambda más pequeños y rechaza los modelos de mayor complejidad con valores lambda más altos.


Tipos de técnicas de regularización

L1 Regularización

El modelo de regresión de esta técnica de regularización se llama Regresión del Lazo. El modelo de regresión es un término de penalización. Lazo es la abreviatura de Operador de Selección y Encogimiento Menos Absoluto. El lazo añade el valor absoluto de la magnitud al coeficiente. Estos valores son términos de penalización de la función de pérdida.

L2 Regularización

Por otro lado, el modelo de regresión de la regularización de L2 es la regresión de la cresta. En esta regularización, el término de penalización de la función de pérdida es la magnitud cuadrada del coeficiente. En este método, el valor de lambda es cero porque al añadir un gran valor de lambda se añaden más pesos, lo que provoca una infravaloración.
Eligiendo entre L1 y L2 Regularización
Para elegir la técnica de regularización entre L1 y L2, hay que tener en cuenta la cantidad de datos. Si los datos son más grandes, se debe usar la regularización L2. Sin embargo, si los datos son pequeños, necesita elegir la regularización L1.

Regularización de la deserción escolar

Según Wikipedia, abandonar significa dejar unidades visibles u ocultas. En palabras fáciles, abandonar significa ignorar las unidades o neuronas mientras se entrena el modelo. El modelo no considerará estas unidades cuando pase los datos a través de una red neuronal artificial. Esto evitará que los datos de entrenamiento se sobrecarguen.

Aumento de los datos

En la técnica de aumento de datos, se aumenta el tamaño de los datos o señales relevantes que se quieren incluir en la salida. La principal razón por la que el modelo no se generaliza es por el exceso de ajuste. Sin embargo, cuando el tamaño de los datos relevantes aumenta, el modelo no considerará la adición de ruido


Conclusión

Cuando entrenamos a nuestro modelo a través del aprendizaje supervisado de la máquina, alimentamos los datos de entrenamiento. Ahora el modelo aprenderá a través de los patrones de los datos de entrenamiento. Esperamos que el modelo sólo defina los patrones a través de la señal, que son datos relevantes. Sin embargo, el modelo también incluye ruido. Esto afecta al rendimiento del modelo mientras se examinan los nuevos datos.
Ahí es donde la técnica de regularización ayuda. Reduce la complejidad añadiendo una penalización. Hay dos tipos comunes de técnicas de regularización. L1 minimizará el valor de los pesos, y L2 minimizará la magnitud cuadrada. Sin embargo, hay dos técnicas más para evitar el exceso de equipamiento, una es la “deserción” y la otra es el “aumento de datos”. El drop out ignorará las unidades o el ruido irrelevantes, y el aumento de datos aumentará el tamaño de la señal.