A regularização é essencial na aprendizagem mecânica e profunda. Não é uma técnica complicada e simplifica o processo de aprendizagem da máquina. A criação de um modelo de aprendizagem por máquina não se trata apenas de alimentar os dados. Quando estiver a treinar o seu modelo através da aprendizagem de máquinas com a ajuda de redes neurais artificiais, irá encontrar inúmeros problemas. Estes problemas podem afectar drasticamente a produção. Este artigo irá ajudá-lo a compreender as técnicas que pode utilizar para reduzir os problemas durante o processo de aprendizagem da máquina.
O que é a Regularização?
O uso da regularização é o mesmo que o nome sugere. A regularização significa tornar as coisas aceitáveis ou regulares. A regularização é uma técnica que reduz o erro de um modelo, evitando o sobreajustamento e treinando o modelo para funcionar correctamente.
Sobreajustamento
O excesso de equipamento é um problema comum. Quando se alimenta em excesso o modelo com dados que não contêm a capacidade de manipulação, este começa a agir de forma irregular. Esta irregularidade incluirá ruído em vez de sinal no resultado. O seu modelo começará a considerar os dados desnecessários como o conceito. O termo utilizado para se referir a isto é “sobreajustamento”, e leva a resultados imprecisos – diminuindo a precisão e eficiência dos dados.
Suponhamos que precisamos de prever se os estudantes recém-formados se qualificarão para a entrevista. Treinaremos o nosso sistema com 20.000 currículos para ver se eles se qualificaram ou não. O resultado que iremos obter será 99% de exactidão. Agora, ao testar o seu modelo com um conjunto de dados completamente diferente, o resultado será inferior a 50 por cento. Isto acontece porque o modelo que estamos a treinar não generaliza o resultado a partir de dados não vistos. Também podemos ver a adequação na nossa vida quotidiana.
Ruído e Sinal
O sinal é um padrão que ajuda o modelo a aprender os dados relevantes. No entanto, o ruído é uma forma aleatória e irrelevante dos dados que não se pretende envolver no resultado. Não queremos que os nossos modelos incluam dados irrelevantes e afectem os nossos resultados. A razão por detrás desta irregularidade é o algoritmo do modelo. Ele aprende e elimina os erros durante o processo de formação.
A formação por um período mais longo, mesmo depois de resolver todos os erros, diminuirá o desempenho, uma vez que o modelo começará a aprender dados irrelevantes. Isto irá tornar o nosso modelo complicado, e não generaliza novos dados. Um bom algoritmo irá separar o ruído do sinal.
Como Funciona a Regularização
A principal razão pela qual o modelo é “sobreajustado” é que não generaliza os dados devido a demasiada irrelevância. No entanto, a regularização é um método eficaz que melhora a precisão do modelo e reduz as variações desnecessárias.
Além disso, esta técnica também evita a perda de dados importantes, o que acontece com o subapetrechamento. A regularização ajuda o modelo a aprender, aplicando exemplos previamente aprendidos aos novos dados invisíveis. Também se pode reduzir a capacidade do modelo, conduzindo vários parâmetros a zero. A regularização irá remover pesos adicionais de características específicas e distribuir esses pesos uniformemente.
Vamos compreender como funciona. Quando queremos que o modelo funcione correctamente, definimos a função de perda. Esta função de perda definirá o desempenho do modelo de acordo com os dados através do cálculo da perda. Precisamos de minimizar a perda para encontrar o modelo que queremos. Para isso, a regularização acrescenta lambda para penalizar a função de perda. Obtemos a solução óptima a partir desta técnica, pois rejeita erros de treino elevados com valores lambda menores e rejeita modelos de maior complexidade com valores lambda mais elevados.
Tipos de Técnicas de Regularização
1. L1 Regularização
O modelo de regressão desta técnica de regularização chama-se Lasso Regression. O modelo de regressão é um termo de penalização. Lasso é a abreviatura de Operador de Retracção e Selecção do Mínimo Absoluto. O Lasso adiciona o valor absoluto da magnitude ao coeficiente. Estes valores são termos de penalização da função de perda.
2. L2 Regularização
Por outro lado, o modelo de regressão da regularização L2 é a regressão de cumeeira. Nesta regularização, o termo de penalização da função de perda é a magnitude quadrática do coeficiente. Neste método, o valor de lambda é zero porque a adição de um grande valor de lambda adicionará mais pesos, causando subaproveitamento.
Escolhendo entre L1 e L2 Regularização
Para escolher a técnica de regularização entre L1 e L2, é necessário considerar a quantidade de dados. Se os dados forem maiores, deverá utilizar a regularização L2. No entanto, se os dados forem pequenos, é preciso escolher a regularização L1.
3. Regularização de dropout
Segundo a Wikipédia, desistir significa deixar cair unidades visíveis ou escondidas. Em palavras fáceis, desistir significa ignorar as unidades ou neurónios enquanto se treina o modelo. O modelo não considerará estas unidades ao passar os dados através de uma rede neural artificial. Isto evitará o sobreajustamento dos dados de treino.
4. Aumento de dados
Na técnica de aumento de dados, aumenta-se o tamanho dos dados relevantes ou o sinal que se pretende incluir na produção. A principal razão pela qual o modelo não é generalizante é devido ao excesso de adaptação. No entanto, quando o tamanho dos dados relevantes aumenta, o modelo não considerará acrescentar ruído.
Conclusão
Quando estamos a treinar o nosso modelo através da aprendizagem supervisionada por máquinas, alimentamos os dados de formação. Agora o modelo irá aprender através de padrões dos dados de formação. Esperamos que o modelo apenas defina padrões através do sinal, que são dados relevantes. Contudo, o modelo também inclui o ruído. Isto afecta o desempenho do modelo ao passar por novos dados.
É aí que a técnica de regularização ajuda. Reduz a complexidade, acrescentando uma penalização. Existem dois tipos comuns de técnicas de regularização. L1 irá minimizar o valor dos pesos, e L2 irá minimizar a magnitude ao quadrado. No entanto, há mais duas técnicas para evitar a sobreposição, uma é “desistir” e a outra é “aumento de dados”. O “drop out” irá ignorar as unidades irrelevantes ou o ruído, e o aumento de dados irá aumentar o tamanho do sinal.