Regulacja jest niezbędna w uczeniu się maszynowym i głębokim. Nie jest to skomplikowana technika i upraszcza proces uczenia się maszynowego. Ustawienie modelu uczenia się maszynowego nie polega tylko na podawaniu danych. Kiedy trenujesz swój model poprzez uczenie maszynowe przy pomocy sztucznych sieci neuronowych, napotkasz wiele problemów. Problemy te mogą mieć drastyczny wpływ na dane wyjściowe. Ten artykuł pomoże Ci zrozumieć techniki, które możesz wykorzystać do zmniejszenia problemów podczas procesu uczenia maszynowego.

Czym jest uregulowanie?

Użycie regularyzacji jest takie samo jak nazwa wskazuje. Normalizacja oznacza uczynienie rzeczy akceptowalnymi lub regularnymi. Regulacja jest techniką, która redukuje błędy z modelu poprzez unikanie przebudowy i szkolenie modelu do prawidłowego funkcjonowania.

Over Fitting

Przebudowa jest częstym problemem. Po przepełnieniu modelu danymi, które nie zawierają zdolności do obsługi, zaczyna on działać nieregularnie. Ta nieregularność będzie zawierać szumy zamiast sygnałów w wyniku. Twój model zacznie rozważać zbędne dane jako koncepcję. Terminem używanym w odniesieniu do tego jest “overfitting” i prowadzi on do niedokładnych wyników – zmniejszając dokładność i wydajność danych.
Załóżmy, że musimy przewidzieć, czy świeżo upieczeni studenci zakwalifikują się do rozmowy kwalifikacyjnej. Przeszkolimy nasz system z 20.000 życiorysów, aby sprawdzić, czy się zakwalifikowali, czy nie. Wynik, który otrzymamy, będzie dokładny w 99 procentach. Teraz, gdy testujesz swój model z zupełnie innym zestawem danych, wynik będzie mniejszy niż 50 procent. Dzieje się tak, ponieważ model, który szkolimy, nie generalizuje wyniku z niewidzialnych danych. Możemy również dostrzec dopasowanie do naszego codziennego życia.

Hałas i Sygnał

Sygnał jest wzorem, który pomaga modelowi w poznaniu odpowiednich danych. Hałas jest jednak przypadkową i nieistotną formą danych, których nie chcesz angażować w wynik. Nie chcemy, aby nasze modele zawierały nieistotne dane i wpływały na nasze wyniki. Powodem tej nieregularności jest algorytm modelu. Uczy się on i usuwa błędy w trakcie procesu szkolenia.
Szkolenie przez dłuższy okres czasu, nawet po rozwiązaniu wszystkich błędów, zmniejszy wydajność, ponieważ model zacznie uczyć się nieistotnych danych. To skomplikuje nasz model i nie pozwoli na uogólnienie nowych danych. Dobry algorytm rozdzieli szumy i sygnały.

Jak działa normalizacja

Głównym powodem, dla którego model jest “overfitting” jest to, że nie generalizuje danych z powodu zbyt dużej nieistotności. Jednakże, regularyzacja jest skuteczną metodą, która poprawia dokładność modelu i redukuje niepotrzebne odchylenia.
Co więcej, technika ta pozwala również uniknąć utraty ważnych danych, co ma miejsce w przypadku niedopasowania. Regularyzowanie pomaga modelowi w nauce poprzez zastosowanie wcześniej poznanych przykładów do nowych, niewidocznych danych. Można również zredukować pojemność modelu, doprowadzając różne parametry do zera. Regulacja usunie dodatkowe ciężary z określonych funkcji i rozłoży je równomiernie.
Pozwól nam zrozumieć, jak to działa. Gdy chcemy, aby model działał prawidłowo, definiujemy funkcję straty. Ta funkcja strat definiuje wydajność modelu na podstawie danych poprzez obliczenie straty. Musimy zminimalizować stratę, aby znaleźć model, który chcemy. W tym celu należy dodać lambda, aby ukarać funkcję stratną. Otrzymujemy optymalne rozwiązanie z tej techniki, ponieważ odrzuca ona wysokie błędy treningowe przy mniejszych wartościach lambda i odrzuca modele o większej złożoności przy wyższych wartościach lambda.

Rodzaje technik regularyzowania

1. L1 Regulacja

Model regresji tej techniki regularyzacji nazywany jest regresją laserową. Model regresji jest terminem karnym. Lasso jest skrótem od Least Absolute Shrinkage and Selection Operator. Lasso dodaje wartość bezwzględną wielkości do współczynnika. Wartości te są terminami karnymi funkcji straty.

2. L2 Regulacja

Z drugiej strony, model regresji regularności L2 jest regresją grzbietową. W tej regularizacji terminem karnym funkcji straty jest kwadratowa wielkość współczynnika. W metodzie tej wartość lambda wynosi zero, ponieważ dodanie dużej wartości lambda spowoduje dodanie większej ilości wag, co spowoduje niedostosowanie.
Wybór między L1 i L2 Regulacja
Aby wybrać technikę regulacji pomiędzy L1 i L2, należy wziąć pod uwagę ilość danych. Jeśli dane są większe, należy zastosować regulację L2. Jeśli jednak dane są małe, należy wybrać regulację L1.

3. Wylot Normalizacja

Według Wikipedii, dropout oznacza zrzucanie widocznych lub ukrytych jednostek. W prostych słowach, dropout oznacza ignorowanie jednostek lub neuronów podczas treningu modelu. Model nie będzie uwzględniał tych jednostek podczas przekazywania danych przez sztuczną sieć neuronową. Pozwoli to na uniknięcie nadmiaru danych o treningu.

4. Powiększanie danych

W technice powiększania danych, zwiększasz rozmiar odpowiednich danych lub sygnału, który chcesz włączyć do wyjścia. Głównym powodem, dla którego model nie jest uogólniający jest overfitting. Jednakże, gdy rozmiar odpowiednich danych wzrośnie, model nie będzie rozważał dodawania szumów.

Wniosek

Gdy szkolimy nasz model poprzez nadzorowane uczenie się maszyn, podajemy dane szkoleniowe. Teraz model będzie się uczył poprzez wzorce danych szkoleniowych. Spodziewamy się, że model będzie definiował wzorce tylko poprzez sygnał, który jest istotnymi danymi. Jednakże, model zawiera również szumy. Wpływa to na wydajność modelu podczas przechodzenia przez nowe dane.
To właśnie w tym pomaga technika regulacji. Zmniejsza ona złożoność poprzez dodanie kary. Istnieją dwa popularne rodzaje technik regulacji. L1 minimalizuje wartość wag, a L2 minimalizuje wielkość kwadratową. Istnieją jednak jeszcze dwie techniki pozwalające uniknąć overfitu, jedną z nich jest “drop out”, a drugą “augmentacja danych”. Drop out będzie ignorować nieistotne jednostki lub szumy, a powiększanie danych zwiększy rozmiar sygnału.