Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

Gradiëntversterking is een populaire techniek onder datawetenschappers vanwege de nauwkeurigheid en snelheid ervan, met name complexe en omvangrijke gegevens.

Wat is Boosting?

Je moet de basisprincipes van het stimuleren van de gradiënt begrijpen voordat je leert over het stimuleren van de gradiënt. Het is een methode om zwakke leerlingen om te zetten in sterke. In het boosting-landschap past elke boom op de aangepaste versie van de eerste dataset. Je kunt het gradiëntverhogingsalgoritme uitleggen door het Ada Boost-algoritme op te zetten. Het begint met het trainen van beslissingsbomen. Elke waarneming tijdens deze procedure heeft een gelijk gewicht.


Na het analyseren van de eerste boom, verhogen de gegevenswetenschappers het gewicht van elke observatie die ze ingewikkeld vinden om te classificeren. Aan de andere kant verlagen ze de gewichten voor de waarnemingen waarvoor classificatie geen probleem is. Daarom zult u merken dat de tweede boom groeit op de gewogen gegevens. Het oorspronkelijke idee hiervoor is om verbeteringen aan te brengen in de voorspellingen van de eerste boom.

Gradient Boosting Based Prediction Method for Patient Death in ...

Het nieuwe model dat we zullen gebruiken is dus boom één plus boom twee. Vervolgens berekenen we de indelingsfouten uit het nieuwe ensemblemodel en ontwikkelen we een derde boom voor het voorspellen van de gewijzigde residuen. We zullen deze procedure herhalen voor een bepaald aantal iteraties. Komende bomen zullen ons helpen bij het bepalen van elke waarneming waar de vorige bomen faalden of fouten vertoonden.

Daarom zullen de voorspellingen van het laatste ensemblemodel de algemene gewogen voorspellingen zijn die door de vorige boommodellen zijn gegeven. Gradiëntversterking geeft training aan verschillende modellen op het gebied van sequentiële, additieve en geleidelijke manieren. Het primaire verschil tussen gradiëntverhogende en Ada-boostalgoritmen is de manier waarop ze de tekortkomingen van de zwakke leerlingen bepalen.

Het Ada boost-model bepaalt de fouten door gebruik te maken van gewogen datapunten. U zult enkele overeenkomsten in gradiëntverhoging opmerken omdat het werkt door gebruik te maken van gradiënten in verliesfuncties. Voor degenen die het niet weten, geeft de verliesfunctie de kwaliteit van de coëfficiënten van een model aan en of het past bij de fundamentele gegevens.

Een redelijk begrip van deze functie hangt af van verschillende factoren, zoals wat u wilt optimaliseren. Als u bijvoorbeeld regressie gebruikt om verkoopprijzen te voorspellen, zou de verliesfunctie gebaseerd zijn op fouten tussen voorspelde en authentieke prijzen.

Op dezelfde manier, als het classificeren van kredietverzuim uw primaire doel is – de verliesfunctie zou een maatstaf worden voor het classificeren van ongunstige leningen. Een belangrijke motivatie om gradiëntverbetering te gebruiken is de mogelijkheid om verschillende kostenfuncties te optimaliseren die door de gebruikers worden gespecificeerd. Het is veel beter dan verliesfuncties, omdat het meestal minder controle biedt en zich niet met applicaties in de echte wereld vermengt.

Boosting en Ensemble

Het individueel aanpassen van machinale leermodellen aan gegevens is opmerkelijk eenvoudig. Je kunt ze zelfs in een ensemble samenvoegen. De term “ensemble” verwijst naar een combinatie van individuele modellen waardoor een sterker, krachtiger model ontstaat.

De meeste datawetenschappers nemen hun toevlucht tot machinaal leren om ensembles te creëren. Het begint met het aanpassen van een primair model zoals lineaire of boomregressie met de data. Vervolgens richt een tweede model zich op het leveren van nauwkeurige voorspellingen voor gevallen met slecht presterende modellen. De mix van deze modellen is vaak beter dan een enkelvoudig model. Je moet het boosting-proces meerdere keren herhalen. Elk volgend model probeert te corrigeren voor de fouten van het blended boosted ensemble van eerdere modellen.

Begrijpen van Gradient Boosting

Gradiëntversterking is een machinaal leerproces. Het is sterk afhankelijk van de voorspelling dat het volgende model de voorspellingsfouten zal verminderen wanneer het gemengd wordt met de vorige modellen. Het belangrijkste idee is om doelresultaten voor dit komende model vast te stellen om de fouten tot een minimum te beperken.

Dus, hoe berekent men de doelen? De uitkomst van elk geval hangt af van het aantal veranderingen die de voorspelling met zich meebrengt en het effect daarvan op de voorspellingsfout.

  • Als de voorspelling een kleine verandering heeft en een significante foutdaling veroorzaakt, dan zal het verwachte doelresultaat van de casus een hoge waarde hebben. Voorspellingen door nieuwe modellen kunnen de fouten verminderen zolang ze in de buurt van hun doelen zijn.
  • Als er geen foutveranderingen zijn die worden veroorzaakt door een kleine verandering in de voorspelling, dan zal het volgende resultaat van de casus nul zijn. U kunt de fout niet minimaliseren door de voorspelling te veranderen.

De term gradiëntverhoging kwam naar voren omdat de doeluitkomsten van elke casus gebaseerd zijn op de fout van de gradiënt met betrekking tot de voorspellingen. Elk model vermindert de voorspellingsfouten door een stap in de juiste richting te zetten.

Hoe is gradiëntverhoging nuttig?

Zoals eerder besproken is gradiëntverhoging een veelgebruikte techniek voor het maken van voorspellende modellen. U kunt het toepassen op tal van risicogerelateerde functies en de voorspellende nauwkeurigheid van het model verbeteren. Gradiëntversterking helpt ook bij het oplossen van verschillende multicollineariteitskwesties waarbij er hoge correlaties zijn tussen voorspellingsvariabelen.

Het zou u verbazen als u ziet hoeveel succes het resultaat is van gradiëntverhogende machines. Talrijke machinale leerprogramma’s hebben er gebruik van gemaakt.

Wat heeft het Gradient Boosting Algoritme nodig om te kunnen functioneren?

Hier is een lijst van essentiële componenten die nodig zijn voor Gradiënt Boosting Algorithms:

Additief Model

We proberen de verliezen te minimaliseren door meer beslisbomen te implementeren. We kunnen ook de foutenpercentages verminderen door de parameters te minimaliseren. In dergelijke gevallen creëren we het model om ervoor te zorgen dat er geen veranderingen in de bestaande boom zijn ondanks de toevoeging van een andere.

Zwakke leerling

Zwakke leerlingen zijn een essentieel onderdeel van gradiëntversterking voor het maken van voorspellingen. We maken gebruik van regressiebomen om authentieke waarden te extraheren. Het is essentieel om bomen gulzig te ontwikkelen om tot het meest gunstige splitsingspunt te komen. Het is een belangrijke reden waarom het model meestal over de specifieke dataset heen past.

Verliesfunctie

We moeten de verliesfuncties optimaliseren om voorspellingsfouten te verminderen. In tegenstelling tot Ada Boost krijgt het verkeerde resultaat geen verhoogd gewicht in gradiëntverhoging. In plaats daarvan minimaliseert het de verliesfunctie van zwakke leerlingen door het verkrijgen van outputgemiddelden.

Eindgedachten

Gradiënt Boosting bewijst dat het aantoonbaar de meest krachtige techniek is om voorspellende modellen in regressie en classificaties te maken. U kunt ook gebruik maken van verschillende regularisatie– of beperkingsmethoden om het algoritme te verbeteren in de strijd tegen overfitting en de prestaties. Programmeurs kunnen ook profiteren van krimp, gerandomiseerde steekproeven, boombeperkingen en gestraft leren om overfitting tegen te gaan. Gradiëntverbetering heeft een belangrijke rol gespeeld bij het oplossen van talrijke uitdagingen op het gebied van machinaal leren in het echte leven.

Talen

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.