Lineaire regressie is een onderzoek waarbij wordt beoordeeld of ten minste één indicatorfactor de afhankelijke (regel)variabele verheldert. De terugval heeft vijf belangrijke veronderstellingen:

Lineaire relatie

Multivariate typering

Geen of weinig multicollineariteit

Geen auto-relatie

Homoscedasticiteit

Een opmerking over de voorbeeldgrootte. In de Lineaire relatie is de algemene richtlijn van de voorbeeldgrootte dat de regressieanalyse in ieder geval 20 gevallen vereist voor elke vrije factor in het onderzoek.

In het product eronder is het uiterst eenvoudig om een terugval te sturen en het grootste deel van de veronderstellingen worden voor u voorgespannen en vertaald.

Om te beginnen moet de directe terugval de verbinding tussen de autonome en de afdelingsfactoren recht zijn. Het is ook essentieel om te controleren op uitzonderingen, aangezien directe terugval gevoelig is voor anomalie-effecten. De lineariteitsveronderstelling kan het best worden uitgeprobeerd met dispersieplots, de bijhorende twee modellen geven twee gevallen weer, waarbij geen en weinig lineariteit beschikbaar is

Bovendien vereist het directe terugvalonderzoek dat alle factoren multivariate typisch zijn. Deze veronderstelling kan het best worden gecontroleerd met een histogram of een Q-Q-Plot. Ordinariteit kan worden gecontroleerd met een fatsoenlijke test, bijvoorbeeld de Kolmogorov-Smirnov-test. Op het moment dat de informatie niet normaal circuleert, kan een niet-directe wijziging (bijv. een logboekwijziging) dit probleem verhelpen.

Ten derde, directe terugval verwachten dat er bijna geen multicollineariteit in de informatie is. Multicollineariteit ontstaat wanneer de autonome factoren te sterk met elkaar verbonden zijn.

Multicollineariteit kan worden uitgeprobeerd aan de hand van drie centrale criteria:

1) Correlatiematrix – bij de verwerking van het netwerk van Pearson’s Bivariate Connection onder elke autonome variabele moeten de relatiecoëfficiënten iets meer dan 1 zijn.

2) Weerstand – de veerkracht schat de impact in van één vrije factor op alle andere autonome factoren; de veerkracht wordt bepaald met een onderliggend recht-toe-recht-aanval onderzoek. De veerkracht wordt gekarakteriseerd als T = 1 – R² voor deze eerste stap van het terugvalonderzoek. Bij T < 0,1 kan er sprake zijn van multicollineariteit in de informatie en bij T < 0,01 is dat zeker het geval.

3) FVariance Inflation Factor (VIF- de verschilzwellingsvariabele van het rechte relais wordt gekarakteriseerd als VIF = 1/T. Bij VIF > 5 betekent dit dat er sprake kan zijn van multicollineariteit; bij VIF > 10 is er ontegenzeggelijk sprake van multicollineariteit onder de factoren.

Bij de kans dat er multicollineariteit in de informatie wordt gevonden, kan de focus van de informatie (dat wil zeggen het gemiddelde van de variabele van elke score aftrekken) het probleem oplossen. Hoe dan ook, de minst complexe aanpak om het probleem op te lossen is het evacueren van autonome factoren met hoge VIF-waarden.

Ten vierde, lineaire regressieanalyse vereist dat er naast nul autocorrelatie in de informatie zit. Autocorrelatie vindt plaats als de restanten niet vrij van elkaar zijn. Dit gebeurt bijvoorbeeld normaal gesproken in de voorraadkosten, waarbij de kosten niet vrij zijn van de kosten uit het verleden.

4) Conditie-index – de conditie-index wordt bepaald om gebruik te maken van een factoronderzoek op de autonome factoren. Schattingen van 10-30 tonen een eerlijke multicollineariteit in de rechte recidieffactoren, waarden > 30 tonen een solide multicollineariteit.

In het geval dat multicollineariteit wordt gevonden in de informatie die de informatie concentreert, dat is het aftrekken van de gemiddelde score kan zorgen voor de kwestie. Verschillende keuzes om de problemen aan te pakken leidt tot een factoronderzoek en het draaien van de elementen om de vrijheid van de componenten in het directe terugvalonderzoek te garanderen.

Ten vierde vereist de lineaire regressieanalyse dat er praktisch geen autocorrelatie in de informatie is. Autocorrelatie treedt op als de residuen niet autonoom zijn. Uiteindelijk is de schatting van y(x+1) niet vrij van de schatting van y(x).

Terwijl een scatterplot u in staat stelt te controleren op autocorrelaties, kunt u met de Durbin-Watson-test het rechte-relaismodel testen op autocorrelatie. Durbin-Watson’s d test de ongeldige theorie dat de residuen niet direct auto-geassocieerd zijn. Terwijl d waarden ergens in het bereik van 0 en 4 kan accepteren, tonen waarden rond 2 geen autocorrelatie aan. Als algemene richtlijn tonen schattingen van 1,5 < d < 2,5 aan dat er geen autocorrelatie is in de informatie. Desalniettemin onderzoekt de Durbin-Watson test alleen de rechte autocorrelatie en alleen tussen de directe buren, die de eerste verzoek botsingen zijn.

De laatste verdenking van het rechte terugvalonderzoek is homoscedasticiteit. De dissipate plot is een geweldige aanpak om te controleren of de informatie homoscedastisch is (wat betekent dat de residuen gelijkwaardig zijn over de terugvallijn). De bijbehorende disperse plots tonen gevallen van informatie die niet homoscedastisch zijn (d.w.z. heteroscedastisch):

De Goldfeld-Quandt-test kan ook worden gebruikt om te testen op heteroscedasticiteit. De test bestaat uit twee bijeenkomsten en tests om na te gaan of de verschillen tussen de residuen vergelijkbaar zijn met die van de bijeenkomsten. Bij de kans dat homoscedasticiteit beschikbaar is, kan een niet-directe revisie het probleem oplossen.